В 2026 году вовсе не обязательно искать модель для съемок или пытаться уговорить инфлюенсера на нативную рекламу крипты. С помощью ИИ можно самостоятельно наделать креативов с живыми людьми и даже селебрити, которые будут продвигать нужный оффер.
В этой статье рассказали, какой формат нейросетевых креативов всегда в топе и как делают те самые легендарные креативы с Илоном Маском.
Самый популярный формат AI-крео для крипты
Если говорить про креативы, крипту и искусственный интеллект, то первое, что приходят на ум, — Илон Маск. Любой байер, хоть раз заглядывающий в спай, видел там этого миллиардера с «его уникальными проектами».

Такой формат называется дипфейк, и делают его чаще всего с инфлюенсерами, либо селебрити. Обычный UGC используют в крипте реже, потому что случайные люди не оказывают нужного влияния на ЦА. Поэтому аффилиаты используют того же Маска или Цукерберга из-за того, что крео с ними:
- Вызывают больше доверия. Это главное преимущество дипфейка, потому что люди обычно принимают слова авторитетов без фильтра критического мышления. Маск — успешный предприниматель, поэтому он точно знает, как делать деньги и помочь заработать их другим.
- Создаются дешевле, а масштабируются легче. Если ролик с Джеффом Безосом зацепился в США, то этого же героя узнают и во всей Европе. Поэтому вносить изменения при тестах нового ГЕО и масштабировании практически не придется.
- Преодолевают баннерную слепоту. Люди активнее замечают креативы, где есть люди, и еще активнее, если на картинке или видео изображена знаменитость. Благодаря этому можно поднять CTR даже в сложных сорсах с большой конкуренцией. Более того, удачные крео можно переработать в VSL, чтобы юзер сильнее вовлекался в воронку и окупился с большей вероятностью.
Обычную анимацию фотографии Маска или Трампа еще можно сделать, но полноценное «выступление», где селебрити рекламирует оффер, уже сложнее.
| Нужен оффер по крипте? В каталоге OneCrypt более сотни офферов, а личный менеджер всегда готов помочь и ответить на все вопросы. |
Как создавать AI-креативы для крипты
Для создания дипфейков есть два подхода: либо при помощи популярных сервисов, либо при помощи софта базе своего ПК.
Проблема в том, что облачные решения для создания ИИ-аватаров часто не разрешают копировать лица известных политиков, бизнесменов и крупных инфлюенсеров. Поэтому они подойдут для локальных и малопопулярных блогеров. Зато такие нейросети работают в понятном интерфейсе и выдают результат сразу.
Локальные решения дают полную свободу, но с ними нужно разбираться гораздо дольше.
Мы в OneCrypt провели целую исследовательскую работу и разобрали процесс генерации AI-крео от простого к сложному. Начнем с платного «коробочного» решения HeyGen, условно-бесплатного Roop Face Swap и бесплатного DeepFaceLab.
Для новичков: запускаем HeyGen и Roop Face Swap
Самый простой вариант для старта — HeyGen. Это сервис, который позволяет анимировать фотографии и создавать ИИ-аватары. Стоит он недорого, работает в облаке и не грузит компьютер.

Чтобы создать учетную запись, авторизуемся через Google.

Дальше выбираем бесплатный тариф и решаем, что хотим сделать: анимировать фото или сделать ИИ-аватара. Начнем анимирования фото. Наводим курсор на кнопку «Create» и выбираем опцию «Photo to video».

Прикрепляем фотографию, которую будем анимировать, добавляем текст, выбираем голос и генерируем.

За минуту ИИ сделает примерно вот такое видео. Быстро, легко, но есть ограничение — чаще всего анимируются только лицо и губы. С другой стороны, большинство креативов в спайсерисах сделаны именно по такому принципу.
Чтобы сделать какую-то динамику с позой и руками, необходимо сделать ИИ аватара. Для этого снова наводим курсор на кнопку «Create» и нажимаем на «Photo to video».
Если повезет, то модерация пропустит аватар с селебрити. Но так бывает не со всеми и не всегда, поэтому тут воля случая. В диалоговом окне пишем скрипт действий для каждой сцены, выбираем аватар, если нужно, голос, движок для анимации и генерируем.

В бесплатной версии доступен только липсинк. Кастомные анимации движения только за деньги. Результат можно глянуть здесь.
Если и этого результата вам покажется мало, то время тестировать Roop Face Swap. Мы создали блокнот, где все можно запустить в облаке техногиганта. Открываем блокнот и выбираем мощности.

На странице есть три блока с кодом. Сначала запускаем первый блок и ждем, пока появится последняя строка «Done!» и успешную галочку о выполнении.

По аналогии делаем со вторым блоком.

Теперь открываем вкладку с файлами и перетаскиваем туда видео, в котором нужно заменить лицо и лицо, которое нужно поставить.

Должно получиться вот так.
После этого запускаем последний блок кода и скачиваем готовый клип. За 4 минуты программа создала вот такой клип.
Но тут стоит оговориться, что на качественное освоение инструмента уйдет неделя или больше. В сущности функционал позволяет и нарезать видео, и редактировать маски, и настраивать детальное сглаживание и проводить другую точную калибровку. Потратить столько времени на создание уникального крео, а потом залить их и словить бан будет обидно. Здесь стоит напомнить, что в OneCrypt мы предоставляем арбитражникам агентские аккаунты в Outbrain, MSN и Google, а также позволяем монетизировать лидов до $1 800 по CPA 😉
Мы не просто так назвали этот вариант ненадежным: Google против того, чтобы на его мощностях тренировали DeepFake-модели. Модераторы постоянно мониторят, какой код запускается в блокноте, поэтому через 1–2 часа сессия закрывается, а данные удаляются.
Для продвинутых: как установить и работать с DeepFaceLab
Мы решили написать этот вариант просто на всякий случай. Потому что понимаем, что абсолютное большинство арбитражников не пойдет так далеко и не станет тратить время на освоение еще одно сложного инструмента.
Сразу скажем, что развернуть DeepFaceLab на облаке выгодно, но тяжело. Проблема в том, что не каждый сервис позволит тренировать на своих мощностях модели для создания дипфейка. Тот же Google Colab — это ненадежный вариант для работы, поэтому сначала разберем локальное решение, работающее как швейцарские часы.
Как работает DeepFaceLab. Кратко объясним всю механику процесса. Сначала мы загружаем исходное видео-донор, из которого будем брать лицо. Программа, опираясь на мощности видеокарты, нарежет исходник на кадры. Затем она сделает то же самое с клипом, в который мы будем вставлять это лицо. Далее она вычленит с готовых кадров маску, с самим лицом. Выглядит она примерно так.

После этого из огромной кучи кадров DeepFaceLab будет искать сходные между собой изображения с первым и со вторым лицом, а потом накладывать их друг на друга. Чем больше качественных кадров, тем больше у модели возможностей для обучения, и тем правдоподобнее получится результат. Именно поэтому необходимо запастись минимум 80–90 Гб памяти и парой тройкой часов терпения. Проблема в том, что после нарезки ролика на кадры, далеко не все из них подойдут для обучения. Например, где-то в кадр влезут другие люди, где-то будет заставка и т. д. Такой шум только нагрузит видеокарту и затормозит процесс обучения. Из-за этого отсеивать кадры придется вручную.
Что понадобится для работы:
- ПК с хорошей видеокартой. Нужна видеокарта NVIDIA серии минимум 2000+. Если брать меньше, то программа будет работать коряво и долго. Чем мощнее видеокарта, тем быстрее будут создаваться креативы.
- Объемный жесткий диск. Необходимо минимум 80–90 Гб для одного клипа. Например, ролик на 30 секунд у нас занял 800 Мб. С чем это связано, мы еще расскажем далее. Если такого объема нет, закупаем внешние SSD или HDD, чтобы работать с видео на них.
- Качественные исходники. Для создания дипфейка нам нужно скачать минимум два видео: одно с лицом, которое мы будем брать, а другое со спикером, на которого мы это лицо будем «клеить». Качественный исходник подразумевает, что лица будут крупным планом, с разных ракурсов, под разным освещением и с разными эмоциями. Качество — 1080p минимум, но лучше 4К. Найти такие достаточно проблематично, поэтому следующий компонент работы самый главный.
- Терпение. Создание качественного дипфейка киношного качества может занять 3–4 дня, потому что нужно найти десяток исходников и подождать, пока модель обучится. Кнопки «Нажми сюда и получи результат» здесь нет, поэтому на первых порах придется напрячься.
Теперь перейдем к установке. Качаем с официального репозитория установщик под нашу систему, который находится в конце страницы.

Если качать через Mega.nz, то увидим там несколько вариантов установщиков. Рекомендации по выбору выглядят так:

Чтобы узнать свою видеокарту, открываем «Пуск», затем PowerShell и прописываем следующую команду:
- Get-CimInstance Win32_VideoController | Select-Object Name, DriverVersion
Скачиваем подходящую версию, устанавливаем и открываем папку. Привычного интерфейса тут не будет, а работать приходится через .bat файлы.

Перед началом работы нужно подготовить исходники. Для этого открываем папку workspace, удаляем тестовые ролики и загружаем два клипа со следующими названиями:
- data_src.mp4. Это видео с лицом, которое нам нужно поместить в готовый креатив.
- data_dst.mp4. Это тот самый креатив, на котором должно оказаться новое лицо.
Если исходники подобраны качественно, на этом наша мыслительная деятельность заканчивается. Теперь нужно поочередно открывать .bat, которые мы опишем ниже.
clear workspace.bat. Запускаем этот файл, чтобы очистить рабочее пространство. Если до этого DeepFaceLab никогда не запускался на компьютере, пропускаем этот пункт.
extract images from video data_src.bat. Извлекаем кадры из первого видео. Напомним, что программа должна стоять на SSD или HDD c минимум 80–90 Гб места, чтобы все кадры поместились. Видео в 1080p на 20 минут запросто займет 30–40 Гб.

extract images from video data_dst FULL FPS.bat. Делаем то же самое, но со вторым видео. Чем больше длительность ролика, тем дольше будет работать программа. Параллельно с извлечением лучше ничего не запускать: ПК будет значительно перегреваться.

data_src faceset extract.bat. Теперь выделяем маску из кадров первого ролика.

data_dst faceset extract.bat. Далее просим программу найти маску с кадров второго клипа.
data_src view aligned result.bat. После этого смотрим лица, которые отобрала программа. Если появилось что-то лишнее, удаляем.
data_dst view aligned result.bat. То же самое делаем и со вторым видеороликом.

train Quick96.bat. На следующем этапе обучаем модель: она должна взять выражения лица с первого ролика и найти похожие на них выражения во втором. По времени это может затянуться на несколько часов или даже дней, если речь идет про часовые клипы и тысячи кадров.

Далее откроется окно с предпоказом тренировки.

merge Quick96.bat. Когда предыдущий этап закончится, модель поймет, какие лица с первого видео наложить на второй видеоряд. Но теперь нужно поместить маску на лице так, чтобы она не выходила за рамки головы, не была поверх волос и т. д.

Например, нажимаем W и S, чтобы сузить или расширить границы маски, а E и D отвечают за размытие этой границы. После этого распределяем изменения на все кадры с нажатием Shift + /, потом и . + Shift.
merged to mp4.bat. Теперь все кадры компилируем в видео. Без ручного отсева кадров, долгой подготовки и на слабом железе за 3 часа мы получили вот такой результат. И хотя потенциал есть, будем честными: ролик далек от идеала 🙂
Как сделать качественный дипфейк быстро и легко?
Ответим прямо — никак. Если все делать бесплатно, понадобится мощный ПК с хорошей видеокартой и объемным SSD/HDD. За пару часов, потраченных на поиски исходников и ожидание работы программы, можно получить удовлетворительный результат уже в первый день.
Коробочные решения есть, но по качеству они иногда уступают тому же DeepFaceLab. Например, есть SwapFace, работающий в облаке компании. Стоит достаточно дорого:

Но и результат довольно посредственный. Совместить Илона Маска с Джейсоном Стейтемом у нас не получилось.

Пожалуй, самым простым решением можно назвать HeyGen, который неплохо оживляет фотографии и делает вполне приличную озвучку. Причем, если не хочется платить, можно наделать аккаунтов и собрать пакет креативов на тесты (на каждый новый аккаунт есть несколько бесплатных генераций).
Заключение
Дипфейки сегодня — это не просто хайповая игрушка, а рабочий способ пробить баннерную слепоту и выжать из крипто-офферов максимум, пока остальные байеры сливают бюджеты на скучную статику. Конечно, никакой «кнопки бабло» тут не существует: вам придется либо сутками мучить свою видеокарту в DeepFaceLab ради идеальной маски, либо мириться с ограничениями HeyGen (или похожих сервисов).
В любом случае, доверие к условному Илону Маску или Джеффу Безосу всегда будет выше, чем к любому парню из стока. А это напрямую влияет на конверсию и ROI. Мы рекомендуем стартовать с HeyGen, Google Colab и Face Swap. Но какой бы подход вы не использовали, если вы льете на крипту, то лейте в OneCrypt ❤️
Удачных вам заливов!
![]()












