КАК Я УПАКОВАЛ ЗАПУСК ПРИ ПОМОЩИ НЕЙРОСЕТЕЙ
Обещал рассказать, какие инструменты использовал для упаковки NeuroDesign — делаю 😎 Готовьтесь к огромному посту..
🗣 Этап 1 — Общая стилистика
Задача: сделать визуал в стиле, вдохновленном Аркейн'ом (смесь масляной живописи и реализма).
Пробовал разные нейронки, чтобы понять, какая справится лучше: Midjourney, Sora Image, Flux. Писал промпты в GPT, сразу адаптировал под каждую нейросеть.
Перед каждым проектом тестирую разные нейросети — чтобы понять, где быстрее получить результат.
Генерации устраивали везде. Все 3 нейросети я применял далее в процессе упаковки. Но 90% графики делал в Sora Image — она лучше всех понимала контекст и быстрее давала нужный результат ⚡️
В каких случаях использовал другие нейронки:
— Midjourney, когда требовалась более детализированная и киношная графика. Применял параметр "референс стиля" из уже готовых генераций в Sora.
— FLUX для генерации фонов. Натренировал Lora на кадрах сериала и получал очень похожие по стилю локации.
И к той, и к другой обращался, когда не получалось добиться желаемого в Sora Image.
🔖 Важный лайфхак: часто требуется микс нейросетей для крутого результата.
Например: Sora отлично рисовала нужные позы, эмоции, правильно расставляла персонажей и объекты. Но кинематографичности в таком стиле не хватало. Я брал результат генерации и использовал его в Midjourney в качестве референса изображения + дополнял референсом стиля.
🗣 Этап 2 — Стилизация персонажей
Задача: создать персонажей на основе реальных фото в том же стиле Аркейн.
Пробовал стилизацию в редакторе Midоurney, в Flux смешивал Lor'ы персонажа и стиля. И конечно же, Sora. Именно она давала самый точный и стабильный результат. Сделал почти сотню попыток — но попал точно в черты лица и эмоции.
🗣 Этап 3 — Анимация
Тут я почувствовал себя художником-аниматором. Больше половины таймлайна Reels я превратил в мультфильм 🤯
Все видео создавались из сгенерированных изображений. Сразу протестировал, где быстрее и точнее смогу получить анимацию: RunWay, Luma, Kling, Veo, Sora и Hailuo.
Наиболее подходящий результат был в Kling 2.0 в профессиональном режиме. Там с первого раза получались супер-динамичные киношные анимации, реально похожие на кадры из сериала.
Для спокойных сцен включал Veo.
———-
В общем, 80-90% графики создавал в ИИ, допиливал детали и делал быструю обработку в Photoshop, а с текстом работал в Figma (потому что материалов было много). А монтаж делал в CapCut.
Теперь хоть сериал могу нарисовать с ИИ 😁 Или как минимум — мощную упаковку для эксперта.
🔖 Какой можно сделать вывод: чтобы создавать в ИИ что-то реально крутое, надо уметь пользоваться разными нейронками, знать все их фишки, сильные и слабые стороны. Тогда вы сможете решить любую задачу и к вам будут обращаться с крупными проектами.
Чтобы иметь доступ всегда и ко всем нейронкам — нужно много деняк 🤑 А я пока не миллионер..
Поэтому пользуюсь всеми топовыми ИИ по
одной доступной подписочке в Syntx 🔗
—————
А за упаковкой ты знаешь, куда писать 👉
@bukreev_design