👤 На чём стоит веб. Мастер-класс по дизайну кодом с Женей Арутюновым

Давайте не будем перечислять причины необходимости понимать основы HTML CSS JS каждому диджитал-дизайнеру (и не только), а перейдём сразу к фактам: ◆ Макеты в фигма — это зачастую просто картинка, непонятно как она будет работать в динамике, с разными данными и условиями. ◆ Свёрстанный в HTML док на шаг ближе к конечному продукту, чем макеты. ◆ ИИ уже умеют и рисовать дизайны и верстать странички, но смотрите второй ◆. ◆ Дизайнер, владеющий кодом, богоподобен (преувеличено в художественных целях). До дизайна я был сугубо технарём и собирал сайтики в Notepad++, а, когда пришёл в дизайн, не сразу, но увидел похожести с веб-разработкой. Например в CSS есть классы, а в PS и Ai стили текста и глобальные цвета Короче, для меня грань между нарисованным дизайном и его имплементацией всегда была размыта и интуитивно казалось, что её вообще не должно быть. Поэтому я так радовался появлению Webflow, а потом нейронкам, с которыми набросать базовый док можно за две минуты. Что-то руками в коде я писал очень редко (в основном, чтобы фронтам что-то подсказать по задумке), поэтому сходил к Жене Арутюнову на курс «как верстать кодом». Убедился, что сейчас между фигмой и веб-разработкой ещё меньше отличий (переменные, генерация снипетов и тд). Но главное, кайфанул от осознания того, что можно сократить время вывода в продакшн своих затей, если знать код, и что разработка дизайн систем становится понятнее, когда для тебя :root {--primary: #2A303E;} не просто кракозябры. Сейчас Женя курс обновил, вот тут можно узнать всё необходимое. Так вот, мы же тут не просто про: «сходи посмотри курс». Мы про пользу в моменте, превращение сложного в простое, а страшного в «напугали ежа...». Поэтому мы договорились с Женей устроить такой мастер-класс, пройдя который каждый сможет понять каково это: делать дизайн сразу в коде, без двойной работы. То есть если вы боялись этой темы (особенно если вы боялись) или что-то пробовали, но не зашло — обязательно приходите. И всех зовите. Будет клёво, я обещаю Почитайте канал Жени (по ссылке начало серий заметок о курсе и зачем учить HTML). Когда: 6 мая в 19:00 МСК Где: трансляция у нас в Телеграм-канале и в VK Видео 🍑 Явно.Дизайн #антон #анонс #мастеркласс
Изображение поста

Минутка нейронки:

Эксперимент с OpenAI и изображением, которое семьдесят итераций проходит до полной нейронной галлюцинации. Для дизайна интересна сама генерация последовательных изменений с каждой новой попыткой, что можно развить в концептуальный подход к поиску идей на основе референса. Промт и инструкции Автор: papayathreesome
Video is not supported

Ребята, привет!

Я тут мульт забацала в стиле валяной анимации. Хочу вам закинуть для обсуждения. Вдруг у вас какие полезные мысли будут. Показалось, что стиль валяной анимации последнее время немного забыт, но очень круто смотрится и теперь еще и не является таким трудоемким, как раньше в традиционной анимации. А стихи я люблю с детства. Так и родилось такое комбо! Инструменты, которыми пользовалась: -gpt -Photoshop -Flux-dev -Fluxgym (для обучения лор на персонажей) -Kling -Runway -Hedra -Capcut -After Effects -Suno -ElevenLabs Делала одна. Примерно 2 недели в свободное время, но если чистое время выделить, то, может, около 20-25 часов бы вышло. Сценарий писала с gpt - пытались с ним под Пушкина делать рифму. Многое, конечно, переписывала сама. Так как нужна была нужная интонация - начитывала текст за всех персонажей самостоятельно, а потом в 11Labs пользовалась voice changer и меняла под созданные мной или в местной библиотеке. Для бабули было сложне всего найти - видимо, бабушкины голоса не пользуются спросом. Картинки делала в GPT: закидывала скетч и готовых персонажей в нейтральной позе, просила сгенерировать нужную композицию по скетчу. Лоры на Flux на каждого персонажа тоже обучила и при необходимости подправляла стиллы, но в большинстве случаев GPT сам справлялся. Часто дорабатывала в фотошопе, и иногда инпейнтила во flux нужных персонажей при помощи лор. Особенно, когда нужно было их всех за стол посадить. Для анимации использовала Kling и Runway (в некоторых шотах Runway даже обыгрывал Kling, наверное, в силу специфики). По бюджету: Kling у меня ушло около 4 тыс кредитов (примерно $30) Runway безлимит, так что там было очень много генераций в потоке. ($95 - но он у меня и для других проектов) Hedra - $10 для липсинка (тк клинг и ранвей моих персонажей для липсинка не распознали) ElevenLabs - $22 (тоже еще много кредитов для других проектов осталось)
Video is not supported

Быстрые 3D композиции локально для ComfyUI

Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко: — Задавать позы простым болванками. — Выбирать идеальные ракурсы камеры и строить сцены. — Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5. — А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨ 🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем. Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D. Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании. 📕 Минусы: — Пока только для Windows пользователей GITHUBAUTHOR
Video is not supported
Быстрые 3D композиции локально для ComfyUI
Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко: — Задавать позы простым болванками. — Выбирать идеальные ракурсы камеры и строить сцены. — Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5. — А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨ 🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем. Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D. Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании. 📕 Минусы: — Пока только для Windows пользователей GITHUBAUTHOR
Video is not supported
Unity Procedural Generation: Build Infinite Game Levels
Курс посвящён процедурной генерации в Unity — созданию динамического контента с помощью алгоритмов. Вы научитесь генерировать ландшафты, уровни, лабиринты и другие игровые элементы программным способом, что особенно полезно для roguelike-игр или открытых миров. Видео на английском языке без субтитров. Подробнее с курсом можно ознакомиться здесь. ➡️ СКАЧАТЬ | 6,28 ГБ #курс #Unity @poly3ds
Изображение поста
Изображение канала: CGPlugins
Human Generator Ultimate v4.0.26 + Assets (Blender 4.4)
👨🏻‍🦱👩🏻‍🦰 Human Generator — это дополнение к Blender , которое позволяет легко добавлять фотореалистичных людей в ваши проекты. Помимо возможности создавать бесконечные вариации людей, Addon также включает в себя ряд дополнительного контента. 🔹Примечания к выпуску V4 Основные новые функции: • Больше никаких ограничений на этап создания/завершения! Теперь весь функционал доступен в любое время! Например, вы все равно можете изменить пропорции тела и рост человека после добавления одежды. • Система нового века! Теперь вы можете заставить своих людей выглядеть старше и моложе, чем раньше, с полным старением тела. • Более разнообразные стартовые люди. Эти новые параметры позволят вам быстрее создавать более определенные символы. • Супермощный новый API. По сути, все дополнение теперь работает на скрытом API. Это означает, что почти все функции дополнения быстро доступны через наш новый класс Human . • 7 новых систем волос, предназначенных для пожилых людей. • Автоматическое создание карт волос. Для случаев, когда вы хотите использовать людей в программном обеспечении, которое не поддерживает волосы частиц, или вы считаете, что волосы частиц слишком тяжелы для вашего варианта использования. • Генерация LOD. Хотите иметь сетки с более низким разрешением? Используйте нашу новую функцию генерации LOD, которую можно найти в меню обработки. • И еще больше инструментов «Process»! Например, пользовательские скрипты, использующие наш новый API, переименование объектов, материалов, костей и т. д. Источник: Human Generator Ultimate 💾 ССЫЛКА 💬 Комментарии ➡️КАНАЛ⬅️ #generator #Blender #Human_Generator #3d #free #бесплатно
Video is not supported
Изображение канала: Adobe After Effects
Наконец-то дошли руки протестить Hunyuan 2.5.
И вот что я хочу сказать! Сейчас это лучший 3D-генератор на рынке, а учитывая его 20 бесплатных генераций в день, это можно считать вообще лучшим бесплатным генератором! Точность геометрии выросла в разы, особенно если мы говорим про не очень комплексные объекты. С моей палаткой пока не справляется. Но если у вас стилизация и простые формы, то это практически закроет потребности в генерации. Я всё ещё жду с нетерпением сегментацию, которую уже показали, и примерно через 3–5 месяцев она будет по умолчанию уже и в Хуньяне, и в Трипо. Пока Трипо ушёл на второе место со своими 600 кредитами в месяц (~5 генераций) против Хуньяня с 20 генерациями в день!! Пробовать тут, регайтесь по почте. @CGIT_Vines
Video is not supported
Изображение канала: Graphic Design Gurus
Как развивать свой визуальный язык через генерацию в Midjourney
Каждый дизайнер со временем вырабатывает свой уникальный визуальный стиль — систему предпочтений в композиции, цвете, форме и атмосфере. Midjourney может стать не только инструментом генерации, но и средой для самопознания и развития авторского визуального языка. ИИ не заменяет личный взгляд дизайнера, но помогает его уточнить, разнообразить и усилить. 1. Исследование: что тебе по-настоящему близко Midjourney позволяет быстро и безопасно тестировать стилистические идеи, не ограничивая себя техническими навыками. Ты можешь ввести один и тот же запрос в разных интерпретациях и наблюдать, что из этого эмоционально резонирует. 📌 Пример: Ты вводишь серию промптов о кафе в Париже: - parisian café, rainy evening, muted tones - vintage coffee shop, cinematic light, golden hour - modern minimal café with brutalist furniture Сравнивая образы, ты начинаешь лучше понимать: тебе ближе меланхоличный реализм, насыщенные винтажные тона или строгая графичность. 2. Повторяемость — ключ к стилю Если ты регулярно формулируешь похожие промпты, система начинает выдавать визуальные паттерны: палитры, композиционные схемы, фактуры. Это и есть основа твоего визуального языка. 💡 Совет: Создай папку с избранными генерациями, и через месяц пересмотри её — ты увидишь закономерности. Они подскажут, что именно можно формализовать как "свой стиль". 3. Игра с вариациями: одно ядро, много трактовок Выбери один предмет или образ (например, «чайный сервиз», «городская улица», «женский портрет») и начинай варьировать его: - в разных стилях: bauhaus, japanese woodblock, scandinavian minimalism - в разной атмосфере: surreal, cozy, melancholic, dreamlike - в разных цветовых решениях: pastel, monochrome, vivid contrast Такой подход позволяет не просто генерировать картинки, а развивать чувствительность к нюансам, формируя визуальную насмотренность. 4. Развивай визуальный "словарь" Создавай личную библиотеку терминов, которые помогают получить нужный результат: - визуальные метафоры (like a still from a Godard movie) - описание материалов (handwoven linen, brushed metal) - эмоциональные оттенки (wistful, euphoric, detached elegance) Чем точнее твой словарь, тем глубже проработка визуального стиля. @graphicdesigngurus
Изображение поста
Изображение канала: Нейросети и Блендер
Наконец-то дошли руки протестить Hunyuan 2.5.
И вот что я хочу сказать! Сейчас это лучший 3D-генератор на рынке, а учитывая его 20 бесплатных генераций в день, это можно считать вообще лучшим бесплатным генератором! Точность геометрии выросла в разы, особенно если мы говорим про не очень комплексные объекты. С моей палаткой пока не справляется. Но если у вас стилизация и простые формы, то это практически закроет потребности в генерации. Я всё ещё жду с нетерпением сегментацию, которую уже показали, и примерно через 3–5 месяцев она будет по умолчанию уже и в Хуньяне, и в Трипо. Пока Трипо ушёл на второе место со своими 600 кредитами в месяц (~5 генераций) против Хуньяня с 20 генерациями в день!! Пробовать тут, регайтесь по почте. @CGIT_Vines
Video is not supported
Изображение канала: Фигматика | Figma
Плагин random number generator — для быстрой генерации случайных чисел и замены их в текстовых слоях с возможностью настройки диапазонов и форматирования.
#текст #числа #генерация #форматирование
Video is not supported
Изображение канала: Михаил Орлов • Деньги на дизайне
📱 Дизайнер, работай с ChatGPT в кайф!
Я записал для вас 5 коротких, но мощных уроков, которые помогут дизайнерам использовать ChatGPT на максимум. Вот что уже доступно: 1️⃣ Как работает ChatGPT — чтобы вы понимали, с чем имеете дело 2️⃣ Генерация изображений с нуля — пробуем делать визуалы прямо в нейросети 3️⃣ Как собрать портфолио легко с помощью ChatGPT — особенно актуально для тех, кто начинает 4️⃣ Как выйти на 100к в месяц — реальные шаги, без воды 5️⃣ Документы и брифы для клиента — чтобы работать как профи, даже если пока нет клиентов 📱📱📱📱📱 Лишь бы была польза для тебя)) Нажми на кнопку ниже ⬇️ ____ Поставь лайк и поделись в другом дизайнером))
Изображение поста
Изображение канала: Design Hunters
CGB Studio — студия по производству креативов и плейблов для мобильных игр! 🎮🎨✨
🔍 Ищем 2D Marketing Artist (мобильные креативы) 📋 Обязанности - сборка локации креатива из ассетов для дальнейшей анимации 🧱 - отрисовка отдельных элементов 🎨 - генерация локаций и объектов ⚡️ ✅ Требования - владение Photoshop, Figma, Illustrator (для сборки и доработки сцен) - опыт работы с нейросетями - умение работать с ассетами и библиотеками (соблюдение стилистики) - навыки отрисовки пропсов, фонов, UI-элементов в нужном стиле - основы перспективы, композиции, света и тени - умение работать с TDS (техническими заданиями), пайплайном и asset-менеджментом ➕ Доп. навыки, которые будут плюсом - знание Unity/Unreal Engine (для рендера сцен) - опыт работы в геймдеве или мобильной рекламе 💼 Предлагаем - удаленная part time/full time занятость 🧑‍💻 - высокая стоимость задач по рынку 💸 - бонусные выплаты 🎉 - техническая поддержка от Lead`а задачи 👨‍🔧 - работа в команде увлечённых и талантливых специалистов 👥 📬 Присылайте портфолио: Роман
Video is not supported
Изображение канала: VideoSmile
Помните этот мемный ролик, над которым все смеялись? 😄
И результат спустя 2 года развития нейросетей — прогресс просто огонь! 🔥 Генерация видео, изображений, текстов — всё это уже можно (и нужно) применять в дизайне. На курсе https://cloudlessons.ru/v/490/">«Нейросети для дизайнера» разбираемся, как встроить AI-инструменты в рабочий процесс. 👉 https://cloudlessons.ru/v/490/ #нейросети #вдохновение
Video is not supported
Изображение канала: vanök regular 🍏
постепенно придумываю картинки для себя и собираю свою айдентику
вот создал удобный промпт и стиль для работы с тех эстетикой и генерации картинок в таком стиле, всё загрузил в vanök+ подписка на неделю подписка на месяц
Изображение поста
Изображение канала: ЦЁХ.ДИЗАЙН
Посягнули на святое 😶
Пока Valve 20 лет просиживает штаны, мы взяли и создали концепт Half-Life 3 с помощью нейросетей 📺 В новом видео Андрей Сергунин, дизайн-директор ЦЕХ.ДИЗАЙН: — Собирает все-все утечки, концепты и слухи 😶 — Визуализирует персонажей Вортигонты с пупком это мощно😶 — Воссоздаёт культовое оружие и локации из слитого сценария — Дарит жизнь лучшим генерациям — Переосмысляет старые демки HL1/HL2😶 Хотите увидеть, как могла бы выглядеть игра мечты, созданная с помощью Ai? 👉 Смотрите полный процесс на YouTube
Video is not supported
Изображение канала: AlexHappy3D
Готов ещё один генератор текстур плетения в формате .sbsar
Используйте бесплатную программу Substance Player для генерации своих вариантов текстур в разрешении до 4K, используя 18 настраиваемых параметров или используйте в программе Substance 3D Painter. Так же имеется 5 преднастроенных пресетов, как на превью. Созданные текстуры вы можете свободно использовать на своих 3д-моделях, которые продаёте на стоках.
Изображение поста
Изображение канала: Таня pro дизайн & маркетплейсы
🪄В ОЖИДАНИИ ЧУДА ОТ ИИ: Почему ChatGPT и Sora Images — всего лишь инструменты?
Вот так — 🤞, со скрещенными пальцами и надеждой в глазах, я выгляжу, когда томлюсь в ожидании идеального варианта от нейросетей С каждым днем я все больше убеждаюсь: ChatGPT и даже Sora Images – это всего лишь инструменты. Да, они крутые, но далеко не волшебные палочки, которые создают идеальный дизайн по щелчку пальцев Будем честны, идеального результата они НЕ ДАЮТ НИКОГДА Всегда, понимаете? В-С-Е-Г-Д-А приходится что-то дорабатывать, корректировать, переписывать промты до тех пор, пока не родится хоть что-то похожее на то, что ты задумал) При этом нельзя просто так взять и получить идеальный результат в одной нейросети На практике получается, что в связке всегда работает 3-4 сервиса: один генерирует запрос ➡️второй создает фото ➡️третий улучшает качество до более реалистичного ➡️четвертый исправляет мелкие погрешности 😤 В общем, собрала тут несколько особенно бесячих минусов ChatGPT и Sora Images, которые накопились за время работы ↩️ ➖У ChatGPT часто вылетает запрет на генерацию из-за "нарушения политики". Причем изображение может быть абсолютно невинным, даже по промту, который он сам же и придумал! Особенно это касается генерации людей, в особенности женщин, детей, подростков. ➖У Sora Images тоже есть похожие ограничения, но их гораздо меньше и нейросеть не так сильно придирается к каждому изображению. ➖Из-за повышенного внимания к этим нейросетям, нагрузка на сервера просто зашкаливает. Sora часто уходит на обновление, а GPT просто просит подождать несколько минут или даже часов до новой генерации. В итоге, задача, на которую ты отводишь час, растягивается на целый день в томительном ожидании чуда. ➖Создают только по одной фотографии. Никакой динамики, никаких вариантов на выбор. Хочешь что-то новое – генерируй по тому же запросу заново, надеясь на удачу. ➖ Каждая правка – новый исходник: будьте готовы, что при корректировке изображения нейросеть может заново его "пересобрать", потеряв важные детали или даже изменив внешность персонажа :( ➡️Что мы имеем в итоге? Нейросети — это круто, но это не замена дизайнеру, а лишь инструмент в его руках Они помогают ускорить процесс, дают новые идеи, но требуют постоянного контроля, доработки и креативного подхода 💬 Готовы ли вы к такому компромиссу? Какой у вас опыт работы с нейросетями в дизайне? Делитесь в комментариях, очень интересно послушать ваше мнение ⬇️ Примеры работ | Прайс-лист | Обсудить ваш проект 💖💖💖
Изображение поста
Изображение канала: Brush.Guru
Оу, май! Забыл сказать, что на новом Мастер-Классе мы же еше анимировать такие штуки научимся.
Анимация рекламных креативов для известных брендов (как на примере) и не только. Помимо этого на мастер-классе: - Будем впихивать любой объект в любое окружение - Одевать и раздевать кого и что-угодно (аксессуары, одежда и пр) - Будем делать креативные видосы из получившихся генераций - Устроим самую настоящую Нейро-Фотосессию - Сделаем свои фотки в любом стиле (мультяшные, 3д-шные и тд) - Даже сделаем куклду в коробке И конечно же, сделаем полноценный дизайн. Креативно, сочно и мощно! А еще, расскажу про новейшие способы поиска клиентов, которыми пока все ссут делиться. Там тоже замешаны нейронки. И это - отвал жопы) Уже завтра - 24 апреля в 18:00 msk. Живое участие - бесплатно. Запись только для тех, кто пойдет в полный курс. На мастер-классе, кстати (только для присутствующих), будут крутейшие условия и подробности обновленного потока. Регистрируйся по ссылке: https://start.brush.guru/gd_webinar
Video is not supported
Изображение канала: 🫨 Небинарный Дизайнер
Оу, май! Забыл сказать, что на новом Мастер-Классе мы же еше анимировать такие штуки научимся.
Анимация рекламных креативов для известных брендов (как на примере) и не только. Помимо этого на мастер-классе: - Будем впихивать любой объект в любое окружение - Одевать и раздевать кого и что-угодно (аксессуары, одежда и пр) - Будем делать креативные видосы из получившихся генераций - Устроим самую настоящую Нейро-Фотосессию - Сделаем свои фотки в любом стиле (мультяшные, 3д-шные и тд) - Даже сделаем куклду в коробке И конечно же, сделаем полноценный дизайн. Креативно, сочно и мощно! А еще, расскажу про новейшие способы поиска клиентов, которыми пока все ссут делиться. Там тоже замешаны нейронки. И это - отвал жопы) Уже завтра - 24 апреля в 18:00 msk. Живое участие - бесплатно. Запись только для тех, кто пойдет в полный курс. На мастер-классе, кстати (только для присутствующих), будут крутейшие условия и подробности обновленного потока. Регистрируйся по ссылке: https://start.brush.guru/gd_webinar
Video is not supported