🔗 UNIQO

Генератор случайных графических элементов прямо на холсте. Управляй параметрами, но не результатом — каждое нажатие даёт уникальный визуал. Идеально для постеров и фона под настроение. #генераторы #графика #рандом #эксперименты #вдохновение #визуал #инструменты Посмотреть 🔗

“Ничего не получилось! 😩” — знакома эта мысль?

🎨 Лайфхак от Веры Шерстобитовой: "Не прячьте «провалы» — превращайте их в трамплин для эксперимента. Вместо того, чтобы сжечь неудавшийся разворот, добавьте смелый цветной мазок, нацарапайте узор или наложите коллаж из обрывков бумаги. Это — беспроигрышный способ найти новую идею. Когда «нечего терять», рождаются неожиданные решения! Попробуйте: возьмите самую «ужасную» страницу, "обновите" её парой движений и посмотрите, как она заиграет по‑новому". А вы что делаете с неудачными работами? Поделитесь в комментариях (фото приветствуются)! 📣 P.S.: закрытые продажи нового курса Веры Шерстобитовой стартуют уже в понедельник. Присоединяйтесь к инсайдам и лучшей цене → https://t.me/sketchingbezgranic">https://t.me/sketchingbezgranic #markerschool

Figma и ИИ: теперь уже без отговорок

Только собрался написать статью о том, что каждый дизайнер обязан уметь превращать свои экраны в кликабельные прототипы — с помощью Bolt, Lovable и других инструментов (не беру Cursor, он уже посложнее), — как Figma выкатывает апдейт. И не просто апдейт, а буквально встраивает под капот тот же Bolt, на базе Claude Sonnet 3.7. Без лишнего шума Figma делает то, что должно было случиться: превращает среду проектирования в среду исполнения. Теперь ты не просто рисуешь экраны — ты можешь сразу собирать из них работающие штуки. Это ожидаемо, логично и, я бы сказал, органично. Всё, о чём я говорил в своих видео, теперь выходит на другой уровень. Раньше это были эксперименты в сторонних инструментах — теперь это становится частью самого процесса. Не где-то рядом, а прямо внутри того, где дизайнер работает каждый день. Поэтому теперь всё просто: нет смысла спорить, надо ли дизайнеру уметь работать с ИИ. Надо. Уже сейчас. Иначе будешь не в процессе, а догоняющим. (На фотографии я с сыном — без всяких ИИ, просто момент. Для нас это уже наступившее будущее, для него — будет обыденной реальностью. И в этом, наверное, самый интересный контраст.)
Изображение поста

Сегодня мне особенно захотелось вложить душу в каждое слово, в каждый пиксель…

Сначала я решила создать открытку, а настоящее живое послание — нарисованное и анимированное с помощью ИИ. Я перебрала десятки промтов, вдохновлялась разными генерациями, экспериментировала и, в конце концов, поймала тот самый образ — образ, который точно передаёт мои чувства сегодня: благодарность, трепет, гордость и бесконечную веру в светлое будущее. Пусть это виртуальное творение напомнит нам о самом главном — о мире, который нам подарили, о мужестве, что навсегда в наших сердцах, и о памяти, которую мы несём сквозь поколения. С Днём Великой Победы! Пусть над всеми нами будет мирное небо, свет в душе и тепло в сердце. 💫
ЭКСПЕРИМЕНТ завершен!
Цель: создать полноценную историю с минимальными затратами. Инструменты: - чат GPT (раскадровка, описание персонажей, промты, бесплатная версия); - Leonardo.ai (модель Phoenix 1.0, бесплатная версия); - Adobe Photoshop (правки иллюстраций, десктоп, пиратка); - Hailuo ai (генерация картинка-видео, подписка); - Topaz Video ai (апскейл, десктоп, пиратка); - Suno ai (песня, версия 3.5 бесплатная); - TG бот @steosvoice_bot (озвучка персонажей, бесплатно); - Adobe Premiere Pro (видеомонтаж, десктоп, пиратка). Затраченное время 1 рабочая неделя (примерно 30-35 час). Выводы: При желании и сноровке можно создать полноценную историю с небольшими затратами. В каждой сцене Колобок и др. персонажи внешне разные. В некоторых нейросятях уже есть фича, позволяющая создавать очень похожих персонажей в разных ракурсах и в разном окружении. Но в таком случае увеличиваются расходы на подписку, да и не всегда можно создать раскадровку "очень похож", если в кадре более одного персонажа.
Модный словарь: «NeoClassic Fashion» и «Avant-Garde Wear»
Современная мода развивается, предлагая концепции, отражающие различные философии стиля. В этой статье мы рассмотрим два направления: NeoClassic Fashion, сочетающий традиционную элегантность с современными элементами, и Avant-Garde Wear, который разрушает стереотипы и смело экспериментирует с формами и материалами. Узнаем их происхождение, основные черты и влияние на индустрию.
Изображение поста
Челленджу быть!
Вы очень быстро набрали 40 🔥, красавчики! Пойду, значит, заморачиваться 😃 А пока гляньте на мои эксперименты. На карточке всё, кроме товара, сделано моими умелыми ручками. Тени, объем, отражения, свет - делал я без помощи нейронки. Вот так решил сделать работу с нуля и попробовать пару фишек. Считаю, что вышло здорово! Как думаете? Работа достойная гуру - 🔥 Норм для новичка - ❤️ Жду ваших реакций
Изображение поста
Digital 3D Fashion with Marvelous Designer and Cinema 4D [ESP - RUS]
🛡 Title: Digital 3D Fashion with Marvelous Designer and Cinema 4D Info: Class… 💃🏼 Фотореалистичные модные предметы одежды и платья в 3D с помощью Marvelous Designer, Cinema 4D и OctaneRender. Дизайн одежды и 3D-визуализация — это волшебное сочетание: цифровые инструменты позволяют экспериментировать с новыми техниками и создавать формы, текстуры и узоры, которые вы никогда не считали возможными. Изготовление выкроек и пошив трехмерной одежды дает вам возможность визуализировать даже мельчайшие детали и создавать любые предметы одежды без ограничений и в фотореалистичном качестве. ➡️ КАНАЛ ⬅️ 💬 Комментарии 👉🏼 СКАЧАТЬ в приватном канале - 👈🏼 Download in a private channel #курсы #Marvelous_Designer #Cinema_4D #Спонсорство #по_подписке Материал предоставлен только для справки и ознакомления. Поддержите автора, купив у него курс!
😍 Наблюдать за тем, как рождается работа — невероятно завораживающе
Сегодня мы покажем, как художник Азат Нургалеев превращает пустой лист в живописный портрет. А вот и комментарий художника: «Первое, о чем нужно думать в начале работы над такими тонально-живописными портретами — это масса пятен волос и ее отношение к белым краям формата. Потом в сформировавшуюся рамку помещаются глазки, брови, губы, нос. Причем начинаем с черточек и почеркушек, не тратя лишнее время на прорисовку. Когда мы наметили волосы и основные детали, идет процесс детализации портрета. Если вы хотите довольно проработанную картинку, то придется посидеть за рендером и штриховкой. Экспериментальные портреты — это череда находок, которые в конечном счете выруливает на какой-то интересный результат. Я начинал его черным цветом, а-ля уголь. Но в процессе появилось желание проработать в красных сангинных цветах. Затем попробовал добавить полоску ультрамарина, которая оживит картинку и «запрёт» белый внизу формата. После этого захотелось внести контрастности и добавить более тёмные тона. Я обычно рисую красные щёки, но тут всё и так было красным, поэтому было принято нетривиальное решение сделать румянец чёрным😀 Под круглый румянец захотелось рифмы, и я добавил чёрный горошек на синюю полоску сверху, которую чуть осветлил, чтобы она отбивалась по тону от волос. Так и получился финальный результат». ⏳ 29 секунд для вас и 5,5 часов для художника.
🔗 Bake 3D Font
Инструмент для игры с 3D-шрифтами: цвет, объём, текстура — всё на лету. Стильно, свежо и без заморочек с рендерами. #шрифты #3d #типографика #дизайн #инструменты #визуал #эксперименты Посмотреть 🔗
God no, please no! 😩
Одно дело кассы самообслуживания где ты сам пробиваешь товар просто поднеся штрихкод или в вкусочке на автоматизме добавлять картоху, другое дело вот такой ебантизм в аптеке. Мало того что эти дешёвые обкашляные жирные экраны с вечно хуево работающей сенсорной клавиатурой и багующей бд. Так ещё и вбивать названия длинных препаратов, ковыряться в этом ебаном интерфейсе скроллить там что-то выбирать - а потом ещё окажется что нужен рецепт или срок вышел. Надеюсь конкретно этот формат никогда, ни при каких обстоятельствах не приживется и закроется нахуй на таком эксперименте. Всетки задача провизора в отличие от продаванов в магазине это не только оперативно принести со склада, но ещё и проконсультировать и подсказать. И люди учатся этому много лет.
Как говорится: первый блин комом. Надеюсь в этот раз боты не снесут комментарии. Держите пост, пока ии не пришёл меня банить.
Дизайнеры-самоучки vs. выпускники вузов: кто круче? Что на самом деле определяет профессионализм: диплом, портфолио или что-то еще? Глубина теории и реальная практика Университеты дают фундамент. Выпускники умеют анализировать, критиковать и создавать концепции с опорой на академические знания. Но иногда за этим теряется гибкость. Адаптивность и пробелы в знаниях Самообучение учит главному: находить решения здесь и сейчас. Экспериментируете с трендами и быстро реагируете на запросы рынка. Но без базы легко увлечься поверхностными приемами. Знание основ типографики или UX-принципов часто становится тем самым недостающим пазлом. ⚪️ Выпускник вуза может идеально выстроить сетку, но не понимать, как дизайн влияет на конверсию. ⚪️ Самообучающийся создаст яркий баннер, но не сможет объяснить, почему выбрал именно эту цветовую схему. Может ли одно заменить другое? Стереотипы: ❗️«Без диплома вы не профессионал» — но многие гении дизайна начинали без формального образования. ❗️«Самообучающиеся несерьезны» — однако их работы часто ближе к реальным запросам аудитории. ❗️«Теория — это скучно» — но без нее даже самый смелый эксперимент может стать провалом. Профессионализм не привязан к способу обучения. Он измеряется умением решать задачи, адаптироваться и учиться на ошибках. Выпускник вуза, который не развивается после диплома, отстает. Самообучающийся, игнорирующий основы, рискует стать заложником шаблонов.
Изображение поста
💜 Stable Diffusion: Революция в мире искусственного интеллекта и визуализации 💜
В последние годы генеративные модели искусственного интеллекта (ИИ) стали неотъемлемой частью различных сфер, включая искусство, дизайн, кино и игры. Одной из самых впечатляющих и популярных таких моделей является Stable Diffusion — передовая технология для генерации изображений, основанная на принципах диффузионных процессов и использующая глубокое обучение для преобразования текста в изображения. ⭐️Что такое Stable Diffusion? Stable Diffusion — это диффузионная модель, которая генерирует изображения, начиная с случайного шума и постепенно восстанавливая его в соответствии с заданным запросом, например, текстом. Это один из типов генеративных моделей, использующих подход диффузии, который отличается от более традиционных генеративно-состязательных сетей (GAN). Главной особенностью Stable Diffusion является её способность создавать изображения на основе текстовых описаний с высокой степенью детализации и фотореалистичности. Модель была разработана таким образом, чтобы быть открытой и доступной, что позволяет всем желающим экспериментировать с её возможностями. ⭐️Как работает Stable Diffusion? Stable Diffusion — это искусственный интеллект или генеративная модель, которая использует алгоритмы машинного обучения для создания изображений на основе текстовых описаний. Например, вы пишете: "Закат в горах, розовое небо, силуэты сосен", а она берёт и рисует именно это. Но делает она это не так, как обычный человек. Вместо того чтобы начать с пустого холста и добавлять детали, она начинает с шума — буквально с хаотичного пятна. И потихоньку превращает этот шум в изображение. Давайте разберём, как это работает, по шагам. ➕ Шаг 1. Модель начинает с «шума» Представьте, что вы открываете повреждённый фотофайл: на экране только серый фон и пиксели, смешанные в беспорядке. Это и есть шум — случайное распределение точек. Именно с такого состояния начинается работа модели. Почему именно так? Потому что она использует процесс, называемый диффузией, который позволяет преобразовать этот хаос в чёткое и осмысленное изображение — от "шумного" к "понятному". ➕ Шаг 2. Текстовая подсказка Перед тем как начать рисовать, вы даёте модели подсказку, которая в мире ИИ называется промтом. Например: "Фантастический космический корабль над пустынной планетой". Эта фраза преобразуется в специальный вектор — набор чисел, который отражает суть вашего запроса. Модель как бы «понимает», что вам нужно: звезды, корабль, планета и пустыня, и начинает создавать изображение, опираясь на эти образы. ➕ Шаг 3. Внутренний «умный» формат — латентное пространство Stable Diffusion не работает напрямую с изображением. Она сначала переводит его в упрощённое представление — так называемое латентное пространство. Это как если бы вы объясняли кому-то картину по памяти: "там гора, тут человек, в углу солнце" — не все детали, но общая суть. Такой подход позволяет работать быстрее и экономнее, чем если бы рисовать прямо в пикселях. ➕ Шаг 4. Постепенное «проявление» изображения Теперь начинается магия. Модель берет этот шум и по шагам убирает его, добавляя смысл и формы. Это как проявлять старую фотоплёнку: сначала видно тени, потом контуры, потом детали. На каждом шаге она думает: "А как должен выглядеть корабль?" "Какой у пустыни цвет?" "Как расположить тени, если свет падает справа?" Каждый такой шаг — это одна итерация. Обычно их 20–50. На выходе — готовое изображение. ➕ Шаг 5. Возврат к картинке Когда картинка в латентном виде готова, модель переводит её обратно в обычное изображение, которое можно посмотреть, сохранить или доработать. Это делает специальный модуль — автокодировщик (VAE).
Изображение поста
Разработчик Unreal Engine 5, Дилан Браун, представил амбициозный проект с лесом, состоящим из 321 миллиарда полигональных деревьев
Этот проект работает на 60-70 FPS благодаря эффективной оптимизации. Деревья были созданы с использованием Houdini, а для работы с геометрией, вероятно, применён Nanite. Также использовались экспериментальные MegaLights для улучшения освещения сцены. Дилан демонстрировал сцены в редакторе без проблем с рендерингом, используя NVIDIA GeForce RTX 4090. #inspiration | Original
Необычные ароматы: где найти уникальные духи для весны
Весна — идеальный сезон для экспериментов и новых открытий! Здесь вы найдете те самые духи с неповторимым шлейфом.
Изображение поста
CLO Standalone OnlineAuth 2025.0.128 Win
👗 CLO Standalone - программа понравится дизайнерам одежды, так как собственно и была создана для того, чтобы ее создавать в 3D режиме. Теперь разрабатывать новые коллекции и экспериментировать вы сможете гораздо удобнее чем раньше, все нужные инструменты под рукой, интерфейс в целом понятен, алгоритм проектирования отвечает всем требованиям, в результате можно получить отличную модель одежды, которая потом, кто знает, может пойдет в производство. 💾 ССЫЛКА 💬 Комментарии ➡️КАНАЛ⬅️ #soft #CLO #3d #free #бесплатно
🔗 Colorify Rocks
Генератор цветовых палитр на базе AI + база данных оттенков с кучей инфы. Быстро находит сочетаемые цвета и вдохновляет на эксперименты. #цвета #палитры #генератор #инструменты #вдохновение #дизайн #ai Посмотреть 🔗
Fuzzy Skin (Шагрень, шершавые стенки, нечёткая оболочка)
Функция Fuzzy skin позволяет создать грубую текстуру, напоминающую волокна, на боковых сторонах моделей. Если эта функция включена, периметр будет повторно дискретизирован со случайным размером шага, и каждая новая точка дискретизации будет смещена внутрь или наружу периметра на случайную длину, ограниченную толщиной Fuzzy skin. Этот простой алгоритм дает удивительно красивые результаты, шершавую поверхность, подходящую для ручек инструментов или просто для придания поверхности печати нового интересного вида или для скрытия неточностей печати. Можно также использовать модификаторы для применения нечеткой кожи только к определенной части модели. Функция доступна как в Cura в разделе экспериментальное, так и в PrusaSlicer в разделе настроек слоев и периметров.
MAGO теперь в Closed Beta!💖
Подать заявку можно вот тут: LINK 📕 Что мне как творческому аниматору нравится: — Side By Side(SBS) mode. Когда ты можешь сравнивать сразу несколько генерации и понимать как настройки меняют генерацию. То есть в данном случае сервис позволяет узнать как работают разные настройки и экспериментировать с ними. — Folders, когда проекты можно упаковывать в папки и разделять по интересам, работам. (Наверное уже заметили как это удобно в ChatGPT) — Controlnets. Это достаточно приятно упаковано и я рад, что доступ к этим настройкам оставили в том виде, как привыкли их видеть ComfyUI пользователи, а не в виде Midjourney параметров. — И ещё много чего в процессе. Я не так много публикую работ из MAGO. Но мне приятнее и приятнее с каждым днем генерировать именно там. Когда будет открыт доступ для всех, я напишу!
Макет устройства
Сегодня я публикую полностью экспериментальный и немного абстрактный макет. Макет неизвестного устройства. Этот тип визуализации можно использовать для представления логотипа, шрифта, цвета (можно изменить каждый элемент устройства) или другого дизайна. Я подготовил макет в соответствующем разрешении, поэтому вы можете его обрезать и использовать только тот фрагмент, который лучше всего гармонирует с остальной частью презентации. #устройство