🟪HydroChrome v1.1.1 by Pixel Sorter for After Effects (WIN)

HydroChrome позволяет создавать абстрактные текучие фоны или хромировать отснятый материал. Этот GPU-эффект рендерится в реальном времени в Premiere Pro и After Effects. #Motion_AEPlugins #AfterEffects #Motion4D Motion
Изображение поста

У вас такой же вайб или работаете?

Free Hand-Drawn Elements by EnigmaKit

Большой набор, включающий в себя 600 иллюстраций в hand drawn стиле. Вы можете использовать их в своих проектах абсолютно бесплатно. 🗿Скачать иллюстрации🗿 #иллюстрации
Изображение поста

#Ai #Tutorial

Как создать эффект векторного растрового текста в Illustrator Автор 🖌 Иллюстратор
StyleX v1.0.3 After Effects, Premiere Pro Win
🟣 StyleX — это продвинутый инструмент для стилизации видео с технологией искусственного интеллекта, он может не только преобразовывать отснятый материал в мультфильм с высоким качеством, но и генерировать произвольное стилизованное видео в стиле заданного изображения или видео. С помощью этого инструмента пользователь может без труда создавать творческие стилизованные эффекты, например мультфильмы, рисунки, картины, полутона и многие другие. 🟠 С помощью StyleX пользователи также могут создавать произвольное стилизованное видео в стиле данного изображения или видео. Благодаря инновационной структуре нейронной сети этот инструмент может эффективно обрабатывать видео очень высокого разрешения с высоким качеством и хорошей временной согласованностью. Производительность сильно зависит от GPU, а некоторые старые карты GPU (до 2012 года) не поддерживаются. Источник 💾 ССЫЛКА 💬 Комментарии ➡️КАНАЛ⬅️ #plugins #After_Effects #Premiere_Pro #StyleX #free #бесплатно
HEADPHONE MOCKUP
Универсальные макеты устройств для наушников, в которых вы можете заменить 3-кратные логотипы на наушниках своим логотипом или дизайном. #мокап_psdец 📁 Скачать Intelligent Design
Изображение поста
Как говорится: первый блин комом. Надеюсь в этот раз боты не снесут комментарии. Держите пост, пока ии не пришёл меня банить.
Дизайнеры-самоучки vs. выпускники вузов: кто круче? Что на самом деле определяет профессионализм: диплом, портфолио или что-то еще? Глубина теории и реальная практика Университеты дают фундамент. Выпускники умеют анализировать, критиковать и создавать концепции с опорой на академические знания. Но иногда за этим теряется гибкость. Адаптивность и пробелы в знаниях Самообучение учит главному: находить решения здесь и сейчас. Экспериментируете с трендами и быстро реагируете на запросы рынка. Но без базы легко увлечься поверхностными приемами. Знание основ типографики или UX-принципов часто становится тем самым недостающим пазлом. ⚪️ Выпускник вуза может идеально выстроить сетку, но не понимать, как дизайн влияет на конверсию. ⚪️ Самообучающийся создаст яркий баннер, но не сможет объяснить, почему выбрал именно эту цветовую схему. Может ли одно заменить другое? Стереотипы: ❗️«Без диплома вы не профессионал» — но многие гении дизайна начинали без формального образования. ❗️«Самообучающиеся несерьезны» — однако их работы часто ближе к реальным запросам аудитории. ❗️«Теория — это скучно» — но без нее даже самый смелый эксперимент может стать провалом. Профессионализм не привязан к способу обучения. Он измеряется умением решать задачи, адаптироваться и учиться на ошибках. Выпускник вуза, который не развивается после диплома, отстает. Самообучающийся, игнорирующий основы, рискует стать заложником шаблонов.
Изображение поста
🫡 Чтобы построить классную карьеру не надо быть Человеком Пауком
Мы ценим вашего внутреннего Питера Паркера, поэтому поможем начать или развить карьеру с минимальным стрессом. Даже все по действиям расписали: первое — выбрать вакансию из дайджеста карьерного консультанта 👇 — Стажировка 2D-художник в киностудию «Союзмультфильм» — Графический дизайнер в СберЗдоровье — Дизайнер в благотворительный фонд «РЭЙ» — Менеджер в Аукционный дом ON — Интернет-маркетолог в онлайн-школу ID English 🤔 Где посмотреть все вакансии Теперь вы можете самостоятельно просматривать базу данных актуальных и срочных вакансий факультета, которая регулярно обновляется. ❓ Как и куда отправить резюме Направьте резюме и портфолио карьерному консультанту @hasseki_sultan, в сообщении укажите вакансию и свое ФИО. #вакансии #карьера
Курс Основы 3D анимации — набор начался!
За 3 месяца ты научишься правильно планировать анимацию, изучишь принципы оверлэпа, C и S кривые. Узнаешь как создать иллюзию веса, как работать с таймингом и ритмом, что такое полиш и многое, многое другое! На курсе ты: ▸ Узнаешь о 12 принципах анимации и научитесь применять их на практике ▸ Познакомишься с анимационной терминологией и особенностями работы в Autodesk Maya ▸ Создашь свой первый анимационный рил! Занимай место на курсе, стартуем 7 июня!
Изображение поста
Привет, друзья.
Напоминание. Лайфхак. Инструкция. Просьба. Напоминание. Праздники идут своим чередом, но это не повод пропускать максимально выгодные условия участия в Фестивале нового дизайна СРЕДА. Лайфхак. Картинки тексты и видеоролики ваших проектов еще не готовы к подаче на фестиваль? Это не проблема. Вы можете загрузить любые картинки, обложку и описание. Ваша заявка по умолчанию сохранится в режиме черновика и не будет видна в публичной части сайта. Все! Можно переходить к оплате и забирать скидку 15%. Инструкция. Вы спокойно можете вернуться к редактированию своих заявок в любое время, вплоть до дедлайна. Когда сочтете нужным опубликовать свою заявку в публичной части сайта, то просто зайдите в режим редактирования заявки и снимите галочку в пункте "Черновик". Заявка будет опубликована в публичной части сайта. Кстати, любую заявку вы можете вернуть обратно в режим "Черновик", если возникнет такая необходимость. Просьба. Если у вас возникают вопросы по загрузке заявок. по оплате или любые другие вопросы, то обязательно пишите нашему директору по работе с участниками Юлии Зайцевой [email protected] или звоните ей по телефону +7 926 73 73 73 2. Она оперативно вам поможет и подскажет. Ждём ваши работы на фестивале. Подавать работы здесь: festivalsreda.ru
Изображение поста
MiniWarPaint выпустили новые маски для окрашивания.
Для любителей масштабного и варгеймерского стритрейсинга, тачек, орочьих тачил и дорог у нас тоже кое-что найдется: - МАСКА ОКРАСОЧНАЯ ДОРОЖНАЯ РАЗМЕТКА, РАЗМЕР M для тех кто хочет сделать дорогу но не хочет рисовать руками разметку - ОКРАСОЧНАЯ МАСКА С ЯЗЫКАМИ ПЛАМЕНИ, ВИД 2 Американская классика для байков, маслкаров и пикапов. Выполнена в 2х размерах - ОКРАСОЧНАЯ МАСКА С ЯЗЫКАМИ ПЛАМЕНИ, ВИД 1. Выполнена в 2х размерах и украсит не только тачку, но и отлично зайдет на окраску края плаща или балахона.
Изображение поста
Изображение поста
Изображение поста
Изображение поста
Изображение поста
Начинаем через 15 минут
Если Houdini кажется слишком сложным — не пропусти. Алексей Солодовников покажет, как собрать эффект вязкой жидкости (шоколад или мороженое) с нуля и без паники. Всё понятно, наглядно и по делу. Это открытый урок из базового курса Houdini от Animation School. Подключайся в 19:00 мск — будет вкусно и просто. YouTube или VK Video
Изображение поста
🔥 Открываем первую неделю UNID-прокачки — маркетинг, который работает
Привет! Я Александр Мещеряков, CMO UNID (директор по маркетингу, если проще). Отвечаю за всю маркетинговую стратегию школы — от позиционирования и продуктовых решений до запусков, рекламы и контента. И в ближайшие дни помогу вам разобраться, почему клиенты «не видят» ваши услуги, что влияет на отклик — и как фрилансеру выстроить маркетинг, который работает стабильно, без выгорания. Я верю в маркетинг как систему. И даже если у вас нет рекламного бюджета или команды — всё равно можно выстраивать воронку, которая приводит людей, греет их и доводит до покупки ⚡️ Немного о себе, чтобы вы понимали, откуда у меня такой взгляд: ▫️ больше 8 лет в маркетинге онлайн-школ и экспертных проектов; ▫️ руководил бюджетами до 10 млн/мес с окупаемостью 3.5х; ▫️ проекты с моим участием получали премии Геткурса в 2023 и 2024 годах; ▫️ со мной более 10 экспертов вышли на 500к+ за этот год; ▫️ сейчас параллельно с UNID развиваю собственный образовательный проект. Что будет на этой неделе: ✔️ Расскажу, как фрилансеру создать спрос на себя — даже без бюджета. ✔️ Разберем, как упаковать личный бренд, экспертный контент, социальные доказательства, если вы один в команде и работаете из дома. ✔️ Раскрою, как клиенты принимают решения и на чем сделать основной упор, чтобы получать клиентов системно. И зафиналим нашу неделю пользы постом о маркетинге для фрилансера, который работает 24/7. Напишите в комментах: какую из тем хочется разобрать глубже⁉️
Изображение поста
4 плагина для Photoshop
Chameleon Adaptive Palette — “выбор цвета по умолчанию” - больше не вариант, когда у вас под рукой есть этот супер продвинутый Photoshop плагин. Адаптивная палитра Chameleon дает полный контроль над цветами вашего проекта. Image Extend - Clip & Expand Kit — данный плагин поможет вам увеличить изображения, расширяя их края. В отличие от масштабирования изображений, нет потери качества или размытия, потому что добавляются только новые данные пикселей. Filter Forge предоставляет доступ к постоянно пополняющейся коллекции пользовательских текстур, шаблонов и фильтров для Photoshop - всего более 12000 эффектов. Filter Forge также доступен, как автономное приложение для Windows и Mac. Machine Wash Deluxe поставляется с 3500 + пресетами, которые могут быть применены к фотографиям, тексту, штриховым рисункам и другим произведениям искусства. #plugins #photoshop
Изображение поста
➕ Применение в архитектурной визуализации
Stable Diffusion становится мощным помощником для архитекторов, 3D-художников и визуализаторов. Вот как его можно использовать: 🟣Быстрое создание концептов. ⭐️Генерация вариантов фасадов, окон, крыш, террас по короткому описанию. ⭐️Прототипирование идей для жилых домов, общественных зданий, интерьеров. ⭐️Проверка атмосферы — как будет ощущаться объект в разное время суток, в разной погоде, с разным освещением. 🟣Улучшение и доработка деталей. ⭐️Позволяет значительно улучшить визуализацию людей на рендерах — изображения становятся менее «компьютерными» и приобретают более реалистичный и естественный вид. ⭐️Дорисовка элементов (озеленение, мебель, текстуры фасадов). ⭐️Быстрая генерация заднего плана или окружения (горы, лес, город, небо и т.п.). 🟣Атмосферные референсы и moodboard'ы. ⭐️Создание множества визуальных вариантов по теме (например, "современный скандинавский дом в лесу утром"). ⭐️Помощь в создании коллажей и визуальных исследований. Инструменты и экосистема Stable Diffusion — это не просто одна модель, а целая экосистема инструментов, с помощью которой можно генерировать, редактировать и дорабатывать изображения. Эти инструменты делают работу с моделью удобной, настраиваемой и эффективной — как для художников, так и для дизайнеров, архитекторов, маркетологов или разработчиков. ➕ Web-интерфейсы и приложения Существует множество веб-платформ, где можно использовать Stable Diffusion без необходимости устанавливать что-либо: ➖Hugging Face Spaces, Replicate, PlaygroundAI — позволяют быстро протестировать идеи. ➖InvokeAI, AUTOMATIC1111 WebUI — локальные графические интерфейсы с тонкой настройкой и поддержкой плагинов. ➖DiffusionBee — простое и удобное десктоп-приложение для macOS и Windows. ➕ Расширенные возможности Модель можно использовать не только для генерации с нуля, но и для доработки и редактирования: ➖img2img — загрузка начального изображения (эскиз, рендер, фото) и генерация на его основе. Очень полезно, если у вас уже есть базовая сцена. ➖inpainting — замена/дорисовка части изображения (например, убрать объект или изменить фасад здания). ➖ControlNet — инструмент, позволяющий управлять композицией, перспективой, позами и формой объектов (через скетчи, карты глубины, карты освещения и т.п.). ➖LoRA и Custom Models — можно обучать или использовать уже готовые стили (например, под архитектурный скетч, японский минимализм или брутализм). ➕Интеграции и плагины ➖Blender + Stable Diffusion: существуют плагины для генерации текстур и фонов прямо из 3D-сцены. ➖Photoshop + SD (через API или плагин ComfyUI): можно быстро обрабатывать изображения, не выходя из графического редактора. ➖TouchDesigner / Unreal Engine / Unity — интеграции для интерактивных и VR-проектов. ➕ Комьюнити и модели под конкретные задачи ➖Существуют модели, заточенные специально под архитектуру (например, [archiStyleXL], [interiorDiffusion], [archisketch-style]). ➖Комьюнити на Hugging Face, Civitai и Reddit активно делится наработками и примерами. Будущее Stable Diffusion Stable Diffusion продолжает формироваться под влиянием значительных технологических достижений и стратегических инициатив компании Stability AI. С акцентом на доступность, кастомизацию и мультимодальность, платформа уверенно движется к созданию более мощных и универсальных инструментов генеративного ИИ. Ожидаемые направления развития Stable Diffusion включают: ➕ Мультимодальность: интеграция генерации текста, изображений, видео и 3D-контента для создания более богатых и интерактивных медиа-продуктов. ➕ Улучшение анатомической точности: повышение реалистичности изображений, особенно в отображении человеческих фигур и лиц. ➕ Оптимизация для мобильных устройств: разработка более лёгких моделей и интерфейсов для использования на мобильных платформах и в облачных сервисах. ➕ Расширение образовательных ресурсов: создание обучающих материалов и инструментов для упрощения освоения технологий генеративного ИИ широким кругом пользователей.
Изображение поста
➕ Как модель понимает, что вы хотите?
Чтобы научиться превращать шум в красивые и осмысленные изображения, модель Stable Diffusion сначала долго училась — как ученик, который сначала ничего не понимает, а потом начинает разбираться. Обучение происходило на миллионах пар изображений и описаний к ним. Например: ➖картинка с собакой на пляже → подпись: "собака на песчаном пляже у океана". ➖портрет девушки в шляпе → подпись: "женщина в красной шляпе, реалистичный стиль". Теперь главное: модель не училась рисовать с нуля, а делала наоборот — брала уже готовые изображения и добавляла к ним шум, превращая их в "грязную кашу". А потом училась этот шум обратно убирать, шаг за шагом. Она знала, сколько и какого шума было добавлено, и училась его точно предсказывать и удалять. На каждом шаге она пыталась угадать: «А каким было изображение до того, как я испортила его шумом?» Если модель ошибалась — ей показывали, где именно. Так она постепенно училась всё лучше восстанавливать изображения из шума. А заодно запоминала, как в реальных картинках выглядят собаки, города, свет, одежда, лица и многое другое. Также модель обучалась учитывать текст — подсказки (промпты). Она училась понимать, как связаны слова и картинки: что "кот в шляпе" — это не просто кот и не просто шляпа, а конкретный образ. В итоге — после длительного обучения на огромных наборах данных — модель научилась делать следующее: ➖брать случайный шум. ➖читать ваш текст. ➖превращать шум в изображение, которое точно отражает суть промпта. ➕ Почему это круто? ➖Универсальность: можно нарисовать что угодно — от реализма до сказки. ➖Гибкость: можно менять стиль, добавлять или убирать детали, использовать дополнительные параметры (например, угол камеры или тип освещения). ➖Контроль: можно использовать референсы или даже маски, чтобы управлять композицией. Возможности и преимущества ➕ Гибкость и разнообразие стилей Stable Diffusion способна создавать изображения в различных стилях — от фотореализма до абстракции, имитируя техники известных художников или создавая уникальные визуальные эффекты. ➕ Высокое качество изображений Благодаря использованию диффузионных процессов и глубоких нейронных сетей, модель генерирует изображения с высоким уровнем детализации, включая реалистичные текстуры, освещение и тени. ➕ Доступность и открытость Stable Diffusion является открытым проектом, предоставляя доступ к исходному коду и предобученным моделям. Это позволяет разработчикам и исследователям использовать модель в своих проектах, адаптировать её под специфические задачи и вносить улучшения. ➕ Интерактивность и контроль над результатом Пользователи могут влиять на процесс генерации, изменяя текстовые описания, стили, композицию и другие параметры, добиваясь желаемого результата. Применение Stable Diffusion ➕ Концепт-арт и дизайн Stable Diffusion активно используется для создания концепт-артов для видеоигр, фильмов и других творческих проектов. Художники могут быстро генерировать пейзажи, персонажей и другие элементы, чтобы сэкономить время на предварительном проектировании и проверить различные идеи. ➕ Маркетинг и реклама В рекламе и маркетинге модели вроде Stable Diffusion находят своё применение в создании визуальных материалов для брендов, рекламы и социальных сетей. Модели могут быстро адаптировать изображения под запросы рекламных кампаний, создавая уникальные и привлекательные визуалы. ➕ Видеоигры и виртуальные миры В индустрии видеоигр и виртуальных миров Stable Diffusion может использоваться для генерации окружений или персонажей, что ускоряет процесс разработки. Это позволяет разработчикам быстро тестировать визуальные концепты и создавать уникальные, персонализированные игровые миры. ➕ Мультимедийное искусство и образовательные проекты Модель также используется для создания мультимедийных проектов, например, в образовательных целях. Студенты могут использовать Stable Diffusion для генерации визуальных материалов, изучая основы композиции, художественного стиля и цифрового искусства.
Изображение поста
💜 Stable Diffusion: Революция в мире искусственного интеллекта и визуализации 💜
В последние годы генеративные модели искусственного интеллекта (ИИ) стали неотъемлемой частью различных сфер, включая искусство, дизайн, кино и игры. Одной из самых впечатляющих и популярных таких моделей является Stable Diffusion — передовая технология для генерации изображений, основанная на принципах диффузионных процессов и использующая глубокое обучение для преобразования текста в изображения. ⭐️Что такое Stable Diffusion? Stable Diffusion — это диффузионная модель, которая генерирует изображения, начиная с случайного шума и постепенно восстанавливая его в соответствии с заданным запросом, например, текстом. Это один из типов генеративных моделей, использующих подход диффузии, который отличается от более традиционных генеративно-состязательных сетей (GAN). Главной особенностью Stable Diffusion является её способность создавать изображения на основе текстовых описаний с высокой степенью детализации и фотореалистичности. Модель была разработана таким образом, чтобы быть открытой и доступной, что позволяет всем желающим экспериментировать с её возможностями. ⭐️Как работает Stable Diffusion? Stable Diffusion — это искусственный интеллект или генеративная модель, которая использует алгоритмы машинного обучения для создания изображений на основе текстовых описаний. Например, вы пишете: "Закат в горах, розовое небо, силуэты сосен", а она берёт и рисует именно это. Но делает она это не так, как обычный человек. Вместо того чтобы начать с пустого холста и добавлять детали, она начинает с шума — буквально с хаотичного пятна. И потихоньку превращает этот шум в изображение. Давайте разберём, как это работает, по шагам. ➕ Шаг 1. Модель начинает с «шума» Представьте, что вы открываете повреждённый фотофайл: на экране только серый фон и пиксели, смешанные в беспорядке. Это и есть шум — случайное распределение точек. Именно с такого состояния начинается работа модели. Почему именно так? Потому что она использует процесс, называемый диффузией, который позволяет преобразовать этот хаос в чёткое и осмысленное изображение — от "шумного" к "понятному". ➕ Шаг 2. Текстовая подсказка Перед тем как начать рисовать, вы даёте модели подсказку, которая в мире ИИ называется промтом. Например: "Фантастический космический корабль над пустынной планетой". Эта фраза преобразуется в специальный вектор — набор чисел, который отражает суть вашего запроса. Модель как бы «понимает», что вам нужно: звезды, корабль, планета и пустыня, и начинает создавать изображение, опираясь на эти образы. ➕ Шаг 3. Внутренний «умный» формат — латентное пространство Stable Diffusion не работает напрямую с изображением. Она сначала переводит его в упрощённое представление — так называемое латентное пространство. Это как если бы вы объясняли кому-то картину по памяти: "там гора, тут человек, в углу солнце" — не все детали, но общая суть. Такой подход позволяет работать быстрее и экономнее, чем если бы рисовать прямо в пикселях. ➕ Шаг 4. Постепенное «проявление» изображения Теперь начинается магия. Модель берет этот шум и по шагам убирает его, добавляя смысл и формы. Это как проявлять старую фотоплёнку: сначала видно тени, потом контуры, потом детали. На каждом шаге она думает: "А как должен выглядеть корабль?" "Какой у пустыни цвет?" "Как расположить тени, если свет падает справа?" Каждый такой шаг — это одна итерация. Обычно их 20–50. На выходе — готовое изображение. ➕ Шаг 5. Возврат к картинке Когда картинка в латентном виде готова, модель переводит её обратно в обычное изображение, которое можно посмотреть, сохранить или доработать. Это делает специальный модуль — автокодировщик (VAE).
Изображение поста
we are cooked или как
До недавнего времени нейронки для 3д были в общем-то даже не игрушкой, а скорее эдакой кунсткамерой, на которую смотришь с жизнеутверждающей жалостью. Сейчас всё вроде бы изменилось, у Hunyuan получаются простые (а иногда непростые и занятные) формы. С шейдингом всё ещё беда, поэтому доделываем руками и Quad Remesher'ом и применяем хоть изредка в своих работах.
Юмор в презентации - когнитивный инструмент, а не стендап.
Юмор — это не способ «развеселить зал». Это способ переключить маршрут обработки информации. По модели ELM (Petty & Cacioppo, 1986) мозг выбирает, как воспринимать сообщение: — через центральный путь — если включён и заинтересован, — или через периферийный — если устал, перегружен или «не до того». И вот тут появляется юмор. Он: • снимает напряжение, • повышает симпатию, • включает внимание — пусть и ненадолго. Когда работает: — В начале — чтобы стать «своим» — В середине — когда зал провис — Когда нужно подчеркнуть абсурд (а потом — показать решение) Когда не стоит: — Если речь о рисках или ответственности — Если аудитория «на вы» — Если шутка требует слишком много контекста Юмор — как нейронный редбул. Бодрит, включает, но требует дозировки. Используйте не по настроению, а по смыслу. Тогда он работает. И работает лучше, чем любая анимация 🙂
Изображение поста
ComfyUI большое обновление
Интеграция API-нод напрямую приносит 11 потрясающих визуальных AI-моделей в среду с открытым исходным кодом: — Одна платформа, 11 моделей, 65 нод одновременно — Объединяйте API с вашими любимыми открытыми моделями и рабочими процессами — Никаких ограничений по оборудованию Что такое API-ноды? API-ноды — это встроенные ноды в ComfyUI, которые могут вызывать API платных моделей, таких как Veo2 или Flux Ultra. Для многих ComfyUI — это движок автоматизации, который помогает выполнять творческие задачи. Творческим людям важно достичь наилучшего результата, и это включает использование нелокальных моделей. На прошлой неделе мы запустили GPT-Image-1 в качестве API-ноды, и незамедлительная обратная связь была простой: пожалуйста, добавьте больше моделей. С тех пор команда усердно работала, и мы рады объявить о поддержке еще 10 семейств моделей и 62 новых нод. Поддержка моделей: — Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro] — Kling 2.0, 1.6, 1.5 & Various Effects — Luma Photon, Ray2, Ray1.6 — MiniMax Text-to-Video, Image-to-Video — PixVerse V4 & Effects — Recraft V3, V2 & Various Tools — Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large — Google Veo2 — Ideogram V3, V2, V1 — OpenAI GPT4o image — Pika 2.2 От меня: Теперь ComfyUI это комбайн, где есть и платные сервисы и локальные модели, что делает этот инструмент еще более мощным и эффективным, ВОООУУ! А в комментах еще про их офигенный редизайн —>