Neuroмancer v4 (2025) [RUS]

Финальная версия курса Neuroмancer. Это свежий материал в формате альманаха, который без лишней воды научит вас работать с популярными нейросетями. 🔹Состав продукта: ChatGPT, Dall-e, MidJourney, Кандинский, PikaAI, Runway, PixVerse, Stable Diffusion, Adobe Firefly, TopazAI, AVCLabs, LumaAI, VectorizerAI, D-ID, Adobe Podcast, ComfyUI 🔸 Программа: Глава 1. ChatGPT + Dall-e Глава 2. MidJourney + Кандинский Глава 3. Генерация видео. PikaAI, Runway, PixVerse, Кандинский Глава 4. Stable Diffusion Глава 5. Полезные нейронки ➡️ КАНАЛ ⬅️ 💬 Комментарии 👉🏼 СКАЧАТЬ в приватном канале - 👈🏼 Download in a private channel #курсы #Нейросети #Спонсорство #по_подписке Материал предоставлен только для справки и ознакомления. Поддержите автора, купив у него курс!

➕ Применение в архитектурной визуализации

Stable Diffusion становится мощным помощником для архитекторов, 3D-художников и визуализаторов. Вот как его можно использовать: 🟣Быстрое создание концептов. ⭐️Генерация вариантов фасадов, окон, крыш, террас по короткому описанию. ⭐️Прототипирование идей для жилых домов, общественных зданий, интерьеров. ⭐️Проверка атмосферы — как будет ощущаться объект в разное время суток, в разной погоде, с разным освещением. 🟣Улучшение и доработка деталей. ⭐️Позволяет значительно улучшить визуализацию людей на рендерах — изображения становятся менее «компьютерными» и приобретают более реалистичный и естественный вид. ⭐️Дорисовка элементов (озеленение, мебель, текстуры фасадов). ⭐️Быстрая генерация заднего плана или окружения (горы, лес, город, небо и т.п.). 🟣Атмосферные референсы и moodboard'ы. ⭐️Создание множества визуальных вариантов по теме (например, "современный скандинавский дом в лесу утром"). ⭐️Помощь в создании коллажей и визуальных исследований. Инструменты и экосистема Stable Diffusion — это не просто одна модель, а целая экосистема инструментов, с помощью которой можно генерировать, редактировать и дорабатывать изображения. Эти инструменты делают работу с моделью удобной, настраиваемой и эффективной — как для художников, так и для дизайнеров, архитекторов, маркетологов или разработчиков. ➕ Web-интерфейсы и приложения Существует множество веб-платформ, где можно использовать Stable Diffusion без необходимости устанавливать что-либо: ➖Hugging Face Spaces, Replicate, PlaygroundAI — позволяют быстро протестировать идеи. ➖InvokeAI, AUTOMATIC1111 WebUI — локальные графические интерфейсы с тонкой настройкой и поддержкой плагинов. ➖DiffusionBee — простое и удобное десктоп-приложение для macOS и Windows. ➕ Расширенные возможности Модель можно использовать не только для генерации с нуля, но и для доработки и редактирования: ➖img2img — загрузка начального изображения (эскиз, рендер, фото) и генерация на его основе. Очень полезно, если у вас уже есть базовая сцена. ➖inpainting — замена/дорисовка части изображения (например, убрать объект или изменить фасад здания). ➖ControlNet — инструмент, позволяющий управлять композицией, перспективой, позами и формой объектов (через скетчи, карты глубины, карты освещения и т.п.). ➖LoRA и Custom Models — можно обучать или использовать уже готовые стили (например, под архитектурный скетч, японский минимализм или брутализм). ➕Интеграции и плагины ➖Blender + Stable Diffusion: существуют плагины для генерации текстур и фонов прямо из 3D-сцены. ➖Photoshop + SD (через API или плагин ComfyUI): можно быстро обрабатывать изображения, не выходя из графического редактора. ➖TouchDesigner / Unreal Engine / Unity — интеграции для интерактивных и VR-проектов. ➕ Комьюнити и модели под конкретные задачи ➖Существуют модели, заточенные специально под архитектуру (например, [archiStyleXL], [interiorDiffusion], [archisketch-style]). ➖Комьюнити на Hugging Face, Civitai и Reddit активно делится наработками и примерами. Будущее Stable Diffusion Stable Diffusion продолжает формироваться под влиянием значительных технологических достижений и стратегических инициатив компании Stability AI. С акцентом на доступность, кастомизацию и мультимодальность, платформа уверенно движется к созданию более мощных и универсальных инструментов генеративного ИИ. Ожидаемые направления развития Stable Diffusion включают: ➕ Мультимодальность: интеграция генерации текста, изображений, видео и 3D-контента для создания более богатых и интерактивных медиа-продуктов. ➕ Улучшение анатомической точности: повышение реалистичности изображений, особенно в отображении человеческих фигур и лиц. ➕ Оптимизация для мобильных устройств: разработка более лёгких моделей и интерфейсов для использования на мобильных платформах и в облачных сервисах. ➕ Расширение образовательных ресурсов: создание обучающих материалов и инструментов для упрощения освоения технологий генеративного ИИ широким кругом пользователей.
Изображение поста

ComfyUI большое обновление

Интеграция API-нод напрямую приносит 11 потрясающих визуальных AI-моделей в среду с открытым исходным кодом: — Одна платформа, 11 моделей, 65 нод одновременно — Объединяйте API с вашими любимыми открытыми моделями и рабочими процессами — Никаких ограничений по оборудованию Что такое API-ноды? API-ноды — это встроенные ноды в ComfyUI, которые могут вызывать API платных моделей, таких как Veo2 или Flux Ultra. Для многих ComfyUI — это движок автоматизации, который помогает выполнять творческие задачи. Творческим людям важно достичь наилучшего результата, и это включает использование нелокальных моделей. На прошлой неделе мы запустили GPT-Image-1 в качестве API-ноды, и незамедлительная обратная связь была простой: пожалуйста, добавьте больше моделей. С тех пор команда усердно работала, и мы рады объявить о поддержке еще 10 семейств моделей и 62 новых нод. Поддержка моделей: — Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro] — Kling 2.0, 1.6, 1.5 & Various Effects — Luma Photon, Ray2, Ray1.6 — MiniMax Text-to-Video, Image-to-Video — PixVerse V4 & Effects — Recraft V3, V2 & Various Tools — Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large — Google Veo2 — Ideogram V3, V2, V1 — OpenAI GPT4o image — Pika 2.2 От меня: Теперь ComfyUI это комбайн, где есть и платные сервисы и локальные модели, что делает этот инструмент еще более мощным и эффективным, ВОООУУ! А в комментах еще про их офигенный редизайн —>

Управление лицом с джойстика в ComfyUI

Это наверное самое неожиданное и интересное решение для ComfyUI: — Управлять эмоциями на сгенерированном лице через игровой джойстик В 18+ контенте кажется появились новые идеи для игры Полное описание и процесс установки: LINK
MAGO теперь в Closed Beta!💖
Подать заявку можно вот тут: LINK 📕 Что мне как творческому аниматору нравится: — Side By Side(SBS) mode. Когда ты можешь сравнивать сразу несколько генерации и понимать как настройки меняют генерацию. То есть в данном случае сервис позволяет узнать как работают разные настройки и экспериментировать с ними. — Folders, когда проекты можно упаковывать в папки и разделять по интересам, работам. (Наверное уже заметили как это удобно в ChatGPT) — Controlnets. Это достаточно приятно упаковано и я рад, что доступ к этим настройкам оставили в том виде, как привыкли их видеть ComfyUI пользователи, а не в виде Midjourney параметров. — И ещё много чего в процессе. Я не так много публикую работ из MAGO. Но мне приятнее и приятнее с каждым днем генерировать именно там. Когда будет открыт доступ для всех, я напишу!
Быстрые 3D композиции локально для ComfyUI
Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко: — Задавать позы простым болванками. — Выбирать идеальные ракурсы камеры и строить сцены. — Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5. — А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨ 🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем. Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D. Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании. 📕 Минусы: — Пока только для Windows пользователей GITHUBAUTHOR
Быстрые 3D композиции локально для ComfyUI
Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко: — Задавать позы простым болванками. — Выбирать идеальные ракурсы камеры и строить сцены. — Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5. — А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨ 🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем. Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D. Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании. 📕 Минусы: — Пока только для Windows пользователей GITHUBAUTHOR
Пост для классического постпродакшена.
Ребята из KeenTools показали удобный хинт для трека камеры через GeoTracker и любой 3D генератор. Или как у них через ComfyUI/
GeoTracker x ComfyUI
В этом тесте решили зайти с неожиданной стороны. Мы хотели потрекать камеру в сцене, основываясь на положении статичного объекта в ней (стандартная задача для работы с GeoTracker), но у нас не было подходящей 3D модели. А может попробовать сгенерировать её в ComfyUI? Мы загрузили фото из футажа, собрали небольшой скрипт — и всё получилось! Что касается самого трекинга — там без каких-то сюрпризов, всё стандартно. Но сам кейс нам понравился, решили смонтировать и выложить для вас. Если что, этот подход c работает как и для Nuke, так и для Blender! Скачать GeoTracker for Blender: https://keentools.io/products/geotracker-for-blender
СТИЛИЗУЕМ РЕАЛЬНЫЕ ВИДЕО В COG и WAN 2.1 #comfyui #нейросеть — JCenterS - Компьютерная графика
Изображение поста
Хочу написать над чем сейчас работаем всей JC командой. Отмазаться типо где пропадаю))
Менторство: Уже на финальном этапе проект менторства, где я буду знакомить вас с крутыми художниками. У которых можно будет лично заказать консультацию и получить ответ на любой вопрос в сфере CG. Похер, будь то проблемы с проектом, юридическая консультация или не покупается Blender в блендер стор. Это новый проект и я думаю над ним уже несколько лет и каждый день дополняю его. Анонсирую для всех уже через неделю. Новый, обновленный 8 поток Синематиков: В котором мы упаковали новые уроки по моушен дизайну, пре-продакшн в нейросетях, обновили форум с огроооомным количеством ответов на любые вопросы по UE5 и другие плюшки, которые Артур анонсирует буквально вот-вот) JCenterS Kids: Детская CG школа с профи своего дела. Ребята (Женек Федоренко, Серега Фенчин, Серега Теседо, Серега Метрофанов, Ярик, Мишаня) Работают над проектом уже пол года, я курирую глобальные проблемы и направляю ребят в нужную сторону. В команде очень крутые преподы со стажем и харизмой. Которая очень увлекает детей в процессы. Которые начали быть доступны нам только после школы. Официальный старт буквально через месяц, сейчас уже начнем постепенно показывать результаты труда) Проекты. Заказ-s. Вован, Антоха и Женек работают круглосуточно над крупными проектами (заказами). Мы за 5 лет собрали базу проверенных и надежных спецов, которые работают онлайн. ДА, это оказалось возможно и не так затратно как 100 человек в офисе Москвы) Успеваем и в сезоны и в несезоны. Щяс как доки подпишем все, продолжим показывать че делаем) От сюда же берутся посты для WorkHub и реальный опыт с общением по обе стороны. У нас теперь можно заказать любой спектр работы в CG и Нейросетях. ComfyUI обучение: Уже продолжительное время работаем над будущим) Как создавать собственные воркфлоу в ComfyUI, какие пайплайны для генерации видео существуют (работающие), как использовать сервисы в проектной работе и куча мелких фишек на опыте. Перебрали все возможные сервисы и модели, есть что рассказать и поделится. Ждите ролик на ютуб. Стримы, сообщество: Дальше вновь стримы. 😍😍😍😍 Симон поругался с заказчиком, в которым работал пол года. И теперь сорванец свободен и готов разъебывать. Тут буду курсить по движухам. Убрал CG Новости. Не хочу их больше делать. Не встает больше. Хочется делать полноценные разборы на проги, которые выходят и делится чем то полезным. Новости как будто замедляют собственное развитие, превращаешься в News овоща. И... Я ни куда не пропадаю. И ною иногда в сообществе, чтобы курсить что чувствую. Это больше похоже на нытье, потому что в моменте хуево иногда) Как робот хуячишь и забываешь, что вокруг происходит) Збс люди рядом теперь есть) Сам же сейчас кайфую от работы. Нравится строить. По тихоньку, по чуть чуть, строить надежный рынок, в котором будут надежные люди и надежные заказчики. И похер что там на уровне технологий. Люди везде нужны, без них ни чего действительно кайфового не сделаешь к сожалению, или к счастью)
Изображение поста
Короче, это первые тесты на COG) (Cog - модель видео генерации для ComfyUI)
Да... Детали плывут, свет меняется, есть определенные, но, но и но...)) НО!) Спустя огромное количество попыток вместе с Святым Дисмасом и Ваньком мы протестировали все возможные модели видео, которые находятся в свободном доступе. По ходу дела научились сами выстраивать собственные воркфлоу. Снято все на айфон, со стремным освещением и кучей шумов на камере. Снимали в неподвижной тачке. Хайло или Ранвей показали какое качество можно достичь в принцепи. А значит все что мы сейчас сделали, можно уже контролировать лучше и качественнее. На каждый шот или ракурс, использовались свои методы и модели обработки, пост в AE с масками и использование Depth. Качество теперь понятно как накручивать и пайплайн ясен, кучу сценариев смогу реализовать кайфовых) Актеры в генерации - спецы в ComfyUI) Сразу заказ получили, поэтому пока они заняты... Если вам действительно интересно давайте соберем 3️⃣🔤🔤 - 🔥 и я сделаю обзор и расскажу какой воркфлоу использовали)
В новом туторе The Interactive & Immersive HQ Скотт Манн показывает, как интегрировать ComfyUI для Stable Diffusion в TouchDesigner. Здесь подробная инструкция подключения ComfyUI в TouchDesigner и, если очень хотите, создания AI-фотобудки с сохранением снимков и обработкой их Stable Diffusion.
REPOST ↓ radugadesign
🚨 UNICORNS OF FREEDOM WANTED! Мы ищем в команду Арт-директора с сильным портфолио, опытом управления творческой командой и создания разноплановых проектов от идеи до реализации, сочетающих в себе гибридные техники создания CG. Про стек хардов: Cinema 4D (Redshift), Unreal Engine, Adobe Suite. Здорово, если также есть знание Houdini, Nuke, ComfyUI, Stable Diffusion/Flux, художественное образование или опыт в геймдеве. ⚡Увлечение мультимедиа и опыт в креативных индустриях — супермэтч для нас! Узнать больше о вакансии можно по ссылке: https://spb.hh.ru/vacancy/114297019
Изображение поста
❤️ UNICORNS OF FREEDOM WANTED!
Мы ищем в команду Арт-директора с сильным портфолио, опытом управления творческой командой и создания разноплановых проектов от идеи до реализации, сочетающих в себе гибридные техники создания CG. Про стек хардов: Cinema 4D (Redshift), Unreal Engine, Adobe Suite. Здорово, если также есть знание Houdini, Nuke, ComfyUI, Stable Diffusion/Flux, художественное образование или опыт в геймдеве. Увлечение мультимедиа и опыт в креативных индустриях — супермэтч для нас! ▶️Узнать больше о вакансии можно здесь, лично прислать CV и портфолио можно @bless_em
Изображение поста
Интересное в сети (часть 2)
ComfyUI - воркфлоу (рис. 1) выглядит следующим образом. К сожалению, кастомные ноды для работы с сиквенциями оставляют желать лучшего (они все пытаются сразу загрузиться в память гпу). Load image Batch - костыль, который инициализирует новый процесс каждый новый кадр (после 500 сходит с ума и выходит из чата)
Изображение поста
Новая рубрика - Интересное в сети.
В качестве инструмента для апскейлинга, я остановился на программе chaiNNer (ссылка на гитхаб) это проект для работы с моделями на pytorch, ncnn и onnx, с возможностью подключиться к stable diffusion. + интерфейс - очень отзывчивый и вызывает только приятный юзер эспириенс. инструментарий - помимо работы с моделями, есть много инструментов для манипуляции с изображением. ноды - ну это моё всё, на скрине показан процесс апскейлинга png сиквенций в разрешении 3700х1300 -> 7400x2600 из 3-х разных папок в директории на другом диске с такой же структурой папок. Есть возможность изменять имя на основе любой входящей информации. Среднее время на кадр 1-2 секунды (но это очень лёгкая модель OpenProteus) - frame interpolation - нет. по словам автора он даже не планирует добавлять эту возможность :( codeсs - мало, хочется весь CLI ffmpeg ) На счет увеличения фпс и похожего воркфлоу в comfyUI расскажу в следующий раз.
Изображение поста
колыбельная. опять мрачняк - ну такое настроение
мой новый личный фаворит среди опенсорсных видео моделей - LTXVideo+STG. по качеству конечно не Hunyuan, зато работает в 8 раз быстрее и к тому же умеет в img2vid до сих пор до конца не верю что оживлятор картинок подобного уровня теперь доступен локально. все еще не сора и не клинг но уже заметно лучше чем SVD за трек спасибо прекрасному Demien Stoker кастомные ноды ComfyUI-LTXVideo подробней про STG нативная поддержка LTX в свежем комфи workflow img2vid @тоже_моушн
ComfyUI Теперь официально - Приложение!
У интерфейса появился свой собственный установочник и теперь это всё работает и устанавливается как обычная программа. (Раньше работало через браузер) Само собой - всё это бесплатно. Я боялся этого интерфейса из-за сложности его установки и настройки. А теперь появилось желание изучить и поковырять его. Установилось быстро и без проблем. Ссылка на установочник: https://www.comfy.org/download
Изображение поста
Ким Кардашьян тут решила на красную дорожку надеть мое платье.
Супер, что в телеге не могут забанить за такой фейковый контент! Это я тестирую новую локальную (то есть работающую на вашей машине) переодевалку. Новый урок по курсу AI для дизайнера, который очень хотела моя ученица готов, сегодня выложу. Переодевает шикарно, независимо от того, какой принт, поза, есть ли участки тела, которые надо нарисовать (а Ким тут была в длинном платье, то есть ее ноги сбацал ИИ). Платье взяла прям с рендера в Clo, под рукой нет подходящей фотосессии (клиент говорит, что на ВБ его распродали стремительно, даже без продвижения). Работает в интерфейсе ComfyUI на модели Flux.
Изображение поста