Нейросети и Блендер

Нейросети и Блендер

@monkeyinlaw
Изображение канала: Нейросети и Блендер
12 063 подписчика
1 пост
Посты
как объяснить гуманитариям, что такое gaussian splatting
Video is not supported
Страшно даже представить, сколько год назад нужно было морочиться, чтобы получить подобный уровень качества в vid2vid.
А сейчас такое из каждого утюга. И все благодаря братьям нашим с востока, миска рис кошкожена партия одобряет! Chatgpt\kontext\mago Исходный видос X
Video is not supported
Административный пост.
Привет! Для тех кто заинтересован именно в моем личном бренде и проектах. Первая стадия рефактора канала завершена, начинаем вторую стадию. ☺️ ——————————————————————————————— 📕 Мой стартапный путь на данный момент такой: 2022 → https://phygital.plus/https://neural.love/ → 2024 → https://www.mago.studio/ 🐈‍⬛ И в Mago мне дали добро пробовать расширять команду QA подразделения стартапа и на данном этапе я ищу всего одного человека на это направление. Ещё я конечно кайфую от командных игр и Jam session в MAGO ЗП зависит от вашего скилла, вилка от 10 до 20$ за час работы ☺️ Кого я вижу в свою команду: • Студентов • Junior разрабов в python (Но опыт в программировании необязателен, если что обучу) • Людей, которые любят создавать красоту, особенно в видео • Людей, которые готовы со мной работать в команде • Есть опыт в видеомонтаже • Есть ноутбук или стационарный комп • Есть возможность получать оплату в крипте или в Нови-Саде в динарах, в евро • Есть базовый английский (но необязательно, так как прям со стартапом будете мало общаться, все общение со мной) 📕 Что будете делать: • Подписывать NDA (соглашение о неразглашении) • Максимум 4 часа работы в неделю (потому можно совмещать с учебой, другой работой) • Точно по списку идти по тестам, все тесты прописано до мелочей • Генерить красоту из видео Если все будет отлично, буду подкидывать ещё работы. Заполнить все данные и оставить заявку можно по форме вот тут: LINK 💖 И конечно будет идеально, если кандидат сможет: — Встретиться лично в Нови-Саде и пообщаться, в кафане например ——————————————————————————————— Вторая вакансия, которая никак не связана с Mago. А уже с моим брендом: 📕 Монтажер ко мне в команду, с возможностью роста. Это личный проект. у меня скопилось уже очень много материалов, я не успеваю физически монтировать, а автоматизация на данный момент не доходит до моего желаемого уровня качества. ☺️ Кого я вижу: • Школьника, студента • Желающего обучаться. (В финале человек будет знать Premiere Pro, Figma, Design проектирование, небольшая режиссура, отлично использовать разные AI модели для контента и многое ещё) • Первое время 5-10$ за час работы (зависит от начального опыта) + огромный пак обучения от меня, если все пойдет хорошо, 20+$ за час работы (без обучения) • Идеально если человек живет в Нови-Саде • Есть возможность получать оплату в крипте или в Нови-Саде в динарах, в евро 🐱 Форма на эту задачу: LINK Если у вас есть знакомый или друг, который ищет что-то схожее, отправьте ему. Может это будет идеальный мэтч. ——————————————————————————————— А теперь к остальным проектам → 📕 Анонс по роликам на youtube канал: — Первым выйдет второй урок по FramePack (Возможно на этой неделе, в позитивном сценарии в четверг, 22 мая) — Затем выйдет урок про VACE. Неделю назад вышла 14B модель VACE, буду её тестить и показывать её вам (мой урок про 1.3B модель) В ТГ канале пока будет мало активности, простите. Он еще в процессе рефактора.
Изображение поста
Как насчет 3d видосов?
📕 Realtime Gaussian Splatting — теперь мы можем использовать ещё и видео для создания 3d сцен через Gaussing Splatting технологию !НО: — Вам нужна RGBD камера (это когда четвертый параметр карта глубины) Типо такой: LINK или такой: LINK 🐈‍⬛ При этом автор заопенсоурсил весь свой код и предложил поиграться всем. GITHUBREDDIT Особенности: — Вы снимаете видео, но хотите на посте чуть повернуть ракурс, а момент упущен, подойдет — Вам нужна 3d сцена и экшн в ней, подойдет — Вам нужен новый Хайп эффект для клипа? Подойдет! Здесь конечно как входящее видео идеально подойдут кадры снятые с 360 камер, если бы у них был еще depth параметры. (Но доступных на рынке таких камер пока не видел) Если вам интересно как делать просто 3d сцены, без видео Сплатов — вот тут делал перевод хорошего процесса. Жаль в Blender пока качественного рендера Гауссин Сплатов нет... 🐈‍⬛
Video is not supported
ComfyUI большое обновление
Интеграция API-нод напрямую приносит 11 потрясающих визуальных AI-моделей в среду с открытым исходным кодом: — Одна платформа, 11 моделей, 65 нод одновременно — Объединяйте API с вашими любимыми открытыми моделями и рабочими процессами — Никаких ограничений по оборудованию Что такое API-ноды? API-ноды — это встроенные ноды в ComfyUI, которые могут вызывать API платных моделей, таких как Veo2 или Flux Ultra. Для многих ComfyUI — это движок автоматизации, который помогает выполнять творческие задачи. Творческим людям важно достичь наилучшего результата, и это включает использование нелокальных моделей. На прошлой неделе мы запустили GPT-Image-1 в качестве API-ноды, и незамедлительная обратная связь была простой: пожалуйста, добавьте больше моделей. С тех пор команда усердно работала, и мы рады объявить о поддержке еще 10 семейств моделей и 62 новых нод. Поддержка моделей: — Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro] — Kling 2.0, 1.6, 1.5 & Various Effects — Luma Photon, Ray2, Ray1.6 — MiniMax Text-to-Video, Image-to-Video — PixVerse V4 & Effects — Recraft V3, V2 & Various Tools — Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large — Google Veo2 — Ideogram V3, V2, V1 — OpenAI GPT4o image — Pika 2.2 От меня: Теперь ComfyUI это комбайн, где есть и платные сервисы и локальные модели, что делает этот инструмент еще более мощным и эффективным, ВОООУУ! А в комментах еще про их офигенный редизайн —>
Video is not supported
Управление лицом с джойстика в ComfyUI
Это наверное самое неожиданное и интересное решение для ComfyUI: — Управлять эмоциями на сгенерированном лице через игровой джойстик В 18+ контенте кажется появились новые идеи для игры Полное описание и процесс установки: LINK
Video is not supported
Продуктовый Gaussian splatting
📕 Процесс: — Для захвата вам нужна стабильная четкая запись. Используйте высокую выдержку с фиксированным значением, фиксированное значение ISO, фиксированный баланс белого и камеру с хорошей стабилизацией изображения. Снимайте объект восходящими дугами и поперечными движениями, обеспечивая хорошее покрытие с разных углов обзора. — Затем пропустите видео через наш инструмент sharpframes, он извлечет самые четкие кадры из видео. В приведенной выше сцене я получил примерно два кадра в секунду из видео 60 FPS. https://sharp-frames.reflct.app или pip install sharp-frames, если вам удобны инструменты командной строки. У нас также есть бета-версия приложения для Windows. — Затем обучите Gaussian splatting. Для этого я использовал Metashape и Postshot в профиле splat3 с 1 млн макс. сплэтов и понижением разрешения до 1600 пикселей. — Затем разместил в интернете с помощью https://reflct.app LINK — как это выглядит в инете Docs для reflct Подготовил вам детальный пост из этого реддита: LINK Для меня, это кстати я: ☺️, очень вовремя подборка, так как планирую продавать в июне подделки из бетона и мне нужно прям в 3d и быстро показать каждую поделку в инете для покупателя. Проверим и вернусь уже с ссылочками для вас. Кому еще подойдет? — Real estate, если вы продаете дома, сдаете квартиры\дома — Вам нужно показать со всех ракурсов ваш товар, при этом свои сервера держать не выгодно — Вы продаете БУ\новую технику и детали к ней. Авто, грузовики, велосипеды и т.д. 📕В комментариях дополняю про аппаратуру для лучшего создания gaussian splatting —>📕
Video is not supported
MAGO теперь в Closed Beta!💖
Подать заявку можно вот тут: LINK 📕 Что мне как творческому аниматору нравится: — Side By Side(SBS) mode. Когда ты можешь сравнивать сразу несколько генерации и понимать как настройки меняют генерацию. То есть в данном случае сервис позволяет узнать как работают разные настройки и экспериментировать с ними. — Folders, когда проекты можно упаковывать в папки и разделять по интересам, работам. (Наверное уже заметили как это удобно в ChatGPT) — Controlnets. Это достаточно приятно упаковано и я рад, что доступ к этим настройкам оставили в том виде, как привыкли их видеть ComfyUI пользователи, а не в виде Midjourney параметров. — И ещё много чего в процессе. Я не так много публикую работ из MAGO. Но мне приятнее и приятнее с каждым днем генерировать именно там. Когда будет открыт доступ для всех, я напишу!
Video is not supported
Сегодня будет два поста
Первый пост — 📕 Хороший дайджест у AI Molodca Про: Музыкальные новинки, подкастерские и Midjourney с обновленным IP Adapter (А помните как года 2 назад они обещали видео модель и 3d?) 📕 А Сgevent потестил многое из дайджеста прям детально в своем канале. А от меня вот такая ссылочка про Nvidia — LINK Ребята из NVIDIA решили взять ControlNet + FLUX dev и сделать генератор сцен, но похоже им не хватает QA тестера, 9:16 и 16:9 форматы перепутаны, очень странный UI иногда с двумя скроллами в одном объекте. Короче вроде и круто, что бесплатно, но по качеству будто опенсоурс на коленке собирался. Есть ещё видео, как все задумывалось: LINK — Да и Fal.ai существует уже давно. Версию с ControlNet можно и в другом месте найти. Хотя понятно, что идея в другом, вы можете деплоить это как микросервис на своих мощностях(Пока 4xx и 5xx поколения). Бесплатно можно потестить 25 генераций.
Изображение поста
Изображение канала: Нейросети и Блендер
Немного личного, не по теме канала
Я просто с детства собирал велосипеды, велосипед на скрине вроде собран в 17 лет. Все запчасти собирались отдельно, заказывались из разных мест. Вес велика был 9кг. И велосипед продан больше 10 лет назад, хах 🐈‍⬛ Но я всегда считал себя лохом, потому что не могу сам отлить раму и приваривать алюминий авиационный или не могу сделать карбоновую раму. Потому уважаю всех, кто умеет работать со сваркой или с роборуками для сварки. 🐈‍⬛ Сейчас этот навык ушел полностью в закат. У меня только остался опыт, как правильно подбирать запчасти, как обслуживать велосипеды, как рассчитывать нагрузки и углы рамы. Иногда будут упоротые посты про велосипеды, я считаю это все равно лучшим транспортом для личного использования, голландцы подтвердят. Но пока не изобретут массовые реактивные ранцы для обычных людей. Хехехе
Изображение поста
Изображение канала: Нейросети и Блендер
Быстрые 3D композиции локально для ComfyUI
Это просто находка для тех, кто работает с ComfyUI и хочет быстро создавать 3D-композиции. A3D позволяет легко: — Задавать позы простым болванками. — Выбирать идеальные ракурсы камеры и строить сцены. — Импортировать любые 3D-модели — от Mixamo до результатов Hunyuan3D 2.5. — А самое крутое — вы можете моментально отправить цветное изображение или карту глубины из A3D в ComfyUI и использовать их в своих любимых workflow! ✨ 🔗 Оценить разработку n0neye можно по ссылке: LINK — причем это опенсоурс Как пишет сам автор, A3D задуман как быстрый и легкий способ создавать сцены без погружения в сложные 3D-редакторы. Некоторые фишки вроде 3D-генерации пока зависят от Fal.ai, но n0neye планирует добавить локальные альтернативы в будущем. Мне нравится,что проект опенсоурсный и автор ищет сейчас умельцев для продолжения интеграции A3D в ComfyUI и планирует прикрепить к нему локальную генерацию через Hunyuan3D. Мне понравилась идея, так как иногда Blender слишком сложный для новичков, а этот проект выглядит простым в использовании. 📕 Минусы: — Пока только для Windows пользователей GITHUBAUTHOR
Video is not supported
Изображение канала: Нейросети и Блендер
Наконец-то дошли руки протестить Hunyuan 2.5.
И вот что я хочу сказать! Сейчас это лучший 3D-генератор на рынке, а учитывая его 20 бесплатных генераций в день, это можно считать вообще лучшим бесплатным генератором! Точность геометрии выросла в разы, особенно если мы говорим про не очень комплексные объекты. С моей палаткой пока не справляется. Но если у вас стилизация и простые формы, то это практически закроет потребности в генерации. Я всё ещё жду с нетерпением сегментацию, которую уже показали, и примерно через 3–5 месяцев она будет по умолчанию уже и в Хуньяне, и в Трипо. Пока Трипо ушёл на второе место со своими 600 кредитами в месяц (~5 генераций) против Хуньяня с 20 генерациями в день!! Пробовать тут, регайтесь по почте. @CGIT_Vines
Video is not supported
Изображение канала: Нейросети и Блендер
Пост для классического постпродакшена.
Ребята из KeenTools показали удобный хинт для трека камеры через GeoTracker и любой 3D генератор. Или как у них через ComfyUI/
Video is not supported
Изображение канала: Нейросети и Блендер
Деревня дураков, но это аниме опенинг.
Самый сложный из этой серии. Миджорни был не в состоянии справиться со стилизацией уникального дизайна персонажей, поэтому для датасета (ну и для ряда кадров) использовал новый ChatGPT 4o. Плюс вагон фотошопа, море черрипикинга, работы по ключевым кадрам и прочих радостей. Пайплайн: ChatGPT 4o + Flux + Photoshop + Luma Ray 2 / Kling 1.6 / Gen-4 + Suno + CapCut. Версия для ютуба, если кому надо.
Video is not supported
Изображение канала: Нейросети и Блендер
Если вам надоел псевдо Гибли стайл в ChatGPT
🐱 Держите WAN генерации обучены на настоящем Гибли Студио работах! От автора в дискорд сообществе Banodoco — seruva19 📕 Лора + Огромная инструкция, как обучалось и как генерить! — LINK
Video is not supported
Изображение канала: Нейросети и Блендер
Как правильно задавать технические вопросы (и почему это важно для общения с LLM)
Одновременно я столкнулся с двумя вещами в последний месяц: Странные вопросы и замечательные #before">текст с этого сайта про умные вопросы. Прежде чем задавать технический вопрос по почте, в группе, на форуме или мне в канале, стоит предпринять несколько важных шагов: — Попробуйте найти ответ, изучив архивы форума или рассылки. — Используйте поисковые системы (например, Google или Deep Search в разных моделях). — Обратитесь к официальной документации. — Проверьте раздел часто задаваемых вопросов (FAQ). — Попробуйте решить проблему самостоятельно, путём анализа или экспериментов. — Спросите совета у более опытных коллег или друзей. — Изучи исходный код или ноды детально, перед вопросом. Когда будете задавать вопрос, важно показать, что вы уже предприняли усилия для поиска ответа. Это сразу продемонстрирует уважение к чужому времени и покажет, что вы не «ленивая губка», пытающаяся просто вытянуть информацию. Ещё лучше указать, чему вы уже научились в процессе поиска. Используйте конкретные приёмы поиска. Например, вставляйте точный текст ошибки в Google. Даже если это не приведёт вас сразу к решению, упоминание о том, что вы уже сделали поиск, поможет другим понять, какие методы не сработали, и направит людей с аналогичными проблемами к вашему обсуждению. Не торопитесь. Сложные проблемы редко решаются за пару минут поиска. Подумайте внимательно, сформулируйте точный вопрос, подготовьтесь. Опытные пользователи сразу увидят, насколько глубоко вы изучили проблему и будут охотнее помогать. Осторожно подходите к формулировке вопроса. Неправильно заданный вопрос, основанный на неверных предположениях, часто приводит к бесполезным или буквальным ответам, которые никак не помогают решить вашу реальную проблему. Не думайте, что вам обязаны ответить. Помощь в открытых сообществах — это не платная услуга. Ответ нужно заслужить интересным, осмысленным и хорошо проработанным вопросом. Подчеркните готовность активно участвовать в процессе решения проблемы. «Подскажите, в каком направлении копать?» или «Чего не хватает в моём примере?» — такие вопросы намного чаще получают полезные ответы, чем просьбы типа «напишите мне точную последовательность шагов». 📕 Почему это важно для общения с LLM? LLM (большие языковые модели) тоже работают лучше, когда запрос составлен чётко и продуманно. Чем яснее и подробнее сформулирован ваш вопрос, тем точнее будет ответ нейросети. Подход «сначала подумай, потом спроси» отлично подходит и для взаимодействия с искусственным интеллектом. Вы сэкономите время и получите более качественные и полезные ответы. Правильно заданный вопрос — это уже половина решения проблемы. Не пренебрегайте этим шагом, и общение как с людьми, так и с LLM будет приносить гораздо больше пользы.
Изображение поста
Изображение канала: Нейросети и Блендер
Вчера прочитал, что мульт Flow собрал $36 миллионов при затраченных $3.7!
В популярности, конечно же, сыграл аспект того, что мульт получил Оскара. Но важно, что сама история и подача сработали за счет свежего подхода. При этом никто не говорил, что там крутые спецэффекты, графика, рендер или что-то подобное. Ребята сами признавались, что в Blender и создании мультов были новичками. Все это дает новое дыхание независимой анимации. И тут мы разобрались, что инструменты не так уж и важны для успеха. Поэтому ИИ с его ускорением процесса производства — не помеха, но и не буст, но точно причина понижения порога входа. История и возможность экспериментировать — вот что будет решать. Большинству в целом было без разницы, что анимация во Flow была странной, мягко говоря, или что шерсть выглядела неестественно, ну и много чего еще. Поэтому какие-то косяки AI, если правильно обернуть их в стиль и держать под надзором хорошего арт-директора, вообще не будут восприниматься как недостаток. Так что будем ждать смелых и дерзких!
Video is not supported
Изображение канала: Нейросети и Блендер
Дальнобойщики, но это аниме опенинг.
Ёкарный пайплайн: Midjourney + Claude + Flux + Photoshop + Luma Ray 2 + Suno + Сapcut. Трек: кавер на Високосный год - Тихий огонёк. Спасибо всем кто репостит и упоминает, мотивирует продолжать! Версия для ютуба.
Video is not supported
Изображение канала: Нейросети и Блендер
Поле Чудес, но это аниме опенинг ✨
Продолжаю экспериментировать с Luma Ray 2. Пайплайн: Midjourney + Flux + Luma Ray 2 + Suno. Версия для ютуба, если кому нужно.
Video is not supported
Изображение канала: Нейросети и Блендер
Офигенный workflow от аниматора Cuco
Это как раз идеальный пример, как художник может использовать AI для упрощения процессов не особо теряя в качестве. -- Тут обучение Лоры на своих артах, особенно когда их мало. -- Создание всего окружения в своём стиле + создание простых сцен. Я делал что-то похожее здесь. -- Создание простых анимаций использую только линии и затем Lineart на своей Лоре чтобы сделать финальную картинку. -- Далее AnimateDiff с Lineart ControlNet для сцен + Лора. И вот уже у нас офигенные слои, которые можно будем потом композить. Автор: LINK
Video is not supported