ну снова свершилось 🔥
миджа выпустили свою первую модель image to video, я очень возлагаю на него надежды. и да, я знаю что среди вас есть те, кто работает с видео, чекните, как Вам?
ниже я прикрепил текст разрабов, очень много букв и обещаний 🕺
Как вы знаете, последние несколько лет мы сосредоточены на изображениях. Но, возможно, вы не знаете, что мы считаем конечной целью этой технологии создание моделей, способных на реальные симуляции в открытом мире в реальном времени.
Что это значит? Представьте себе ИИ, который генерирует изображения в реальном времени. Вы можете отдавать ему команды двигаться в 3D-пространстве, а окружающая среда и персонажи тоже двигаются, и вы можете взаимодействовать со всем этим.
Чтобы это стало реальностью, нам нужны строительные блоки:
• визуалы (наши первые модели изображений),
• умение оживлять эти изображения (видео-модели),
• возможность перемещаться в пространстве (3D-модели),
• и всё это должно работать быстро (модели реального времени).
В течение следующего года мы будем поэтапно создавать эти компоненты, выпускать их, а затем постепенно объединять в одну систему. Возможно, поначалу это будет дорого, но раньше, чем вы думаете, это станет доступно каждому.
А что сегодня?
Сегодня мы делаем следующий шаг вперёд:
мы выпускаем Версию 1 нашей Видео-Модели для всей комьюнити.
С технической точки зрения — это лишь промежуточный шаг. Но мы долго думали, что именно вам дать уже сейчас.
Наша цель — сделать что-то весёлое, простое, красивое и доступное, чтобы каждый мог экспериментировать. Кажется, мы нашли неплохой баланс. Хотя, скорее всего, многим придётся перейти на более высокий тариф ради большего количества «быстрых минут».
Новый рабочий процесс называется “Image-to-Video”.
Это значит, что вы по-прежнему создаёте изображения в Midjourney, как обычно, но теперь можно нажать «Animate» (Анимировать), чтобы они начали двигаться.
Есть два режима:
• Автоматический — сам генерирует «motion prompt» (подсказку движения) и просто делает анимацию. Это весело.
• Ручной — вы сами описываете, как должна двигаться сцена и что должно происходить.
Также есть два уровня движения:
• Low motion — лучше подходит для атмосферных сцен, где камера почти не двигается, а объект двигается медленно или плавно. Минус: иногда может вообще ничего не двигаться.
• High motion — хорошо для активных сцен, где всё движется, включая камеру. Минус: могут быть визуальные ошибки из-за избыточного движения.
После создания видео его можно расширять — примерно на 4 секунды за раз, максимум 4 раза.
Также теперь можно анимировать изображения, загруженные извне Midjourney.
Просто перетащите картинку в поле ввода и отметьте как “start frame” (стартовый кадр), затем напишите motion prompt (описание движения).
⸻
Пожалуйста, используйте эти технологии ответственно. При правильном применении — это не только весело, но и по-настоящему полезно или даже глубоко, оживляя старые и новые миры.
⸻
Себестоимость создания таких моделей и финальная цена пока сложно прогнозировать. Мы сделаем всё, чтобы дать вам доступ уже сейчас, а в течение месяца будем наблюдать, как вы используете технологию (или даже полностью перегрузите наши сервера 😄) и на основе этого адаптируем систему, чтобы проект был устойчивым.
⸻
На старте всё будет работать только в веб-версии. Цена: около в 8 раз дороже одного изображения за одно видео-задание, но одно задание даёт 4 видео по 5 секунд. Удивительно, но это примерно столько же, сколько стоит обычный upscale! Или: «одна картинка — одна секунда видео». Это в 25 раз дешевле, чем аналогичные решения на рынке.
Также мы тестируем режим relax для видео — доступен для подписчиков уровня Pro и выше.
⸻
Надеемся, вы оцените этот релиз. Впереди ещё больше! И многие из полученных здесь знаний мы скоро перенесём и в наши модели изображений.