Adobe Firefly теперь умеет добавлять звук к видео, которые генерируются ИИ

Изображение: Adobe
С момента апрельского апдейта Adobe Firefly, платформа ИИ-сервисов компании почти каждый месяц получает весомые улучшения. Сейчас разработчики анонсировали свежие инструменты, нацеленные на тех, кто использует сервис для создания видеоматериалов.
Главным образом, Adobe улучшила интеграцию аудиоэффектов в ролики, созданные нейросетями. Так как большая часть алгоритмов выдаёт видео без звука, Adobe предлагает решение: функция, позволяющая описать нужный звуковой эффект и затем воссоздать его. Повтор звука нужен не для копирования, а для более точного понимания системой требуемой интенсивности и длительности звука.
В демонстрации представитель Adobe применил обновлённую функцию для добавления звука молнии на одежде, произнеся "ззззтт". Алгоритм точно повторил эффект, выставив нужную громкость. Хотя идеальная генерация звука не всегда возможна, функция хорошо может быть использована для черновиков, что и было целью Adobe.
Еще одна новая возможность Composition Reference даёт возможность загружать изображения или видео для управления генерацией. Используя Video Presets, можно определить стиль ролика, выбирая, например, аниме, чёрно-белое видео или видео с векторной графикой. Функция Keyframe Cropping обеспечивает возможность загрузить начальный и конечный кадры, указать пропорции, и Firefly создаст видео, которое соответствует параметрам.
С июня платформа Adobe поддерживает ИИ-алгоритмы других разработчиков, и их число растет. Важным событием стало появление модели Google Veo 3, показанной в мае на Google I/O 2025. Veo 3 одна из немногих ИИ-моделей, умеющих генерировать видео со звуком. Важно, что каждое видео, созданное на Firefly, имеет цифровую подпись, указывающую на его ИИ-происхождение, сообщает 3D-News.