Исследователи из Microsoft представили новый искусственный инструмент, который может создавать глубоко реалистичные человеческие аватары, но не предложили сроков его доступности для общественности, сославшись на опасения по поводу содействия созданию глубокого фейкового контента.
Модель искусственного интеллекта, известная как VASA-1 (что означает «визуально-аффективные навыки»), может создавать анимированное видео говорящего человека с синхронизированными движениями губ, используя только одно изображение и речевой аудиоклип.
Исследователи дезинформации опасаются безудержного злоупотребления приложениями на базе искусственного интеллекта для создания «глубоких фейков» изображений, видео и аудиоклипов в решающий год выборов.
«Мы против любого поведения, направленного на создание вводящего в заблуждение или вредного контента реальных людей», — написали авторы отчета VASA-1, опубликованного на этой неделе Microsoft Research Asia.
«Мы стремимся ответственно подходить к разработке ИИ с целью улучшения благосостояния людей», — заявили они.
«У нас нет планов выпускать онлайн-демоверсию, API, продукт, дополнительные детали реализации или какие-либо сопутствующие предложения до тех пор, пока мы не будем уверены, что технология будет использоваться ответственно и в соответствии с надлежащими правилами».
Исследователи Microsoft заявили, что технология может улавливать широкий спектр нюансов лица и естественных движений головы.
«Это открывает путь к взаимодействию в реальном времени с реалистичными аватарами, которые имитируют разговорное поведение человека», — заявили исследователи в своем сообщении.
По словам Microsoft, VASA может работать с художественными фотографиями, песнями и неанглийской речью.
Исследователи рекламировали потенциальные преимущества этой технологии, такие как предоставление студентам виртуальных учителей или терапевтическая поддержка нуждающимся людям.
«Он не предназначен для создания контента, который будет использоваться для введения в заблуждение или обмана», — заявили они.
Согласно сообщению, в видеороликах VASA все еще есть «артефакты», свидетельствующие о том, что они созданы искусственным интеллектом.
Технологический руководитель ProPublica Бен Вердмюллер сказал, что он «был бы рад услышать о том, что кто-то впервые использует его, чтобы представлять его на собрании Zoom».
«Ну, как все прошло? Кто-нибудь заметил?» Об этом он сообщил в социальной сети Threads.
Производитель ChatGPT OpenAI в марте представил инструмент клонирования голоса под названием «Voice Engine», который может по существу дублировать чью-либо речь на основе 15-секундного аудиосэмпла.
Но в компании заявили, что «принимают осторожный и осознанный подход к более широкому выпуску из-за возможности неправильного использования синтетического голоса».
Ранее в этом году консультант, работающий на потенциального кандидата в президенты от Демократической партии, признал, что он стоял за роботизированным звонком, выдающим себя за Джо Байдена, который был отправлен избирателям в Нью-Гэмпшире, заявив, что он пытался подчеркнуть опасность ИИ.
В звонке звучало что-то вроде голоса Байдена, призывающего людей не голосовать на январских первичных выборах в штате, что вызвало тревогу среди экспертов, которые опасаются потока глубокой фейковой дезинформации с помощью искусственного интеллекта в гонке за Белый дом в 2024 году.