OpenAI представляет инструмент клонирования голоса

Прочитано: 185 раз(а)


OpenAI в пятницу представила инструмент клонирования голоса, который она планирует держать под строгим контролем до тех пор, пока не будут приняты меры безопасности, предотвращающие подделку аудио, предназначенную для обмана слушателей.

Модель под названием «Voice Engine» может по сути дублировать чью-то речь на основе 15-секундного аудиообразца, согласно сообщению в блоге OpenAI, в котором представлены результаты небольшого теста инструмента.

«Мы понимаем, что создание речи, напоминающей голоса людей, сопряжено с серьезными рисками, о которых особенно важно в год выборов», — заявили в компании из Сан-Франциско.

«Мы сотрудничаем с американскими и международными партнерами из правительства, средств массовой информации, индустрии развлечений, образования, гражданского общества и других стран, чтобы гарантировать, что мы учитываем их отзывы в процессе строительства».

Исследователи дезинформации опасаются безудержного злоупотребления приложениями на базе искусственного интеллекта в решающий год выборов из-за распространения инструментов клонирования голоса, которые дешевы, просты в использовании и их трудно отследить.

Признавая эти проблемы, OpenAI заявила, что «принимает осторожный и осознанный подход к более широкому выпуску из-за возможности неправильного использования синтетического голоса».

Осторожное заявление было сделано через несколько месяцев после того, как политический консультант, работавший в перспективной президентской кампании демократического соперника Джо Байдена, признался, что стоял за вызовом робота, выдававшего себя за лидера США.

Сгенерированный искусственным интеллектом призыв, придуманный сотрудником конгрессмена от Миннесоты Дином Филлипсом, звучал как голос Байдена, призывающий людей не голосовать на январских праймериз в Нью-Гэмпшире.

Инцидент вызвал тревогу среди экспертов, которые опасаются потока фейковой дезинформации с помощью искусственного интеллекта во время гонки за Белый дом в 2024 году, а также на других ключевых выборах по всему миру в этом году.

OpenAI заявила, что партнеры, тестирующие Voice Engine, согласились с правилами, в том числе требующими явного и осознанного согласия любого человека, чей голос дублируется с помощью этого инструмента.

Также необходимо разъяснять аудитории, что голоса, которые они слышат, генерируются искусственным интеллектом, добавили в компании.

«Мы внедрили ряд мер безопасности, включая водяные знаки для отслеживания происхождения любого звука, генерируемого Voice Engine, а также упреждающий мониторинг того, как он используется», — заявили в OpenAI.

OpenAI представляет инструмент клонирования голоса



Новости партнеров