Исследователи анализируют характеристики дипфейков, созданных ИИ

Прочитано: 235 раз(а)


В большинстве дипфейков (видео с фальшивыми гиперреалистичными воссозданиями), созданных искусственным интеллектом (ИИ), которые распространяются через социальные сети, фигурируют политические представители и деятели искусства и часто связаны с текущими новостными циклами.

Таков один из выводов исследования Мадридского университета Карлоса III (UC3M), которое анализирует формальные и содержательные характеристики вирусной дезинформации в Испании, возникающей в результате использования инструментов ИИ в незаконных целях. Этот прогресс представляет собой шаг к пониманию и смягчению угроз, порождаемых мистификациями в нашем обществе.

В исследовании , недавно опубликованном в журнале Observatorio (OBS*) , исследовательская группа изучила этот фейковый контент посредством проверок испанских организаций по проверке фактов, таких как EFE Verifica, Maldita, Newtral и Verifica RTVE.

«Цель заключалась в том, чтобы выявить ряд общих закономерностей и характеристик в этих вирусных дипфейках, предоставить некоторые подсказки для их идентификации и внести некоторые предложения по медиаграмотности , чтобы граждане могли бороться с дезинформацией», — объясняет один из авторов, Ракель Руис Инсертис, научный сотрудник отдела коммуникаций UC3M, где она работает над докторской диссертацией. в европейском общении.

Исследователи разработали типологию дипфейков, которая упрощает их выявление и нейтрализацию. Согласно результатам исследования, некоторые политические лидеры (например, Трамп или Макрон) были главными героями контента, посвященного употреблению наркотиков или морально предосудительной деятельности. Также существует значительная доля порнографических дипфейков, наносящих вред неприкосновенности женщин, в частности, разоблачающих известных певиц и актрис. По словам исследователей, они обычно передаются из неофициальных аккаунтов и быстро распространяются через службы обмена мгновенными сообщениями.

Распространение дипфейков или частое использование изображений, видео или аудио, обработанных с помощью инструментов искусственного интеллекта, является весьма актуальной проблемой. «Такой тип заранее сфабрикованных мистификаций особенно вреден в деликатных ситуациях, например, в предвыборный период или во время конфликтов, подобных тем, которые мы сейчас переживаем на Украине или в секторе Газа. Это то, что мы называем «гибридными войнами»: война Борьба ведется не только в физической сфере, но и в цифровой сфере, и ложь сегодня более значительна, чем когда-либо», — говорит Руис Инсертис.

Приложения этого исследования разнообразны: от национальной безопасности до честности избирательных кампаний. Результаты показывают, что активное использование искусственного интеллекта на платформах социальных сетей может революционизировать способы обеспечения подлинности информации в эпоху цифровых технологий.

Исследование подчеркивает необходимость повышения медиаграмотности и предлагает образовательные стратегии, направленные на улучшение способности общественности отличать реальный контент от манипулируемого. «Многие из этих дипфейков можно идентифицировать с помощью обратного поиска изображений в поисковых системах, таких как Google или Bing. Существуют инструменты, позволяющие общественности за пару кликов проверить точность контента, прежде чем распространять контент сомнительного происхождения. Главное — научить им, как это сделать», — говорит Руис Инсертис.

Он также дает другие советы по обнаружению дипфейков, например, обращайте внимание на резкость краев элементов и четкость фона изображения: замедлены ли движения на видео или есть ли какие-либо изменения лица, диспропорция тела или странная игра света и теней, все указывает на то, что это может быть контент, созданный искусственным интеллектом.

Кроме того, авторы исследования также видят необходимость в законодательстве, которое обязывает платформы, приложения и программы (такие как Midjourney или Dall-e) устанавливать «водяной знак», который идентифицирует их и позволяет пользователю с первого взгляда узнать, что изображение или видео было изменено или создано полностью с помощью ИИ.

Исследовательская группа использовала междисциплинарный подход, сочетающий науку о данных и качественный анализ, чтобы изучить, как организации по проверке фактов применяют ИИ в своей деятельности. Основная методология — контент-анализ около тридцати публикаций, взятых с сайтов вышеупомянутых фактчекеров, где опровергается этот сфабрикованный или созданный искусственным интеллектом контент.

Исследователи анализируют характеристики дипфейков, созданных ИИ



Новости партнеров