Обнаружение контента, созданного ИИ

Прочитано: 139 раз(а)


Обнаженные фотографии поп-суперзвезды Тейлор Свифт недавно заполонили социальные сети X, где их просматривали и делились ими миллионы пользователей. Но изображения не были настоящими — это были дипфейки, созданные с помощью искусственного интеллекта (ИИ). Инцидент разжег дебаты о регулировании дипфейков и привлек столько внимания, что в дело вмешался Белый дом.

Решения сейчас обсуждаются политиками и крупными технологическими компаниями. Но возможно ли вообще защититься от такого рода атак? По словам Мортена Мёрупа, который занимается исследованиями в области искусственного интеллекта в DTU Compute, это может оказаться очень сложной задачей.

Deepfake использует глубокое обучение для создания текста, изображений, речи или видео , которые кажутся реальными, но далеки от реальности. Развитие дипфейков началось в 2014 году, когда был разработан принцип обучения искусственного интеллекта генеративно-состязательной сети (GAN).

Этот принцип позволяет моделям ИИ обучаться на других моделях ИИ, предназначенных для обнаружения дипфейков. С тех пор были разработаны модели искусственного интеллекта, из-за которых отличить фейк от реальности еще сложнее, а в Интернете доступно множество инструментов для дипфейков .

«Принцип обучения GAN основан на гонке вооружений между двумя моделями ИИ: одна генерирует дипфейки, а другая пытается отличить то, что реально, от того, что создано ИИ. Модели дипфейков проверяют себя на моделях, предназначенных для их обнаружения. Если Модель ИИ, предназначенная для создания дипфейков, обучается на другой модели ИИ, предназначенной для определения, скажем, является ли изображение реальным или поддельным. На основе этой модели ИИ он узнает, как его необходимо улучшить.

«Эта гонка между двумя моделями ИИ — одна пытается генерировать, а другая — обнаруживать фальшивый материал — будет продолжаться до тех пор, пока модель обнаружения больше не сможет различать реальность и фальшивку. Именно это делает задачу настолько сложной как для людей, так и для моделей ИИ. чтобы отличить настоящее от подделки», — говорит Мёруп.

Что такое дипфейки?

Дипфейки — это сгенерированные компьютером текст, изображения, звуки, речь или видео, которые кажутся реальными, но на самом деле таковыми не являются. Человеку может быть очень сложно определить, реально ли что-то или создано искусственным интеллектом, а в некоторых случаях почти невозможно. Дипфейки часто генерируются на основе принципа обучения GAN, но сегодня существует и множество других методов создания дипфейков.

Технологические компании и исследователи работают над разработкой моделей искусственного интеллекта, способных обнаруживать дипфейки, но даже эти модели могут с трудом заметить разницу.

Посмотрите, сможете ли вы заметить разницу . (Этот веб-сайт 2019 года основан на GAN, и с тех пор были разработаны еще более эффективные инструменты для дипфейков.)

Декларации не являются гарантией

Исследование , проведенное DR (на датском языке), показало, что каждый третий ребенок в возрасте 9–14 лет никогда не задумывается о возможности манипулирования фотографиями и видео в социальных сетях. Множество дипфейков привело к тому, что компания Meta, владеющая Facebook и Instagram, попыталась обнаружить изображения и видео, созданные компьютером.

В то же время Закон ЕС об искусственном интеллекте — первый в мире закон об искусственном интеллекте — сделает обязательным декларирование контента, созданного компьютером. Однако, несмотря на то, что в этой области разрабатывается регулирование и технологические компании будут стремиться обнаруживать дипфейки, Мёруп считает, что нет никакой гарантии, что мы сможем избежать появления гораздо большего количества дипфейкового контента в будущем.

«Начало декларировать дипфейки, безусловно, важный шаг, но все равно найдутся люди, которые смогут генерировать контент без его объявления. Ведутся исследования по разработке детекторов дипфейков на базе искусственного интеллекта, но затем мы возвращаемся к гонке вооружений. И это «Гонку вооружений, которую, я думаю, будет очень трудно выиграть. Поэтому мы не должны закрывать глаза и просто предполагать, что все, что не заявлено как дипфейк, реально», — говорит Мёруп.

В настоящее время существует еще один метод обнаружения дипфейков, который полностью обходит искусственный интеллект и основан на тщательных исследованиях.

«Можно попробовать сравнить дипфейк с другой информацией. Если видеоклип показывает, например, что-то, что произошло в Украине, вы можете сравнить его со спутниковыми фотографиями и информацией о погоде на тот момент, чтобы увидеть, все ли соответствует видеоклипу. Например, , в тот день шел дождь, а на видео видно безоблачное небо?

«Единственная проблема заключается в том, что модели ИИ потенциально также могут иметь доступ к информации, по которой мы проверяем видео. Таким образом, хороший дипфейк гарантирует, что на видео идет дождь», — говорит Мёруп.

Мир дезинформации

В 2019 году генеральному директору британской энергетической компании позвонил человек, который, по его мнению, был его начальником в материнской компании в Германии, и предложил ему перевести 220 000 евро на банковский счет. На самом деле генерального директора обманули с помощью дипфейка. Мошенник использовал искусственный интеллект, чтобы настолько убедительно сгенерировать голос своего начальника, что директор немедленно перевел деньги. В феврале 2024 года крупная компания в Гонконге столкнулась с аналогичным инцидентом и была украдена 25,6 млн долларов США.

В Дании Министерство иностранных дел будет более внимательно следить за дипломатическими видеопереговорами после того, как министр иностранных дел Ларс Лёкке Расмуссен (М) в прошлом году столкнулся с фейковым звонком от группы российских комиков, которые имитировали лицо и голос председателя комиссии Африканского союза.

Хотя предотвратить подобные мошенничества и распространение дезинформации, созданной дипфейками, может быть очень сложно, Мёруп считает, что повышение осведомленности о проблемах является ключом к ограничению проблемы.

«Требования к декларированию усложнят обычным пользователям возможность создавать дипфейки, не будучи обнаруженными, но по-прежнему будут оставаться крупные игроки, которые будут обманывать других или влиять на демократические процессы. Поэтому нам необходимо признать, что эти технологии существуют, и действовать соответствующим образом.

«Нам необходимо практиковать критику источников и понимать, что мы живем в мире дезинформации, где существуют манипуляции, которые очень трудно обнаружить. Как общество, наше общее понимание того, что реально, может оказаться под угрозой. Это будет большой проблемой. если мы начнем отвергать истину как дезинформацию и фейк, потому что она не соответствует нашему мировоззрению», — говорит Мёруп.

Изображения Тейлор Свифт впоследствии были удалены, а поиск по имени певицы был отключен на время на X, чтобы предотвратить распространение новых изображений. С тех пор несколько американских политиков, в том числе конгрессмен Иветт Кларк (демократ), призвали принять закон, запрещающий создание и распространение дипфейков в виде контента в Интернете.

Обнаружение контента, созданного ИИ



Новости партнеров