Пока не увижу, не поверю? Глобальная борьба с дипфейками

Прочитано: 104 раз(а)


Чат-боты, извергающие ложь, приложения для замены лиц, создающие порновидео, и клонированные голоса, обманывающие компании с миллионами — все это борьба за то, чтобы обуздать дипфейки ИИ, которые стали суперраспространителями дезинформации.

Искусственный интеллект переосмысливает пословицу «увидеть — значит поверить», с потоком изображений, созданных из воздуха, и людей, демонстрирующих то, что они никогда не говорили, в реалистично выглядящих дипфейках, которые подорвали доверие к сети.

«Ого. (Определенно) не я», — написал миллиардер Илон Маск в Твиттере в прошлом году в одном ярком примере дипфейкового видео, в котором он рекламировал аферу с криптовалютой.

Китай недавно принял обширные правила для регулирования дипфейков, но большинство стран, похоже, изо всех сил пытаются не отставать от быстро развивающихся технологий на фоне опасений, что регулирование может затормозить инновации или может быть использовано для ограничения свободы слова.

Эксперты предупреждают, что создатели дипфейков значительно опережают создателей, которых трудно поймать, поскольку они работают анонимно, используя программное обеспечение на основе ИИ, которое когда-то рекламировалось как специализированный навык, но теперь широко доступно по низкой цене.

А британский активист Кейт Айзекс, 30 лет, сказала, что ее «сердце упало», когда ее лицо появилось в дипфейковом порновидео, которое вызвало шквал оскорблений в Интернете после того, как неизвестный пользователь разместил его в Твиттере.

«Помню, я просто чувствовал, что это видео будет повсюду — это было ужасно», — сказал Айзекс, выступающий против порнографии без согласия, в октябре BBC процитировало слова Айзекса.

В следующем месяце британское правительство выразило обеспокоенность по поводу дипфейков и предупредило о популярном веб-сайте, который «фактически раздевает женщин догола».

«Информационный апокалипсис»

Отсутствие барьеров для создания синтезированного ИИ текста, аудио и видео, возможность неправомерного использования для кражи личных данных , финансового мошенничества и подрыва репутации вызвали глобальную тревогу.

Группа «Евразия» назвала инструменты ИИ «оружием массового поражения».

«Технологические достижения в области искусственного интеллекта подорвут доверие общества, усилят демагогов и авторитаристов и подорвут бизнес и рынки», — предупредила группа в своем отчете.

«Достижения в области дипфейков, распознавания лиц и программного обеспечения для синтеза голоса сделают контроль над своим внешним видом пережитком прошлого».

На этой неделе стартап ElevenLabs, занимающийся искусственным интеллектом, признал, что его инструмент для клонирования голоса может быть использован не по назначению в «злонамеренных целях» после того, как пользователи опубликовали дипфейк.

Растущий объем дипфейков может привести к тому, что европейское правоохранительное агентство Европол назвало «информационным апокалипсисом», сценарием, когда многие люди не могут отличить правду от вымысла.

«Эксперты опасаются, что это может привести к ситуации, когда у граждан больше не будет общей реальности, или может создать в обществе путаницу в отношении того, какие источники информации являются надежными», — говорится в отчете Европола.

Это было продемонстрировано в минувшие выходные, когда игрок НФЛ Дамар Хэмлин впервые обратился к своим фанатам в видео после того, как во время матча у него случилась остановка сердца .

Хэмлин поблагодарил медицинских работников, ответственных за его выздоровление, но многие, кто верил в теории заговора о том, что причиной его коллапса на поле была вакцина от COVID-19, безосновательно назвали его видео дипфейком.

«Супер обманщик»

В прошлом месяце в Китае были введены новые правила, согласно которым предприятия, предлагающие услуги дипфейка, должны получать настоящие личности своих пользователей. Они также требуют , чтобы дипфейк- контент был соответствующим образом помечен, чтобы избежать «какой-либо путаницы».

Правила были приняты после того, как китайское правительство предупредило, что дипфейки представляют «опасность для национальной безопасности и социальной стабильности».

В Соединенных Штатах, где законодатели настаивают на создании целевой группы по борьбе с дипфейками, активисты защиты цифровых прав предостерегают от законодательных злоупотреблений, которые могут убить инновации или нацелиться на законный контент.

Тем временем в Европейском союзе ведутся жаркие дискуссии по поводу предложенного им «Закона об искусственном интеллекте».

Закон, который ЕС спешит принять в этом году, потребует от пользователей раскрывать дипфейки, но многие опасаются, что закон может оказаться беззубым, если он не будет охватывать творческий или сатирический контент.

«Инструменты (обнаружения) появляются, и они появляются относительно быстро. Но технологии развиваются, возможно, даже быстрее. Так что, как и в случае с кибербезопасностью , мы никогда не решим эту проблему, мы будем только надеяться не отставать».

Многие уже пытаются понять достижения, такие как ChatGPT, чат-бот, созданный американской компанией OpenAI, способный генерировать поразительно убедительные тексты практически на любую тему.

В исследовании наблюдатель за СМИ NewsGuard, который назвал его «следующим крупным распространителем дезинформации», сказал, что большинство ответов чат-бота на подсказки, связанные с такими темами, как COVID-19 и стрельба в школах, были «красноречивыми, ложными и вводящими в заблуждение».

«Результаты подтверждают опасения… о том, что инструмент может стать оружием в чужих руках».

Пока не увижу, не поверю? Глобальная борьба с дипфейками



Новости партнеров