Как генеративный искусственный интеллект повлияет на политическую рекламу в 2024 году?

Прочитано: 42 раз(а)


По оценкам, в этом избирательном цикле на политическую рекламу будет потрачено 12 миллиардов долларов — на 30% больше, чем в 2020 году. Огромный объем рекламы впечатляет, и существует огромный потенциал для использования этой политической информации для содействия демократии: для охвата большего числа потенциальных избирателей. и предоставить точную информацию.

У генеративного искусственного интеллекта также больше, чем когда-либо, возможностей искажать кандидатов и политику, что приводит к путанице в кабинках для голосования. Редактор новостного бюро Лоис Йоксулян поговорила на эту тему с профессором рекламы и заведующей кафедрой Мишель Нельсон.

Как ИИ используется в политической рекламе и каковы недавние примеры политической рекламы, созданной ИИ?

После того, как президент Джо Байден объявил о своей заявке на переизбрание, Национальный комитет Республиканской партии опубликовал созданную с помощью искусственного интеллекта политическую рекламу, изображающую антиутопический мир в случае переизбрания Байдена. В видеообъявлении содержится ряд вопросов «что, если» (например, «Что, если преступность ухудшится?») с изображениями, созданными искусственным интеллектом. Это классическая агрессивная реклама, призывающая к страху.

Эмоциональная реклама доходит до нас, и мы ее помним — например, знаменитую политическую рекламу Дейзи, использованную во время избирательного цикла 1964 года , или рекламу Уилли Хортона, использованную в 1988 году. с помощью ИИ.

Некоторые говорят, что реклама Джо Байдена в СРН — это первая реклама, созданная искусственным интеллектом, но это трудно доказать. Однако в верхнем левом углу объявления вы видите надпись, написанную мелким шрифтом: «Полностью создано с использованием изображений ИИ». В описании видео на странице Республиканской партии на YouTube говорится: «Созданный искусственным интеллектом взгляд на возможное будущее страны, если Джо Байден будет переизбран в 2024 году». Так что они не скрывают применения ИИ. На The Daily Show также была показана пародийная реклама, в которой для Байдена используется закадровый голос, созданный искусственным интеллектом. В наши дни довольно легко использовать инструменты искусственного интеллекта для создания контента и придания ему реалистичного вида.

Должны ли организации, стоящие за рекламой такого типа, раскрывать информацию об использовании ИИ?

Федеральная избирательная комиссия, государственный орган, который регулирует политическую коммуникацию , включая рекламу в США, на своем заседании под названием «2023: REG 2023-02 Искусственный интеллект в Рекламные кампании. Здесь они еще не вынесли решения. Однако такие штаты, как Калифорния, Техас, Мичиган, Вашингтон и Миннесота, приняли новые законы штатов, согласно которым любые дипфейковые изображения, видео или аудио, созданные искусственным интеллектом, должны быть помечены. Аналогичный закон обсуждается здесь, в Иллинойсе. Неясно, как эти законы штата соотносятся с Конституцией.

Некоторые технологические компании начали требовать раскрытия информации. Например, Google указал, что вся политическая реклама, созданная с помощью ИИ, показываемая на YouTube или других платформах Google, «которая меняет людей или события», должна содержать заметное раскрытие информации. В некоторых регионах также существует процедура проверки политической рекламы.

Microsoft запустила свою «Учетные данные контента как услугу», которая похожа на инструмент для нанесения водяных знаков — она позволяет пользователям подписывать цифровую подпись и аутентифицировать медиафайлы — будь то изображение или видео — через свою Коалицию за происхождение и подлинность контента. Идея состоит в том, что водяной знак служит метаданными, поэтому пользователи могут видеть историю контента. Например, «как, когда и кем контент был создан или отредактирован», будь то человек или искусственный интеллект. Эта информация остается с содержимым, поэтому каждый может видеть ее происхождение.

Я понятия не имею, в какой степени политический контент, созданный ИИ, сейчас подвергается водяным знакам или раскрывается. Кажется, в данный момент сложно контролировать все эти изображения.

Каков потенциальный вред использования ИИ в политической рекламе?

Опасения по поводу вреда связаны с возможностью дипфейков и дезинформации. Другие могут воссоздать что-то, используя голос или изображения искусственного интеллекта, без разрешения, чтобы создавать истории и контент, которые абсолютно не соответствуют действительности.

В прошлом у нас были инструменты и технологии, такие как Photoshop, для управления существующими изображениями. Помните рекламу 2004 года с измененными фотографиями, изображающими Джона Керри, кандидата в президенты от Демократической партии, и Джейн Фонда на митинге против войны во Вьетнаме? Рекламные объявления регулярно приукрашиваются или изменяются: цвета и освещение меняются, чтобы люди выглядели зловеще или моложе. Но это другое. Это совершенно новый уровень. Любой может отправлять сообщения ИИ, используя бесплатные инструменты, такие как ChatGPT от Open AI или Bard от Google. Это может быть хорошо, если использовать ответственно, или может быть вредно.

Наше исследование показывает, что многие люди не знают, что Первая поправка защищает политическую рекламу в США. Политическая реклама не соответствует тем же стандартам, что и коммерческая реклама, скажем, чизбургера. Законы Федеральной торговой комиссии о правдивости рекламы не распространяются на политическую рекламу. Это означает, что политическая реклама может по закону быть вводящей в заблуждение или лгать. Конечно, есть законы о клевете, но они редко используются в этой сфере.

Помимо этой нормативной разницы в коммерческой и политической рекламе, идея состоит в том, что мы хотим, чтобы свободная политическая информация способствовала диалогу, который может укрепить нашу демократию. Слишком жесткое регулирование может оказать сдерживающее воздействие на политические речи. Однако сегодняшняя возможность ИИ лгать и обманывать, а также распространять эти сообщения персонализированным образом и в больших масштабах, возможно, бросает вызов нашему мышлению о регулировании и политической рекламе.

Есть ли у вас какой-нибудь совет о том, как потребители могут заметить использование генеративного искусственного интеллекта в политической рекламе?

Они не могут. Вы можете поискать неровности, например, количество ног у кошки. Но становится все труднее и труднее определить, создает ли ИИ изображение или видео. Будь то Тейлор Свифт, изображение Трампа в тюрьме или забавный мем, мы не всегда можем сказать, особенно когда просматриваем ленты в социальных сетях. Лучшее, что мы можем сделать, — это надеяться, что технологическая индустрия разработает системы, способные отслеживать происхождение контента, чтобы мы могли видеть, кто создал изображение, когда и как. Если эта технология встроена, людей труднее обмануть. Мы могли бы также поощрять требования к раскрытию информации среди технологических компаний.

Но в эпоху такого рода средств массовой информации и в год выборов нам необходимо сосредоточиться на основах медиаграмотности – поиске надежных источников информации, наблюдении за политическими дебатами и попытках сформировать собственное информированное мнение.

Система искусственного интеллекта может конвертировать голосовую дорожку в видео говорящего человека, используя неподвижное изображение



Новости партнеров