Люди обеспокоены тем, что средства массовой информации используют ИИ для создания важных историй

Прочитано: 144 раз(а)


Достижения в области искусственного интеллекта (ИИ) меняют многие аспекты современной жизни, и новостная индустрия не является исключением. За год, когда во всем мире было проведено рекордное количество выборов, произошел серьезный анализ потенциального влияния так называемых «дипфейков» и другого синтетического контента на демократии. Произошли также дальнейшие нарушения бизнес-моделей и доверия, лежащего в основе независимой журналистики.

Большинство аудиторий только начинают формировать мнение об искусственном интеллекте и новостях, но в опрос Digital News Report в этом году , который мы подготовили в Институте изучения журналистики Reuters Оксфордского университета, мы включили вопросы по этой теме на 28 рынках, подкрепленные с глубинными интервью в Великобритании, США и Мексике.

Наши результаты показывают высокий уровень двойственности в отношении использования этих технологий. Они также предлагают издателям ценную информацию, желающую внедрить эти технологии без дальнейшего подрыва доверия к новостям, которое в последние годы упало во многих странах.

Важно помнить, что осведомленность об ИИ по-прежнему относительно низка: около половины нашей выборки (49% во всем мире и 56% в Великобритании) мало или вообще ничего об этом не читали. Однако при разговоре с теми, кто лучше информирован, на первом месте стоят опасения по поводу точности информации и возможности дезинформации.

Манипулированные изображения и видео, например, о войне в Газе, становятся все более распространенными в социальных сетях и уже вызывают путаницу. Как сказал один из участников-мужчин: «Я видел много примеров раньше, и иногда они могут быть очень хорошими. К счастью, их все еще довольно легко обнаружить, но через пять лет они станут неотличимы».

Некоторые участники считали, что широкое использование генеративных технологий искусственного интеллекта — тех, которые могут создавать контент для пользователей в виде текста, изображений и видео — вероятно, затруднит выявление дезинформации, что особенно тревожно, когда речь идет о важных темах, таких как политика и выборы.

В 47 странах 59% опрошенных заявили, что они обеспокоены тем, что они не смогут определить, что реально, а что фальшиво в Интернете, что на три процентных пункта больше, чем в прошлом году. Другие придерживались более оптимистичной точки зрения, отмечая, что эти технологии можно использовать для предоставления более актуального и полезного контента.

Использование искусственного интеллекта в новостной индустрии

Новостная индустрия обращается к искусственному интеллекту по двум причинам. Во-первых, они надеются, что автоматизация скрытых процессов, таких как транскрипция, редактирование и верстка, снизит затраты. Во-вторых, технологии искусственного интеллекта могут помочь персонализировать сам контент, сделав его более привлекательным для аудитории.

За последний год мы стали свидетелями того, как медиакомпании внедрили целый ряд решений искусственного интеллекта с разной степенью человеческого контроля: от резюме и иллюстраций, созданных с помощью искусственного интеллекта, до историй, написанных роботами с искусственным интеллектом, и даже программ чтения новостей, созданных с помощью искусственного интеллекта.

Как зрители относятся ко всему этому? На 28 рынках респонденты нашего опроса в основном чувствовали себя некомфортно при использовании ИИ, когда контент создается в основном ИИ с некоторым контролем со стороны человека. Напротив, дискомфорт возникает меньше, когда ИИ используется для помощи журналистам (людям), например, при расшифровке интервью или обобщении материалов для исследований.

Здесь респонденты в целом чувствуют себя скорее комфортно, чем некомфортно. Однако мы видим различия на уровне стран, возможно, связанные с сигналами, которые люди получают из средств массовой информации. Освещение ИИ в британской прессе, например, характеризуется как в основном негативное и сенсационное, в то время как повествования в американских СМИ формируются под влиянием ведущей роли американских компаний и возможностей создания рабочих мест и роста.

Удобство использования ИИ также тесно связано с важностью и серьезностью обсуждаемой темы. Люди говорят, что они чувствуют себя менее комфортно, слушая новости, созданные искусственным интеллектом, на такие темы, как политика и преступность, и более комфортно с новостями о спорте или развлечениях, темах, где ошибки, как правило, имеют менее серьезные последствия.

«Чат-боты действительно не следует использовать для передачи более важных новостей, таких как война или политика, поскольку потенциальная дезинформация может стать причиной того, что кто-то проголосует за одного кандидата, а не за другого», — сказал нам 20-летний мужчина из Великобритании.

Наше исследование также показывает, что люди, которые склонны доверять новостям в целом, с большей вероятностью будут чувствовать себя комфортно при использовании ИИ, когда люди (журналисты) сохраняют контроль, по сравнению с теми, кто этого не делает. Это связано с тем, что те, кто склонен доверять новостям, также склонны больше верить в способность издателей ответственно использовать ИИ.

Интервью, которые мы провели, показывают аналогичную картину на уровне конкретных новостных агентств: люди, которые доверяют конкретным новостным организациям, особенно тем, которые они называют наиболее авторитетными, также, как правило, чувствуют себя более комфортно, используя ИИ.

С другой стороны, аудитория, которая уже скептически или цинично относится к новостным организациям, может увидеть, что их доверие еще больше подорвано внедрением этих технологий.

Как выразилась одна женщина из США: «Если какая-либо новостная организация будет уличена в использовании фейковых изображений или видео каким-либо образом, она должна быть привлечена к ответственности, и я потеряю к ней доверие, даже если бы они открыто говорили о том, что контент был создан». с ИИ».

Тщательное обдумывание того, когда необходимо раскрытие информации и как о нем сообщать, особенно на ранних стадиях, когда ИИ все еще чужд многим людям, станет решающим элементом поддержания доверия. Это особенно актуально, когда ИИ используется для создания нового контента, с которым аудитория вступит в прямой контакт. Наши интервью говорят нам, что именно к этому аудитория относится с наибольшим подозрением.

В целом, мы все еще находимся на ранних стадиях использования ИИ журналистами, но это делает это время максимальным риском для новостных организаций. Наши данные показывают, что аудитория по-прежнему неоднозначно относится к использованию этих технологий, а это означает, что издателям следует быть крайне осторожными в отношении того, где и как они их внедряют.

Более широкая обеспокоенность по поводу наводнения онлайн-платформ синтетическим контентом означает, что проверенные бренды, которые ответственно используют технологии, могут быть вознаграждены. Но если что-то пойдет не так, доверие можно легко потерять.

Люди обеспокоены тем, что средства массовой информации используют ИИ для создания важных историй



Новости партнеров