ИИ может легко генерировать большие объемы дезинформации, связанной со здоровьем

Прочитано: 75 раз(а)


Для того чтобы генеративный искусственный интеллект защищал здоровье и благополучие наших сообществ, срочно необходимы правительственные и отраслевые меры, говорят медицинские исследователи из Университета Флиндерса, которые опробовали эту технологию и увидели, как она потерпела неудачу.

Быстро развивающийся генеративный искусственный интеллект, передовая область, ценящаяся за способность создавать текст, изображения и видео, использовался в исследовании для проверки того, как может создаваться и распространяться ложная информация о здоровье и медицинских проблемах — и даже исследователи были шокированы. по результатам.

В ходе исследования команда попыталась создать дезинформацию о вейпинге и вакцинах, используя инструменты генеративного искусственного интеллекта для создания текста, изображений и видео.

Всего за час они создали более 100 вводящих в заблуждение блогов, 20 вводящих в заблуждение изображений и убедительное фейковое видео, содержащее дезинформацию о здоровье. Вызывает тревогу тот факт, что это видео может быть адаптировано более чем на 40 языков, что усиливает его потенциальный вред.

Брэдли Менц, первый автор, зарегистрированный фармацевт и исследователь из Университета Флиндерса, говорит, что он серьезно обеспокоен полученными результатами, опираясь на предыдущие примеры пандемий дезинформации, которые приводили к страху, замешательству и вреду.

«Последствия наших выводов очевидны: общество в настоящее время стоит на пороге революции искусственного интеллекта, однако при ее реализации правительства должны обеспечить соблюдение правил, чтобы минимизировать риск злонамеренного использования этих инструментов с целью ввести сообщество в заблуждение», — говорит г-н Менц.

«Наше исследование демонстрирует, насколько легко использовать доступные в настоящее время инструменты искусственного интеллекта для создания больших объемов принудительного и целенаправленного вводящего в заблуждение контента по важнейшим темам здравоохранения, дополненного сотнями сфабрикованных отзывов врачей и пациентов и фальшивыми, но убедительными, привлекающими внимание заголовками».

«Мы предлагаем, чтобы ключевые основы фармаконадзора, включая прозрачность, надзор и регулирование, служили ценными примерами управления этими рисками и защиты общественного здоровья на фоне быстро развивающихся технологий искусственного интеллекта», — говорит он.

В ходе исследования GPT Playground компании OpenAI была изучена на предмет ее способности способствовать генерации больших объемов дезинформации, связанной со здоровьем. Помимо моделей большого языка, команда также исследовала общедоступные генеративные платформы искусственного интеллекта, такие как DALL-E 2 и HeyGen, для облегчения производства изображений и видеоконтента .

В рамках GPT Playground OpenAI исследователи всего за 65 минут создали 102 отдельные статьи в блогах, содержащие более 17 000 слов дезинформации, связанной с вакцинами и вейпингом. Кроме того, в течение 5 минут, используя технологию ИИ-аватаров и обработку естественного языка , команда создала тревожное фейковое видео, в котором медицинский работник пропагандирует дезинформацию о вакцинах. Видео можно было легко перевести на более чем 40 различных языков.

Расследования не только иллюстрируют возможные сценарии, но и подчеркивают острую необходимость усиления бдительности в области ИИ. В нем также подчеркивается важная роль, которую могут играть медицинские работники в упреждающей минимизации и мониторинге рисков, связанных с вводящей в заблуждение медицинской информацией, генерируемой искусственным интеллектом.

Доктор Эшли Хопкинс из Колледжа медицины и общественного здравоохранения и старший автор говорит, что разработчикам ИИ необходимо сотрудничать с профессионалами здравоохранения , чтобы гарантировать, что структуры бдительности ИИ сосредоточены на общественной безопасности и благополучии.

«Мы доказали, что когда ограждения инструментов ИИ недостаточны, способность быстро генерировать разнообразные и большие объемы убедительной дезинформации очень важна. Теперь существует острая необходимость в прозрачных процессах для мониторинга, отчетности и исправления проблем в инструментах ИИ«, — говорит доктор Хопкинс.

Статья «Пример использования дезинформации в сфере здравоохранения, подчеркивающий острую необходимость бдительности в области искусственного интеллекта» будет опубликована в журнале JAMA Internal Medicine.

ИИ может легко генерировать большие объемы дезинформации, связанной со здоровьем



Новости партнеров