80% австралийцев считают, что риск, связанный с ИИ, является глобальным приоритетом

Прочитано: 66 раз(а)


Новое общенациональное репрезентативное исследование показало, что австралийцы глубоко обеспокоены рисками, создаваемыми искусственным интеллектом (ИИ). Они хотят, чтобы правительство приняло более решительные меры для обеспечения его безопасной разработки и использования.

Мы провели опрос в начале 2024 года и обнаружили, что 80% австралийцев считают, что предотвращение катастрофических рисков , связанных с передовыми системами искусственного интеллекта, должно быть глобальным приоритетом наравне с пандемиями и ядерной войной.

Поскольку системы ИИ становятся более функциональными, решения о том, как мы разрабатываем, развертываем и используем ИИ, приобретают решающее значение. Обещание мощных технологий может побудить компании – и страны – рвануться вперед , не обращая внимания на риски.

Наши результаты также показывают разрыв между рисками ИИ, на которых обычно фокусируют внимание СМИ и правительство, и рисками, которые австралийцы считают наиболее важными.

Обеспокоенность общественности по поводу рисков ИИ растет

Разработка и использование все более мощного искусственного интеллекта все еще находится на подъеме. Недавние версии, такие как Gemini от Google и Claude 3 от Anthropic, по-видимому, обладают возможностями, близкими к человеческому уровню, в профессиональной, медицинской и юридической сферах.

Но ажиотаж умерен растущим уровнем обеспокоенности общественности и экспертов. В прошлом году более 500 человек и организаций подали материалы в дискуссионный документ австралийского правительства «Безопасный и ответственный ИИ».

Они описали риски, связанные с ИИ, такие как предвзятое принятие решений, подрыв доверия к демократическим институтам из-за дезинформации и усиление неравенства из-за безработицы, вызванной ИИ.

Некоторые даже обеспокоены тем, что особенно мощный ИИ может вызвать глобальную катастрофу или вымирание человечества . Хотя эта идея активно оспаривается, в серии из трех крупных опросов большинство исследователей ИИ пришли к выводу, что вероятность того, что сверхчеловеческий ИИ окажется «крайне плохим (например, вымиранием человечества)», составляет не менее 5%.

Потенциальные преимущества ИИ значительны. ИИ уже приводит к прорывам в биологии и медицине , и он используется для управления термоядерными реакторами , которые однажды смогут обеспечить энергию с нулевым выбросом углерода. Генеративный искусственный интеллект повышает производительность , особенно учащихся и студентов.

Однако скорость прогресса вызывает тревогу. Люди беспокоятся, что мы не готовы справиться с мощными системами искусственного интеллекта, которые могут быть использованы не по назначению или вести себя непреднамеренно и вредно.

В ответ на подобные опасения правительства стран мира пытаются регулировать ситуацию. Европейский Союз одобрил проект закона об искусственном интеллекте, Великобритания учредила институт безопасности искусственного интеллекта , а президент США Джо Байден недавно подписал указ о содействии более безопасному развитию передового искусственного интеллекта и управлению им.

Австралийцы хотят принять меры по предотвращению опасных последствий ИИ

Чтобы понять, как австралийцы относятся к рискам, связанным с ИИ, и способам их устранения, мы опросили национально репрезентативную выборку из 1141 австралийца в январе и феврале 2024 года.

Мы обнаружили, что австралийцы считают предотвращение «опасных и катастрофических последствий применения ИИ» приоритетом номер один в действиях правительства.

Австралийцы больше всего обеспокоены системами искусственного интеллекта, которые небезопасны, ненадежны и не соответствуют человеческим ценностям.

Другие серьезные опасения включают использование ИИ в кибератаках и автономном оружии, безработицу, связанную с ИИ, и сбои ИИ, наносящие ущерб критически важной инфраструктуре.

Сильная общественная поддержка нового регулирующего органа в сфере ИИ

Австралийцы ожидают, что правительство предпримет решительные действия от их имени. Подавляющее большинство (86%) хотят создать новый правительственный орган, занимающийся регулированием и управлением ИИ, наподобие Управления терапевтических товаров для лекарств.

Девять из десяти австралийцев также считают, что страна должна играть ведущую роль в международных усилиях по регулированию развития ИИ.

Пожалуй, самое поразительное то, что две трети австралийцев поддержали бы паузу в разработке ИИ на шесть месяцев, чтобы позволить регулирующим органам наверстать упущенное.

Планы правительства должны соответствовать общественным ожиданиям

В январе 2024 года правительство Австралии опубликовало промежуточный план по устранению рисков, связанных с ИИ . Это включает в себя усиление существующих законов о конфиденциальности, онлайн-безопасности и дезинформации. Он также признает, что нашей нынешней нормативной базы недостаточно.

Промежуточный план предусматривает разработку добровольных стандартов безопасности ИИ, добровольной маркировки материалов ИИ и создание консультативного органа.

Наше исследование показывает, что австралийцы поддерживают более ориентированный на безопасность и нормативный подход. Это контрастирует с целевым и добровольным подходом, изложенным в промежуточном плане.

Трудно поощрять инновации, одновременно предотвращая несчастные случаи или неправильное использование. Но австралийцы предпочли бы, чтобы правительство уделяло приоритетное внимание предотвращению опасных и катастрофических последствий, а не «предоставлению преимуществ ИИ всем».

Некоторые способы сделать это включают в себя :

  • создание лаборатории безопасности ИИ с техническими возможностями для аудита и/или мониторинга самых передовых систем ИИ
  • создание специального регулятора ИИ
  • определение надежных стандартов и руководящих принципов для ответственной разработки ИИ
  • требующий независимого аудита систем искусственного интеллекта высокого риска
  • обеспечение корпоративной ответственности и возмещение вреда, нанесенного ИИ
  • увеличение государственных инвестиций в исследования безопасности ИИ
  • активное вовлечение общественности в формирование будущего управления ИИ.

Выяснение того, как эффективно управлять ИИ, является одной из величайших задач человечества. Австралийцы прекрасно осознают риски неудачи и хотят, чтобы наше правительство безотлагательно решило эту проблему.

Китай пытается регулировать технологию дипфейков



Новости партнеров