Новое общенациональное репрезентативное исследование показало, что австралийцы глубоко обеспокоены рисками, создаваемыми искусственным интеллектом (ИИ). Они хотят, чтобы правительство приняло более решительные меры для обеспечения его безопасной разработки и использования.
Мы провели опрос в начале 2024 года и обнаружили, что 80% австралийцев считают, что предотвращение катастрофических рисков , связанных с передовыми системами искусственного интеллекта, должно быть глобальным приоритетом наравне с пандемиями и ядерной войной.
Поскольку системы ИИ становятся более функциональными, решения о том, как мы разрабатываем, развертываем и используем ИИ, приобретают решающее значение. Обещание мощных технологий может побудить компании – и страны – рвануться вперед , не обращая внимания на риски.
Наши результаты также показывают разрыв между рисками ИИ, на которых обычно фокусируют внимание СМИ и правительство, и рисками, которые австралийцы считают наиболее важными.
Обеспокоенность общественности по поводу рисков ИИ растет
Разработка и использование все более мощного искусственного интеллекта все еще находится на подъеме. Недавние версии, такие как Gemini от Google и Claude 3 от Anthropic, по-видимому, обладают возможностями, близкими к человеческому уровню, в профессиональной, медицинской и юридической сферах.
Но ажиотаж умерен растущим уровнем обеспокоенности общественности и экспертов. В прошлом году более 500 человек и организаций подали материалы в дискуссионный документ австралийского правительства «Безопасный и ответственный ИИ».
Они описали риски, связанные с ИИ, такие как предвзятое принятие решений, подрыв доверия к демократическим институтам из-за дезинформации и усиление неравенства из-за безработицы, вызванной ИИ.
Некоторые даже обеспокоены тем, что особенно мощный ИИ может вызвать глобальную катастрофу или вымирание человечества . Хотя эта идея активно оспаривается, в серии из трех крупных опросов большинство исследователей ИИ пришли к выводу, что вероятность того, что сверхчеловеческий ИИ окажется «крайне плохим (например, вымиранием человечества)», составляет не менее 5%.
Потенциальные преимущества ИИ значительны. ИИ уже приводит к прорывам в биологии и медицине , и он используется для управления термоядерными реакторами , которые однажды смогут обеспечить энергию с нулевым выбросом углерода. Генеративный искусственный интеллект повышает производительность , особенно учащихся и студентов.
Однако скорость прогресса вызывает тревогу. Люди беспокоятся, что мы не готовы справиться с мощными системами искусственного интеллекта, которые могут быть использованы не по назначению или вести себя непреднамеренно и вредно.
В ответ на подобные опасения правительства стран мира пытаются регулировать ситуацию. Европейский Союз одобрил проект закона об искусственном интеллекте, Великобритания учредила институт безопасности искусственного интеллекта , а президент США Джо Байден недавно подписал указ о содействии более безопасному развитию передового искусственного интеллекта и управлению им.
Австралийцы хотят принять меры по предотвращению опасных последствий ИИ
Чтобы понять, как австралийцы относятся к рискам, связанным с ИИ, и способам их устранения, мы опросили национально репрезентативную выборку из 1141 австралийца в январе и феврале 2024 года.
Мы обнаружили, что австралийцы считают предотвращение «опасных и катастрофических последствий применения ИИ» приоритетом номер один в действиях правительства.
Австралийцы больше всего обеспокоены системами искусственного интеллекта, которые небезопасны, ненадежны и не соответствуют человеческим ценностям.
Другие серьезные опасения включают использование ИИ в кибератаках и автономном оружии, безработицу, связанную с ИИ, и сбои ИИ, наносящие ущерб критически важной инфраструктуре.
Сильная общественная поддержка нового регулирующего органа в сфере ИИ
Австралийцы ожидают, что правительство предпримет решительные действия от их имени. Подавляющее большинство (86%) хотят создать новый правительственный орган, занимающийся регулированием и управлением ИИ, наподобие Управления терапевтических товаров для лекарств.
Девять из десяти австралийцев также считают, что страна должна играть ведущую роль в международных усилиях по регулированию развития ИИ.
Пожалуй, самое поразительное то, что две трети австралийцев поддержали бы паузу в разработке ИИ на шесть месяцев, чтобы позволить регулирующим органам наверстать упущенное.
Планы правительства должны соответствовать общественным ожиданиям
В январе 2024 года правительство Австралии опубликовало промежуточный план по устранению рисков, связанных с ИИ . Это включает в себя усиление существующих законов о конфиденциальности, онлайн-безопасности и дезинформации. Он также признает, что нашей нынешней нормативной базы недостаточно.
Промежуточный план предусматривает разработку добровольных стандартов безопасности ИИ, добровольной маркировки материалов ИИ и создание консультативного органа.
Наше исследование показывает, что австралийцы поддерживают более ориентированный на безопасность и нормативный подход. Это контрастирует с целевым и добровольным подходом, изложенным в промежуточном плане.
Трудно поощрять инновации, одновременно предотвращая несчастные случаи или неправильное использование. Но австралийцы предпочли бы, чтобы правительство уделяло приоритетное внимание предотвращению опасных и катастрофических последствий, а не «предоставлению преимуществ ИИ всем».
Некоторые способы сделать это включают в себя :
- создание лаборатории безопасности ИИ с техническими возможностями для аудита и/или мониторинга самых передовых систем ИИ
- создание специального регулятора ИИ
- определение надежных стандартов и руководящих принципов для ответственной разработки ИИ
- требующий независимого аудита систем искусственного интеллекта высокого риска
- обеспечение корпоративной ответственности и возмещение вреда, нанесенного ИИ
- увеличение государственных инвестиций в исследования безопасности ИИ
- активное вовлечение общественности в формирование будущего управления ИИ.
Выяснение того, как эффективно управлять ИИ, является одной из величайших задач человечества. Австралийцы прекрасно осознают риски неудачи и хотят, чтобы наше правительство безотлагательно решило эту проблему.