Правительство Австралии заявляет, что больше людей должны использовать ИИ

Прочитано: 109 раз(а)


Правительство Австралии опубликовало добровольные стандарты безопасности искусственного интеллекта (ИИ) , а также документ с предложениями , призывающими к более строгому регулированию использования этой быстрорастущей технологии в ситуациях повышенного риска.

Основным посланием федерального министра промышленности и науки Эда Хусича было:

«Нам нужно, чтобы больше людей использовали ИИ, и для этого нам нужно выстроить доверие».

Но почему именно люди должны доверять этой технологии ? И почему именно больше людей должны ее использовать?

Системы ИИ обучаются на непостижимо больших наборах данных с использованием продвинутой математики, которую большинство людей не понимают. Они выдают результаты, которые мы не можем проверить. Даже флагманские, самые современные системы выдают результаты, пронизанные ошибками.

ChatGPT, похоже, со временем становится все менее точным . Даже в лучшем случае он не может сказать вам, какие буквы в слове «клубника». Между тем, чат-бот Gemini от Google рекомендовал наносить клей на пиццу , среди прочих комичных неудач.

Учитывая все это, общественное недоверие к ИИ кажется вполне обоснованным. Аргумент в пользу его большего использования кажется довольно слабым — и также потенциально опасным.

Риски ИИ

Многое было сказано об «экзистенциальной угрозе» ИИ и о том, как это приведет к потере рабочих мест. Вред, который представляет ИИ, варьируется от явного — например, автономные автомобили, которые сбивают пешеходов — до более скрытого, например, системы подбора персонала ИИ, демонстрирующие предвзятость в отношении женщин , или инструменты правовой системы ИИ с предвзятостью в отношении цветных людей .

Другой вред включает мошенничество с использованием дипфейков коллег и близких .

Неважно, что недавний отчет федерального правительства показал, что люди более эффективны, производительны и продуктивны, чем ИИ.

Но если у вас есть только молоток , то все вокруг кажется гвоздями.

Внедрение технологий все еще попадает в этот привычный троп. ИИ не всегда является лучшим инструментом для работы . Но когда мы сталкиваемся с захватывающей новой технологией, мы часто используем ее, не задумываясь, стоит ли нам это делать.

Вместо того чтобы призывать больше людей использовать ИИ, нам всем следует узнать, какое использование ИИ является хорошим, а какое — нет.

Кому следует доверять — технологии или правительству?

Что же получает австралийское правительство от того, что больше людей используют ИИ?

Одним из самых больших рисков является утечка личных данных . Эти инструменты собирают нашу личную информацию, нашу интеллектуальную собственность и наши мысли в масштабах, которых мы никогда раньше не видели.

Большая часть этих данных, в случае ChatGPT, Google Gemini, Otter.ai и других моделей ИИ, не обрабатывается на территории Австралии.

Эти компании проповедуют прозрачность, конфиденциальность и безопасность . Но часто бывает трудно узнать, используются ли ваши данные для обучения их новых моделей, как они их защищают или какие другие организации или правительства имеют доступ к этим данным.

Недавно федеральный министр государственных услуг Билл Шортен представил предложенную правительством программу Trust Exchange, которая вызвала обеспокоенность по поводу сбора еще большего количества данных об австралийских гражданах . В своей речи в Национальном пресс-клубе Шортен открыто отметил поддержку со стороны крупных технологических компаний, включая Google.

Если бы данные об австралийцах собирались с помощью различных технологических платформ, включая искусственный интеллект, мы могли бы стать свидетелями широкомасштабного массового наблюдения.

Но что еще более тревожно, мы наблюдаем, как технологии оказывают влияние на политику и поведение.

Термин «автоматическая предвзятость » мы используем для обозначения тенденции пользователей верить, что технология «умнее», чем они сами. Слишком большое доверие к ИИ представляет еще больший риск для австралийцев: поощряя более широкое использование технологий без адекватного образования, мы можем подвергнуть наше население всеобъемлющей системе автоматизированного наблюдения и контроля.

И хотя эту систему можно было бы обойти, она подорвала бы общественное доверие и сплоченность и повлияла бы на людей без их ведома.

Эти факторы являются еще одним основанием для регулирования использования ИИ, как это сейчас пытается сделать австралийское правительство. Но это не обязательно должно сопровождаться настойчивым поощрением к его использованию.

Давайте убавим слепую шумиху

Тема регулирования ИИ важна.

Международная организация по стандартизации установила стандарт использования и управления системами ИИ . Его внедрение в Австралии приведет к лучшему, более обоснованному и регулируемому использованию ИИ.

Этот и другие стандарты являются основой предлагаемого правительством Добровольного стандарта безопасности ИИ.

Проблематичным в заявлении федерального правительства на этой неделе был не призыв к ужесточению регулирования, а слепая раскрутка использования ИИ.

Давайте сосредоточимся на защите австралийцев, а не на том, чтобы навязывать им необходимость использовать искусственный интеллект и доверять ему.

больше людей должны использовать ИИ



Новости партнеров