Замедление искусственного интеллекта не поможет, считает профессор

Прочитано: 97 раз(а)


Развитие искусственного интеллекта (ИИ) выходит из-под контроля, по мнению примерно 3000 человек, подписавших открытое письмо, опубликованное лидерами бизнеса и учеными.

Подписанты призывают к временному прекращению обучения особо высокопроизводительных систем искусственного интеллекта. Профессор Урс Гассер, эксперт по управлению цифровыми технологиями, исследует важные вопросы, от которых письмо отвлекает внимание, говорит о том, почему «агентство технического надзора за искусственным интеллектом» имеет смысл, и смотрит, как далеко продвинулся ЕС по сравнению с США с точки зрения регулирования.

Системы искусственного интеллекта, способные конкурировать с человеческим интеллектом, могут повлечь за собой серьезные риски для общества и человечества, считают авторы открытого письма . Поэтому, продолжают они, в течение как минимум шести месяцев не следует проводить дальнейшую разработку технологий, которые являются более мощными, чем недавно представленный GPT-4, преемник языковой модели ChatGPT.

Опасность передового искусственного интеллекта, контролирующего собственную обратную связь

Авторы призывают к внедрению правил безопасности в сотрудничестве с независимыми экспертами. Если лаборатории искусственного интеллекта не смогут добровольно приостановить разработку, правительства должны санкционировать паузу в законодательном порядке, заявляют подписавшие соглашение.

Профессор Гассер, вы поддерживаете экстренные меры, о которых говорится в письме?

К сожалению, открытое письмо поглощает много внимания, которое лучше было бы посвятить другим вопросам в дебатах об ИИ. Правильно будет сказать, что сегодня, наверное, никто не знает, как обучить чрезвычайно мощные системы ИИ так, чтобы они всегда были надежными, полезными, честными и безвредными.

Тем не менее, пауза в обучении ИИ не поможет добиться этого, в первую очередь потому, что установить такой мораторий на глобальном уровне было бы невозможно, а также потому, что реализовать предусмотренные правила в течение всего лишь полугода не получится. Я убежден, что необходимо поэтапное развитие технологий параллельно с применением и адаптацией механизмов управления.

На какие вопросы желательно обратить внимание вместо моратория?

Прежде всего, открытое письмо вновь вызывает призрак того, что именуется искусственным всеобщим интеллектом. Это отвлекает внимание от сбалансированного обсуждения рисков и возможностей, связанных с теми технологиями, которые в настоящее время выходят на рынок. Во-вторых, в документе говорится о будущих моделях-преемниках GPT-4.

Это отвлекает внимание от того факта, что предшественник GPT-4, ChatGPT, уже поставил перед нами серьезные проблемы, которые нам срочно необходимо решить, например дезинформацию и предубеждения, которые машины воспроизводят и масштабируют. И в-третьих, впечатляющие требования, изложенные в письме, отвлекают нас от того факта, что у нас уже сейчас есть инструменты, которые мы могли бы использовать для регулирования разработки и использования ИИ.

На что будут ориентированы такие правила, какие инструменты у нас есть?

В последние годы наблюдается интенсивное развитие этических принципов, которыми следует руководствоваться при разработке и применении ИИ. В важных областях они были дополнены техническими стандартами и передовым опытом. В частности, Принципы ОЭСР в отношении искусственного интеллекта связывают этические принципы с более чем 400 конкретными инструментами.

А Национальный институт стандартов и технологий США (NIST) выпустил 70-страничное руководство по обнаружению и устранению искажений в системах искусственного интеллекта. В области безопасности в основных моделях ИИ мы видим новые методы, такие как конституционный ИИ, в котором система ИИ «узнает» принципы хорошего поведения от людей, а затем может использовать результаты для мониторинга другого приложения ИИ. Существенный прогресс был достигнут с точки зрения безопасности, прозрачности и защиты данных, и даже существуют специализированные инспекционные компании.

Теперь главный вопрос заключается в том, использовать ли такие инструменты, и если да, то как. Возвращаясь к примеру ChatGPT: будут ли журналы чатов пользователей включены в модель для итеративного обучения? Разрешены ли плагины, которые могут записывать взаимодействие с пользователем, контакты и другие личные данные? Временный запрет и начало расследования итальянскими органами по защите данных в отношении разработчиков ChatGPT — признаки того, что здесь еще очень многое неясно.

В открытом письме содержится требование о том, чтобы дальнейшее развитие систем ИИ не проводилось до тех пор, пока не будет уверенности в том, что системы ИИ будут иметь положительный эффект, а связанные с ними риски управляемы. На каком этапе развития можно было бы настолько хорошо предсказать влияние системы ИИ, чтобы такое регулирование имело смысл?

История технологий учит нас тому, что трудно предсказать «хорошее» или «плохое» использование технологий, даже если технологии часто влекут за собой оба аспекта, а негативные последствия часто могут быть непреднамеренными. Вместо того, чтобы зацикливаться на определенном моменте в прогнозе, мы должны сделать две вещи: во-первых, мы должны спросить себя, какие приложения мы как общество не хотим, даже если бы они были возможны. Нужны четкие красные линии и запреты.

Здесь я имею в виду автономные системы вооружения в качестве примера. Во-вторых, нам необходимо комплексное управление рисками, охватывающее весь диапазон от разработки до использования. Выдвигаемые здесь требования возрастают по мере роста масштабов потенциальных рисков для людей и окружающей среды, создаваемых данным приложением. Европейский законодательный орган прав в своем подходе.

Согласно предложению, независимые эксперты должны оценить риски ИИ.

Этот вид независимой инспекции является очень важным инструментом, особенно когда речь идет о приложениях, которые могут оказать значительное влияние на людей. И, кстати, это не новая идея: мы уже видим подобные инспекционные процедуры и случаи в действии в самых разных сферах жизни, начиная от автомобильных инспекций и заканчивая проверками общетехнического оборудования и финансового аудита.

Однако с некоторыми методами и приложениями ИИ проблема непропорционально больше, потому что некоторые системы развиваются по мере их использования, т. е. по своей природе они динамичны. И также важно понимать, что одни только эксперты не смогут дать хорошую оценку всех социальных последствий. Нам также нужны инновационные механизмы, которые, например, включают обездоленных людей и недостаточно представленные группы в обсуждение последствий ИИ. Это непростая работа, я хотел бы привлечь больше внимания.

Авторы также обращаются к политической сфере. Политика будет нести ответственность за закрепление такого «агентства технической инспекции ИИ» в системе.

Нам действительно нужны четкие правовые нормы для искусственного интеллекта. На уровне ЕС в настоящее время завершается работа над законом об ИИ, призванным обеспечить безопасность технологий ИИ и соблюдение основных прав. Законопроект предусматривает классификацию технологий искусственного интеллекта в соответствии с угрозой, которую они представляют для этих принципов, с возможным последствием обязательств по запрету или прозрачности.

Например, в планы входит запрет оценки частных лиц с точки зрения их социального поведения, как мы сейчас наблюдаем в Китае. В США политический процесс в этой сфере блокируется в Конгрессе. Было бы полезно, если бы видные деятели, написавшие письмо, оказали бы давление на федеральных законодателей США, чтобы они приняли меры, вместо того, чтобы призывать к временному прекращению технологического развития.

Не все, что мы называем ИИ, на самом деле является «искусственным интеллектом»



Новости партнеров