Массовое наблюдение, выявление эмоций, социальная оценка: регуляторы ЕС изложили, какие типы инструментов искусственного интеллекта следует объявить вне закона как слишком опасные в соответствии с новаторским Законом ЕС об искусственном интеллекте.
На этой неделе вступили в силу положения, запрещающие использование технологий, которые считаются представляющими неприемлемый риск, хотя 27 государств Европейского союза должны до августа назначить регулирующий орган, который будет обеспечивать их соблюдение.
Правила ЕС, принятые в прошлом году, направлены на то, чтобы избежать злоупотреблений в отношении зарождающихся технологий, не препятствуя при этом инновациям в Европе, которая сталкивается с трудной задачей на фоне стремительного продвижения США и Китая в области ИИ.
Закон, который считается наиболее полным регулированием ИИ в мире, использует подход, основанный на оценке риска: если система представляет высокий риск, компании придется выполнить более строгие обязательства, прежде чем она получит разрешение в ЕС.
Новое руководство призвано обеспечить правовую ясность как для регулирующих органов, так и для компаний относительно того, какие виды использования подлежат прямому запрету, заявил высокопоставленный чиновник Европейской комиссии.
Чиновник подчеркнул, что необязательное руководство призвано дать «взгляд» на понимание комиссией запретов, и что Суд Европейского союза даст авторитетное толкование нового закона.
Компаниям, нарушившим правила, грозит штраф в размере до семи процентов от мирового годового дохода или штраф в размере до 35 миллионов евро (37 миллионов долларов США) — в зависимости от того, какая сумма больше.
Комиссия выделила восемь случаев, оправдывающих запрет:
1. Идентификация людей в режиме реального времени с использованием камер в общественных местах
Закон запрещает использование систем искусственного интеллекта с камерами для биометрической идентификации в режиме реального времени в общественных местах в целях обеспечения правопорядка. Цель состоит в том, чтобы предотвратить сценарии, когда человек может быть задержан полицией без перекрестной проверки с реальной информацией. Существуют исключения, такие как предотвращение определенных угроз, включая террористические атаки.
2. Социальный рейтинг, основанный на персональных данных, не связанных с риском
Правила запрещают использовать ИИ для оценки вероятности невыплаты кредита или совершения мошенничества в сфере социального обеспечения, например, на основе персональных данных, не связанных с контекстом, таких как происхождение, цвет кожи или поведение в социальных сетях.
3. Оценка криминального риска только на основе биометрических данных
Полиция не может использовать ИИ для прогнозирования риска преступного поведения человека, например, участия в беспорядках или совершения нападения, основываясь исключительно на чертах лица или других личных характеристиках, без учета объективных и проверяемых фактов, напрямую связанных с его действиями.
4. Сбор онлайн-изображений для создания баз данных распознавания лиц
Закон об искусственном интеллекте запрещает инструменты, которые прочесывают интернет и записи видеонаблюдения с целью беспорядочного извлечения изображений лиц и создания масштабных баз данных из миллиардов изображений, что было бы равносильно государственной слежке.
5. Распознавание эмоций на рабочих местах и в учебных заведениях
Организациям запрещено использовать веб-камеры или системы распознавания голоса для определения эмоций людей.
6. Манипулирование поведением с использованием ИИ
Запрещено интегрировать в дизайн интерфейса обманные или действующие на подсознание системы искусственного интеллекта с целью подтолкнуть пользователей к совершению покупки.
7. Использование уязвимостей, связанных с возрастом или инвалидностью
Правила запрещают игрушки на основе искусственного интеллекта или другие системы, предназначенные для детей, пожилых людей или иных уязвимых людей, которые созданы для поощрения потенциально опасного поведения.
8. Определение политических взглядов или сексуальной ориентации на основе биометрических данных
Системы, которые утверждают, что делают выводы о политических взглядах или сексуальной ориентации людей на основе анализа их лиц, не будут допущены в ЕС в соответствии с Законом об искусственном интеллекте.