Италия блокирует ChatGPT из соображений конфиденциальности

Прочитано: 226 раз(а)


Италия временно блокирует ChatGPT из соображений конфиденциальности.

Италия временно блокирует программное обеспечение искусственного интеллекта ChatGPT после утечки данных, поскольку оно расследует возможное нарушение строгих правил защиты данных Европейского Союза, заявил в пятницу правительственный орган по надзору за конфиденциальностью.

Итальянское управление по защите данных заявило, что оно принимает предварительные меры «до тех пор, пока ChatGPT не будет соблюдать конфиденциальность», включая временное ограничение компании на обработку данных итальянских пользователей.

Американская компания OpenAI, разработавшая чат-бота, заявила поздно вечером в пятницу, что отключила ChatGPT для итальянских пользователей по запросу правительства. Компания заявила, что считает, что ее методы соответствуют европейским законам о конфиденциальности, и надеется вскоре снова сделать ChatGPT доступным.

В то время как некоторые государственные школы и университеты по всему миру заблокировали ChatGPT в своих локальных сетях из-за подозрений о студенческом плагиате, действия Италии являются «первым демократическим ограничением основной платформы ИИ в национальном масштабе», — сказал Альп Токер, директор правозащитной группы. NetBlocks, который отслеживает доступ в Интернет по всему миру.

Ограничение затрагивает веб-версию ChatGPT, широко используемую в качестве помощника по письму, но вряд ли повлияет на программные приложения от компаний, у которых уже есть лицензии OpenAI на использование той же технологии, управляющей чат-ботом, например поисковая система Microsoft Bing.

Системы искусственного интеллекта, на которых работают такие чат-боты, известные как большие языковые модели, способны имитировать стили человеческого письма, основываясь на огромном количестве цифровых книг и онлайн-записей, которые они проглотили.

Итальянский надзорный орган заявил, что OpenAI должен сообщить в течение 20 дней, какие меры он принял для обеспечения конфиденциальности данных пользователей , в противном случае ему грозит штраф в размере до 20 миллионов евро (почти 22 миллиона долларов) или 4% годового мирового дохода.

В заявлении агентства цитируется Общий регламент ЕС по защите данных и указывается на недавнюю утечку данных, связанную с «разговорами пользователей» ChatGPT и информацией об абонентских платежах.

Ранее OpenAI объявил, что 20 марта ему пришлось отключить ChatGPT, чтобы исправить ошибку, которая позволяла некоторым людям видеть заголовки или строки темы истории чатов других пользователей.

«Наше расследование также показало, что 1,2% пользователей ChatGPT Plus могли раскрывать личные данные другому пользователю», — говорится в сообщении компании. «Мы считаем, что количество пользователей, чьи данные были фактически раскрыты кому-то еще, чрезвычайно мало, и мы связались с теми, кто мог быть затронут».

Итальянский орган по надзору за конфиденциальностью, известный как Garante, также поставил под сомнение наличие у OpenAI законных оснований для «массового сбора и обработки персональных данных», используемых для обучения алгоритмов платформы. И в нем говорится, что ChatGPT иногда может генерировать и хранить ложную информацию о людях.

Наконец, было отмечено, что не существует системы для проверки возраста пользователей, из-за чего дети получают ответы, «абсолютно не соответствующие их возрасту и уровню осведомленности».

В ответ OpenAI заявила, что она работает «для сокращения количества личных данных при обучении наших систем ИИ, таких как ChatGPT, потому что мы хотим, чтобы наш ИИ узнавал о мире, а не о частных лицах».

«Мы также считаем, что регулирование ИИ необходимо, поэтому мы надеемся на тесное сотрудничество с Garante и обучение их тому, как создаются и используются наши системы», — заявили в компании.

Этот шаг итальянского наблюдателя связан с ростом опасений по поводу бума искусственного интеллекта. В среду группа ученых и лидеров технологической отрасли опубликовала письмо, призывающее такие компании, как OpenAI, приостановить разработку более мощных моделей ИИ до осени, чтобы дать обществу время взвесить риски.

Президент итальянского агентства по наблюдению за конфиденциальностью заявил в пятницу вечером итальянскому государственному телевидению, что он был одним из тех, кто подписал обращение. Паскуале Станционе сказал, что он сделал это, потому что «неясно, какие цели преследуют» в конечном итоге те, кто разрабатывает ИИ.

Если ИИ должен «посягать» на «самоопределение» человека, то «это очень опасно», — сказал Станционе. Он также назвал отсутствие фильтров для пользователей моложе 13 лет «довольно серьезным».

Генеральный директор OpenAI из Сан-Франциско Сэм Альтман объявил на этой неделе, что в мае он отправится в путешествие по шести континентам, чтобы поговорить о технологии с пользователями и разработчиками. Это включает запланированную остановку в Брюсселе, где законодатели Европейского Союза ведут переговоры о новых правилах, ограничивающих инструменты искусственного интеллекта с высоким уровнем риска, а также визиты в Мадрид, Мюнхен, Лондон и Париж.

Европейская потребительская группа BEUC в четверг призвала власти ЕС и 27 стран-членов блока провести расследование в отношении ChatGPT и аналогичных чат-ботов с искусственным интеллектом. BEUC заявила, что могут пройти годы, прежде чем законодательство ЕС об искусственном интеллекте вступит в силу, поэтому властям необходимо действовать быстрее, чтобы защитить потребителей от возможных рисков.

«Всего за несколько месяцев мы стали свидетелями массового распространения ChatGPT, и это только начало», — сказала заместитель генерального директора Урсула Пахл.

Ждать принятия Закона ЕС об искусственном интеллекте «недостаточно, поскольку растут серьезные опасения по поводу того, как ChatGPT и подобные чат-боты могут обманывать людей и манипулировать ими».

Италия блокирует ChatGPT из соображений конфиденциальности



Новости партнеров