ChatGPT — это кошмар конфиденциальности данных

Прочитано: 101 раз(а)


ChatGPT — это кошмар конфиденциальности данных. Если вы когда-либо публиковали сообщения в Интернете, вы должны быть обеспокоены, сообщает специалист.

ChatGPT покорил мир. В течение двух месяцев после выпуска оно достигло 100 миллионов активных пользователей , что сделало его самым быстрорастущим потребительским приложением из когда-либо запущенных. Пользователей привлекают расширенные возможности этого инструмента, и они обеспокоены тем, что он может вызвать сбои в различных секторах.

Гораздо менее обсуждаемым последствием являются риски конфиденциальности, которые ChatGPT представляет для каждого из нас. Буквально вчера Google представила свой собственный диалоговый ИИ под названием Bard, и другие наверняка последуют этому примеру. Технологические компании, работающие над ИИ, действительно вступили в гонку вооружений.

Проблема в том, что это подпитывается нашими личными данными.

300 миллиардов слов. Сколько ваших?

ChatGPT опирается на большую языковую модель, для работы и улучшения которой требуются огромные объемы данных. Чем на большем количестве данных обучается модель, тем лучше она обнаруживает закономерности, предвидит, что будет дальше, и генерирует правдоподобный текст.

OpenAI, компания, стоящая за ChatGPT, передала инструменту около 300 миллиардов слов , систематически извлеченных из Интернета: книги, статьи, веб-сайты и сообщения, включая личную информацию , полученную без согласия.

Если вы когда-либо писали сообщение в блоге или обзор продукта или комментировали статью в Интернете, есть большая вероятность, что эта информация была использована ChatGPT.

Так почему это проблема?

Сбор данных , используемый для обучения ChatGPT, проблематичен по нескольким причинам.

Во-первых, никого из нас не спросили, может ли OpenAI использовать наши данные. Это явное нарушение конфиденциальности, особенно когда данные являются конфиденциальными и могут использоваться для идентификации нас, членов нашей семьи или нашего местоположения.

Даже когда данные общедоступны, их использование может нарушить то, что мы называем целостностью текста . Это фундаментальный принцип в юридических дискуссиях о конфиденциальности. Он требует, чтобы информация отдельных лиц не раскрывалась вне контекста, в котором она была первоначально получена.

Кроме того, OpenAI не предлагает отдельным лицам никаких процедур, позволяющих проверить, хранит ли компания их личную информацию, или запросить ее удаление. Это право гарантируется в соответствии с Европейским общим регламентом по защите данных ( GDPR ), хотя до сих пор ведутся споры о том, соответствует ли ChatGPT требованиям GDPR .

Это «право на забвение» особенно важно в тех случаях, когда информация неточна или вводит в заблуждение, что, по-видимому, является обычным явлением для ChatGPT.

Кроме того, очищенные данные, на которых обучался ChatGPT, могут быть собственностью или защищены авторским правом. Например, по моей подсказке инструмент выдал первые несколько абзацев романа Питера Кэри «Правдивая история банды Келли» — текст, защищенный авторским правом.

Наконец, OpenAI не платила за данные, полученные из Интернета. Частные лица, владельцы веб-сайтов и компании, которые его создали, не получили компенсации. Это особенно примечательно, учитывая, что OpenAI недавно был оценен в 29 миллиардов долларов США , что более чем вдвое превышает его стоимость в 2021 году .

OpenAI также только что анонсировала ChatGPT Plus, платный план подписки, который предложит клиентам постоянный доступ к инструменту, более быстрое время отклика и приоритетный доступ к новым функциям. Этот план будет способствовать ожидаемому доходу в размере 1 миллиарда долларов к 2024 году .

Все это было бы невозможно без данных — наших данных, которые собирались и использовались без нашего разрешения.

Слабая политика конфиденциальности

Еще одна угроза конфиденциальности связана с данными, предоставляемыми ChatGPT в виде пользовательских подсказок. Когда мы просим инструмент ответить на вопросы или выполнить задачу, мы можем непреднамеренно передать конфиденциальную информацию и сделать ее общедоступной.

Например, адвокат может предложить инструменту просмотреть проект соглашения о разводе, или программист может попросить его проверить фрагмент кода. Соглашение и код, в дополнение к опубликованным эссе, теперь являются частью базы данных ChatGPT. Это означает, что их можно использовать для дальнейшего обучения инструмента и включать в ответы на подсказки других людей.

Помимо этого, OpenAI собирает широкий спектр другой пользовательской информации. Согласно политике конфиденциальности компании , он собирает IP-адреса пользователей, тип и настройки браузера, а также данные о взаимодействии пользователей с сайтом, включая тип контента, с которым взаимодействуют пользователи, используемые ими функции и действия, которые они предпринимают.

Он также собирает информацию о действиях пользователей в Интернете с течением времени и на разных веб-сайтах. Вызывает тревогу тот факт, что OpenAI заявляет, что может передавать личную информацию пользователей неуказанным третьим сторонам, не информируя их, для достижения своих бизнес-целей.

Время, чтобы обуздать его?

Некоторые эксперты считают, что ChatGPT — это переломный момент для ИИ — реализации технологического развития, которое может революционизировать то, как мы работаем, учимся, пишем и даже думаем. Несмотря на его потенциальные преимущества , мы должны помнить, что OpenAI — это частная коммерческая компания, чьи интересы и коммерческие императивы не обязательно совпадают с более широкими потребностями общества.

Риски конфиденциальности, связанные с ChatGPT, должны звучать как предупреждение. И как потребители растущего числа технологий искусственного интеллекта, мы должны быть крайне осторожны в отношении того, какой информацией мы делимся с такими инструментами.

ChatGPT — это кошмар конфиденциальности данных



Новости партнеров