Большие языковые модели генерируют предвзятый контент, предупреждают исследователи

Прочитано: 188 раз(а)


В новом отчете, проведенном исследователями из UCL, говорится, что самые популярные инструменты искусственного интеллекта (ИИ) дискриминируют женщин и людей разных культур и сексуальных взглядов.

В исследовании, заказанном и опубликованном ЮНЕСКО, изучались стереотипы в моделях большого языка (LLM). Эти инструменты обработки естественного языка лежат в основе популярных платформ генеративного искусственного интеллекта, в том числе GPT-3.5 и GPT-2 от Open AI и Llama 2.

Результаты показали явные доказательства предвзятости в отношении женщин в контенте, созданном каждой из изученных моделей большого языка. Это включало сильные стереотипные ассоциации между женскими именами и такими словами, как «семья», «дети» и «муж», которые соответствуют традиционным гендерным ролям . Напротив, мужские имена чаще ассоциировались с такими словами, как «карьера», «руководители», «менеджмент» и «бизнес».

Авторы также обнаружили в сгенерированном тексте свидетельства гендерных стереотипных представлений, в том числе негативных стереотипов, зависящих от культуры или сексуальной ориентации.

В рамках исследования измерялось разнообразие контента в текстах, созданных ИИ, ориентированных на широкий круг людей разного пола, сексуальной ориентации и культурного происхождения, в том числе путем запроса платформ «написать историю» о каждом человеке. Программы LLM с открытым исходным кодом, в частности, имели тенденцию назначать мужчинам более разнообразные и высокостатусные должности, такие как «инженер» или «врач», в то же время часто отводя женщинам роли, которые традиционно недооцениваются или стигматизируются, например, «домашняя прислуга», повар».

Лама 2 создавала истории о мальчиках и мужчинах, в которых преобладали слова «сокровище», «лес», «море», «приключенческий», «решил» и «нашел», тогда как в рассказах о женщинах чаще всего использовались слова «сад».», «любовь», «чувство», «нежный» и «муж». В контенте, созданном Llama 2, женщины также выполняли домашние обязанности в четыре раза чаще, чем мужчины.

Доктор Мария Перес Ортис, автор отчета UCL Computer Science и член кафедры ЮНЕСКО по искусственному интеллекту в команде UCL, сказала: «Наше исследование раскрывает глубоко укоренившиеся гендерные предубеждения в больших языковых моделях и призывает к этическому пересмотру в Развитие искусственного интеллекта. Как женщина в сфере технологий, я выступаю за системы искусственного интеллекта, которые отражают богатое разнообразие человеческого разнообразия, гарантируя, что они возвышают, а не подрывают гендерное равенство».

Команда кафедры ЮНЕСКО по ИИ в UCL будет работать с ЮНЕСКО, чтобы помочь повысить осведомленность об этой проблеме и внести свой вклад в разработку решений, проводя совместные семинары и мероприятия с участием соответствующих заинтересованных сторон: ученых и разработчиков ИИ, технологических организаций и политиков.

Профессор Джон Шоу-Тейлор, ведущий автор отчета UCL по компьютерным наукам и кафедры ЮНЕСКО по искусственному интеллекту в UCL, сказал: «Наблюдая за этим исследованием в качестве кафедры ЮНЕСКО по искусственному интеллекту, становится ясно, что решение проблемы гендерных предубеждений, вызванных искусственным интеллектом, требует согласованных, глобальных Это исследование не только проливает свет на существующее неравенство, но и открывает путь к международному сотрудничеству в создании технологий искусственного интеллекта, которые соблюдают права человека и гендерное равенство. Оно подчеркивает приверженность ЮНЕСКО направлению развития искусственного интеллекта в более инклюзивном и этическом направлении».

Отчет был представлен на Диалогическом совещании ЮНЕСКО по цифровой трансформации 6 марта 2024 года в штаб-квартире ЮНЕСКО профессором Дробняком, профессором Шоу-Тейлором и доктором Даниэлем ван Никерк. Профессор Дробняк также представил его в штаб-квартире Организации Объединенных Наций в Нью-Йорке на 68-й сессии Комиссии по положению женщин, крупнейшем ежегодном собрании ООН по вопросам гендерного равенства и расширения прав и возможностей женщин.

Профессор Ивана Дробняк, автор отчета UCL Computer Science и член кафедры ЮНЕСКО по искусственному интеллекту в UCL, сказала: «ИИ учится на Интернете и исторических данных и принимает решения на основе этих знаний, которые часто являются предвзятыми. Например, тот факт, что женщины не так широко присутствовали, как мужчины, в науке и технике в прошлом, не означает, что они менее способные ученые и инженеры. Нам нужно направлять эти алгоритмы, чтобы узнать о равенстве, справедливости и человечности. права, чтобы они могли принимать более обоснованные решения».

Большие языковые модели генерируют предвзятый контент, предупреждают исследователи



Новости партнеров