Ученые обвинили Google Translate в сексизме

Прочитано: 452 раз(а)


Детали исследования профессионалов из Принстонского университета и Университета Бата опубликовали в журнале Science. Приобретенные данные позволяют с другой стороны посмотреть на природу стереотипов и направить исследования искусственного интеллекта в сторону освобождения от схожих предрассудков.

Ученые из Принстона узнали, что самообучающийся искусственный интеллект может перенимать человеческие предрассудки в процессе освоения новых данных. Чтобы выяснить это ученые использовали метод ассоциативного теста, пишет газета Новости сегодня.

Искусственный интеллект становится все не менее похожим на человека. Например, он ассоциировал дамские имена с такими словами, как «родители» и «свадьба», а мужские имена — со словами «профессиональный» и «зарплата».

«ИИ может научиться стереотипному мышлению, что, в общем-то, предсказуемо».

Проводя эксперименты ученые обратили внимание, что переводчики с искусственным интеллектом создают свои ассоциации связанные с людьми. К примеру, Google Translate предпочитает переводить фразы в мужском роде. В процессе опыта машинный интеллект ассоциировал мужские имена с «зарплатой» и «профессионализмом», а дамские — с «родителями» и «свадьбой», что несомненно является свидетельством стереотипного мышления.

Google



Новости партнеров