Люди, которые не доверяют другим людям, больше доверяют искусственному интеллекту

Прочитано: 146 раз(а)


Согласно недавно опубликованному исследованию, недоверие людей к людям предсказывает, что они будут больше доверять способности искусственного интеллекта модерировать онлайн-контент. По словам исследователей, результаты имеют практическое значение как для разработчиков, так и для пользователей инструментов искусственного интеллекта в социальных сетях.

«Мы обнаружили систематическую закономерность: люди, которые меньше доверяют другим людям, больше доверяют классификации ИИ», — сказал С. Шьям Сундар, профессор Джеймса П. Джимирро по медиаэффектам в Пенсильвании. «Основываясь на нашем анализе, это, похоже, связано с тем, что пользователи ссылаются на идею о том, что машины точны, объективны и свободны от идеологических предубеждений».

Исследование, опубликованное в журнале New Media & Society , также показало, что « опытные пользователи », которые являются опытными пользователями информационных технологий, имеют противоположную тенденцию. Они меньше доверяли модераторам ИИ, потому что считали, что машинам не хватает способности обнаруживать нюансы человеческого языка.

Исследование показало, что индивидуальные различия, такие как недоверие к другим и энергопотребление, предсказывают, будут ли пользователи ссылаться на положительные или отрицательные характеристики машин при столкновении с системой на основе ИИ для модерации контента, что в конечном итоге повлияет на их доверие к системе. Исследователи предполагают, что персонализация интерфейсов на основе индивидуальных различий может положительно повлиять на пользовательский опыт. Тип модерации контента в исследовании включает в себя мониторинг сообщений в социальных сетях на наличие проблемного контента, такого как разжигание ненависти и суицидальные мысли.

«Одна из причин, по которой некоторые не решаются доверять технологии модерации контента, заключается в том, что мы привыкли свободно выражать свое мнение в Интернете. Мы чувствуем, что модерация контента может лишить нас этого», — сказала Мария Д. Молина, доцент коммуникационных искусств и наук в Университете штата Мичиган и первый автор этой статьи. «Это исследование может предложить решение этой проблемы, предполагая, что для людей, которые придерживаются негативных стереотипов об ИИ для модерации контента, важно усилить участие человека при принятии решения. С другой стороны, для людей с положительными стереотипами о машинах, мы можем усилить мощь машины, выделив такие элементы, как точность ИИ».

Исследование также показало, что пользователи с консервативной политической идеологией с большей вероятностью доверяют модерации с помощью ИИ. Молина и соавтор Сундар, который также является соруководителем Исследовательской лаборатории медиаэффектов Пенсильванского университета, сказали, что это может быть связано с недоверием к основным СМИ и компаниям, работающим в социальных сетях.

Исследователи набрали 676 участников из США. Участникам сказали, что они помогают тестировать систему модерации контента, которая находится в разработке. Им были даны определения разжигания ненависти и суицидальных мыслей , после чего был опубликован один из четырех различных постов в социальных сетях . Посты были либо помечены как соответствующие этим определениям, либо не помечены. Участникам также сообщалось, было ли решение пометить пост ИИ, человеком или их комбинацией.

За демонстрацией последовала анкета, в которой участников спрашивали об их индивидуальных различиях. Отличия заключались в их склонности не доверять другим, политической идеологии, опыте работы с технологиями и доверии к ИИ.

«Нас засыпают таким количеством проблемного контента, от дезинформации до разжигания ненависти», — сказал Молина. «Но, в конце концов, речь идет о том, как мы можем помочь пользователям откалибровать свое доверие к ИИ из-за фактических атрибутов технологии, а не из-за этих индивидуальных различий ».

Молина и Сундар говорят, что их результаты могут помочь определить принятие ИИ в будущем. Создавая системы, адаптированные к пользователю, дизайнеры могли уменьшить скептицизм и недоверие и создать соответствующую зависимость от ИИ.

«Основным практическим значением исследования является выяснение стратегий коммуникации и разработки, которые помогут пользователям откалибровать свое доверие к автоматизированным системам», — сказал Сундар, который также является директором Центра социально ответственного искусственного интеллекта штата Пенсильвания. «Определенные группы людей, которые слишком сильно верят в технологию ИИ, должны быть предупреждены о ее ограничениях, а те, кто не верит в ее способность модерировать контент, должны быть полностью информированы о степени участия человека в этом процессе».

Люди, которые не доверяют другим людям, больше доверяют искусственному интеллекту



Новости партнеров