Как показывает новое исследование, даже когда люди рассматривают помощников на базе ИИ исключительно как инструменты, они приписывают им частичную ответственность за решения.
Будущие системы на базе искусственного интеллекта смогут управлять автономными транспортными средствами в пробках без вмешательства человека. Исследования показали, что люди считают, что такие футуристические системы искусственного интеллекта столь же ответственны, как и люди, когда они принимают автономные решения о дорожном движении. Однако реальные помощники ИИ далеки от такой автономии. Они предоставляют пользователям вспомогательную информацию, такую как средства навигации и вождения.
Итак, кто несет ответственность в реальных случаях, когда что-то идет хорошо или неправильно? Пользователь-человек? Или ИИ-помощник? Команда под руководством Луи Лонгена с кафедры философии разума теперь исследовала, как люди оценивают ответственность в этих случаях. Их выводы опубликованы в iScience.
«У каждого из нас есть умные помощники в карманах», — говорит Лонгин. «Тем не менее, многие экспериментальные данные, которые мы имеем о пробелах в ответственности, сосредоточены на роботах или автономных транспортных средствах, где ИИ буквально находится на месте водителя, принимая решения за нас. Расследование случаев, когда мы по-прежнему принимаем окончательное решение, но используем ИИ скорее как необходим сложный инструмент».
Философ, специализирующийся на взаимодействии между людьми и искусственным интеллектом, Лонгин, работая в сотрудничестве со своим коллегой доктором Бахадором Бахрами и профессором Офелией Дерой, заведующей кафедрой философии разума, исследовал, как 940 участников оценивали водителя-человека, используя интеллектуальный интеллектуальный компьютер на базе искусственного интеллекта. вербальный помощник, умный тактильный помощник на базе искусственного интеллекта или навигационный инструмент без искусственного интеллекта. Участники также указали, считают ли они навигационное средство ответственным и в какой степени оно является инструментом.
Амбивалентный статус умных помощников
Результаты показывают двойственность: участники решительно утверждали, что умные помощники были всего лишь инструментами, однако они считали их частично ответственными за успехи или неудачи людей-водителей, которые консультировались с ними. Для прибора без искусственного интеллекта такого разделения ответственности не произошло.
Не менее удивительным для авторов было то, что умные помощники также считались более ответственными за положительные, а не за отрицательные результаты .
«Люди могут применять разные моральные стандарты для похвалы и порицания. Когда катастрофа предотвращена и не причинен никакого вреда, стандарты смягчаются, и людям легче отдать должное, а не порицать нечеловеческие системы», — предполагает доктор Бахрами, эксперт по коллективной ответственности.
Роль языка не имеет значения
В ходе исследования авторы не обнаружили разницы между умными помощниками, которые использовали речь, и теми, которые тревожили своих пользователей тактильной вибрацией колеса.
«В данном случае они предоставили одну и ту же информацию: «Эй, осторожно, кое-что впереди», но, конечно, на практике ChatGPT дает гораздо больше информации», — говорит Офелия Дерой, чье исследование изучает наше противоречивое отношение к искусственному интеллекту как форме анимистические верования. Что касается дополнительной информации, предоставляемой новыми языковыми системами искусственного интеллекта, такими как ChatGPT, Дерой добавляет: «Чем богаче взаимодействие, тем легче его антропоморфизировать».
«В целом, наши результаты подтверждают идею о том, что ИИ-помощники рассматриваются как нечто большее, чем просто рекомендательные инструменты, но, тем не менее, они остаются далекими от человеческих стандартов», — говорит Лонгин.
Авторы полагают, что результаты нового исследования окажут далеко идущее влияние на дизайн и социальный дискурс вокруг ИИ-помощников: «Организации, которые разрабатывают и выпускают умных помощников, должны задуматься о том, как это затрагивает социальные и моральные нормы», — заключает Лонгин.