Эксперимент, в котором два человека играли в модифицированную версию тетриса — 40-летней видеоигры со складыванием блоков, — показал, что игроки, которые получают меньше ходов, воспринимают другого игрока как менее симпатичного, независимо от того, распределяет ли человек или алгоритм повороты.
«Мы ожидали, что людям, работающим в команде, будет небезразлично, если другой человек или ИИ относятся к ним несправедливо», — сказал Мальте Юнг, адъюнкт-профессор информатики в Корнеллском колледже вычислительной техники и информатики им. Энн С. Бауэрс, чья группа провела изучение.
Большинство исследований алгоритмической справедливости сосредоточено на алгоритме или самом решении, но Юнг стремился исследовать отношения между людьми, затронутыми решениями.
«Мы начинаем видеть множество ситуаций, в которых ИИ принимает решения о том, как ресурсы должны распределяться между людьми», — сказал Юнг. «Мы хотим понять, как это влияет на то, как люди воспринимают друг друга и ведут себя по отношению друг к другу. Мы видим все больше и больше доказательств того, что машины вмешиваются в то, как мы взаимодействуем друг с другом».
Хьюстон Б. Клэр является первым автором книги «Социальные последствия поведения машинного распределения: справедливость, межличностное восприятие и производительность», опубликованной 27 апреля в журнале « Компьютеры в поведении человека». Клер получил степень магистра и доктора наук в области машиностроения, специализируясь на компьютерных науках.
Юнг и Клер провели более раннее исследование, в котором робот выбирал, кому дать блок, и изучали реакцию каждого человека на решения машины о распределении.
«Мы заметили, что каждый раз, когда робот, казалось, предпочитал одного человека, другой расстраивался», — сказал Юнг, директор лаборатории «Роботы в группах». «Мы хотели изучить это глубже, потому что думали, что по мере того, как машины, принимающие решения, становятся все более частью мира — будь то робот или алгоритм — как это заставляет человека чувствовать себя?»
Из-за того, что на проведение экспериментов и анализ данных с использованием физического робота ушло много времени, Юнг и Клер решили, что существует лучший и более эффективный способ изучения этого эффекта. Именно тогда Tetris, впервые выпущенный в 1984 году и долгое время являвшийся полезным инструментом для исследователей, стремящихся получить фундаментальные сведения о человеческом познании, социальном поведении и памяти, появился на свет.
«Когда дело доходит до распределения ресурсов, — сказала Клер, — оказывается, что тетрис — это не просто игра — это мощный инструмент для понимания сложной взаимосвязи между распределением ресурсов, производительностью и социальной динамикой».
Используя программное обеспечение с открытым исходным кодом , Клэр — ныне научный сотрудник Йельского университета — разработала версию тетриса для двух игроков, в которой игроки манипулируют падающими геометрическими блоками, чтобы складывать их друг на друга, не оставляя промежутков до того, как блоки будут складываться в верхнюю часть экрана. . Версия Клер, Co-Tetris, позволяет двум людям (по одному) работать вместе, чтобы завершить каждый раунд.
«Распределитель» — человек или ИИ, переданный игрокам, — определяет, какой игрок делает каждый ход. Юнг и Клер разработали свой эксперимент таким образом, чтобы у игроков было либо 90% ходов (условие «больше»), либо 10% («меньше»), либо 50% («равно»).
Исследователи предсказуемо обнаружили, что те, кто получил меньше оборотов, остро осознавали, что их партнер получил значительно больше. Но они были удивлены, обнаружив, что чувства по этому поводу были в основном одинаковыми, независимо от того, кто занимался распределением — человек или ИИ.
Один особенно интересный вывод: когда распределение выполнялось ИИ, игрок, получивший больше ходов, считал своего партнера менее доминирующим, но когда распределение производилось человеком, восприятие доминирования не менялось.
Эффект этих решений — это то, что исследователи назвали «поведением машинного распределения» — аналогично известному феномену «поведения распределения ресурсов», наблюдаемому поведению, которое люди демонстрируют на основе решений о распределении. Юнг сказал, что поведение машины при распределении — это «концепция уникального поведения, возникающего в результате принятия машиной решения о том, как что-то распределяется».
Исследователи также обнаружили, что справедливость не ведет автоматически к лучшему игровому процессу и производительности. На самом деле, равное распределение ходов в среднем приводило к худшему результату, чем неравное распределение.
«Если сильный игрок получает большую часть блоков, — сказал Клер, — команда будет работать лучше. И если один человек получит 90%, в конечном итоге он станет лучше, чем если бы два средних игрока разделили блоки».
Рене Кизилсек, доцент кафедры информатики (Cornell Bowers CIS) и соавтор исследования, надеется, что эта работа приведет к большему количеству исследований влияния решений ИИ на людей, особенно в сценариях, когда системы ИИ принимают непрерывные решения, а не просто одноразовые варианты.
«Инструменты ИИ, такие как ChatGPT, все больше внедряются в нашу повседневную жизнь, когда люди со временем развивают отношения с этими инструментами, — сказал Кизилец, — как, например, учителя, ученики и родители думают о компетентности и справедливости преподавателя ИИ. на основе их взаимодействия в течение недель и месяцев имеет большое значение».
Другой соавтор — Сеюн Ким, докторант по взаимодействию человека и компьютера в Университете Карнеги-Меллона.