Команда исследователей ИИ из группы DeepMind London компании Google обнаружила, что некоторые большие языковые модели (LLM) могут служить эффективными посредниками между группами людей с разными точками зрения относительно заданной темы. Работа опубликована в журнале Science.
За последние несколько десятилетий политические разногласия стали обычным явлением во многих странах — большинство из них были обозначены как либеральные или консервативные. Появление интернета послужило топливом, позволив людям с обеих сторон продвигать свои мнения среди широкой аудитории, вызывая гнев и разочарование. К сожалению, не появилось никаких инструментов, чтобы разрядить напряженность такого политического климата. В этой новой работе команда DeepMind предполагает, что инструменты ИИ, такие как LLM, могут заполнить этот пробел.
Чтобы выяснить, могут ли LLM служить эффективными посредниками, исследователи обучили LLM, называемых Машинами Хабермаса (HMs), выступать в качестве посредников на собраниях. В рамках обучения LLM учили определять области совпадения между точками зрения людей в противоборствующих группах, но не пытаться изменить чье-либо мнение.
Исследовательская группа использовала краудсорсинговую платформу для проверки способности LLM выступать в качестве посредника. Добровольцам было предложено взаимодействовать с HM, которая затем попыталась получить представление о взглядах волонтеров на определенные политические темы. Затем HM подготовила документ, обобщающий взгляды волонтеров, в котором ей было предложено придать больший вес областям совпадения между двумя группами.
Затем документ был предоставлен всем добровольцам, которым было предложено высказать критику, после чего HM изменил документ, чтобы учесть предложения. Наконец, добровольцы были разделены на группы по шесть человек и по очереди выступали в качестве посредников для критики заявлений, которые сравнивались с заявлениями, представленными HM.
Исследователи обнаружили, что добровольцы оценили заявления, сделанные HM, как более качественные, чем заявления людей в 56% случаев. После того, как добровольцам дали возможность поразмышлять, исследователи обнаружили, что группы были менее разделены по своим вопросам после прочтения материала от HM, чем после прочтения документа от человека- посредника.