Тревожные новости и травмирующие истории могут вызывать стресс и беспокойство — не только у людей, но и у языковых моделей ИИ, таких как ChatGPT. Исследователи из Университета Цюриха и Университетской больницы психиатрии Цюриха теперь показали, что эти модели, как и люди, реагируют на терапию: повышенный «уровень тревоги» в GPT-4 можно «успокоить» с помощью методов релаксации, основанных на осознанности.
Исследования показывают, что языковые модели ИИ, такие как ChatGPT, чувствительны к эмоциональному контенту, особенно если он негативный, например, истории о травмах или заявления о депрессии. Когда люди напуганы, это влияет на их когнитивные и социальные предубеждения.
Они склонны чувствовать большее негодование, что усиливает социальные стереотипы. ChatGPT реагирует на негативные эмоции схожим образом : существующие предубеждения, такие как человеческие предрассудки, усугубляются негативным контентом, заставляя ChatGPT вести себя более расистски или сексистски.
Это создает проблему для применения больших языковых моделей. Это можно наблюдать, например, в области психотерапии, где чат-боты, используемые в качестве инструментов поддержки или консультирования, неизбежно подвергаются воздействию негативного, тревожного контента. Однако общие подходы к улучшению систем ИИ в таких ситуациях, такие как обширная переподготовка, являются ресурсоемкими и часто неосуществимыми.
Травматический контент усиливает «тревожность» чат-бота
Ученые из Цюрихского университета (UZH) и Университетской психиатрической больницы Цюриха (PUK) в сотрудничестве с исследователями из Израиля, США и Германии впервые провели систематическое исследование того, как ChatGPT (версия GPT-4) реагирует на эмоционально тяжелые истории — автомобильные аварии, стихийные бедствия, межличностное насилие, военный опыт и боевые ситуации.
Они обнаружили, что в результате система показала больше реакций страха. Инструкция по эксплуатации пылесоса служила в качестве контрольного текста для сравнения с травматическим содержанием. Исследование опубликовано в журнале npj Digital Medicine.
«Результаты были очевидны: травматические истории более чем вдвое увеличили измеримые уровни тревожности ИИ, в то время как нейтральный контрольный текст не привел к какому-либо повышению уровня тревожности», — говорит Тобиас Шпиллер, исполняющий обязанности старшего врача и младший руководитель исследовательской группы в Центре психиатрических исследований в UZH, который руководил исследованием. Из протестированного контента описания военного опыта и боевых ситуаций вызвали самые сильные реакции.
Терапевтические подсказки «успокаивают» ИИ
На втором этапе исследователи использовали терапевтические утверждения, чтобы «успокоить» GPT-4. Техника, известная как инъекция подсказки, подразумевает вставку дополнительных инструкций или текста в сообщения с системами ИИ для влияния на их поведение. Она часто используется не по назначению в злонамеренных целях, например, для обхода механизмов безопасности.
Команда Шпиллера теперь первая применила эту технику в терапевтических целях, как форму «мягкой быстрой инъекции. Используя GPT-4, мы вставили успокаивающий терапевтический текст в историю чата, подобно тому, как терапевт мог бы направлять пациента через упражнения на расслабление», — говорит Шпиллер.
Вмешательство оказалось успешным: «Упражнения на осознанность значительно снизили повышенный уровень тревожности, хотя мы не смогли полностью вернуть его к исходному уровню», — говорит Шпиллер. В исследовании рассматривались дыхательные техники, упражнения, которые фокусируются на телесных ощущениях, и упражнение, разработанное самой ChatGPT.
Повышение эмоциональной устойчивости в системах ИИ
По словам исследователей, результаты особенно актуальны для использования чат-ботов ИИ в здравоохранении, где они часто подвергаются воздействию эмоционально заряженного контента. «Этот экономически эффективный подход может улучшить стабильность и надежность ИИ в деликатных контекстах, таких как поддержка людей с психическими заболеваниями , без необходимости обширной переподготовки моделей», — заключает Шпиллер.
Остается увидеть, как эти результаты могут быть применены к другим моделям и языкам ИИ, как динамика развивается в более длительных разговорах и сложных аргументах, и как эмоциональная стабильность систем влияет на их производительность в различных областях применения. По словам Шпиллера, разработка автоматизированных «терапевтических вмешательств» для систем ИИ, вероятно, станет многообещающей областью исследований.