ИИ уже давно превзошел людей в когнитивных вопросах, которые когда-то считались высшими дисциплинами человеческого интеллекта, такими как шахматы или го. Некоторые даже считают, что оно превосходит человеческие эмоциональные навыки, такие как сочувствие. Похоже, что некоторые компании заявляют об этом не только из маркетинговых соображений; эмпирические исследования показывают, что люди воспринимают ChatGPT в определенных ситуациях со здоровьем как более эмпатичных, чем медицинский персонал. Означает ли это, что ИИ действительно чуток?
Определение эмпатии
Как психологически информированный философ, я определяю подлинное сочувствие по трем критериям :
- Конгруэнтность чувств: эмпатия требует, чтобы сопереживающий человек почувствовал, что значит переживать эмоции другого в конкретной ситуации. Это отличает эмпатию от простого рационального понимания эмоций.
- Асимметрия: человек, испытывающий сочувствие, испытывает эту эмоцию только потому, что она есть у другого человека, и она больше соответствует ситуации другого человека, чем его собственной. По этой причине эмпатия — это не просто разделяемая эмоция, подобная общей радости родителей по поводу прогресса их потомства, где не соблюдается условие асимметрии.
- Осознание других: должно быть хотя бы элементарное осознание того, что сочувствие связано с чувствами другого человека. Этим объясняется разница между сочувствием и эмоциональным заражением, которое происходит, если человек подхватывает чувство или эмоцию, например, простуду. Это происходит, например, когда дети начинают плакать, когда видят плачущего другого ребенка.
Эмпатический ИИ или психопатический ИИ?
Учитывая это определение, становится ясно, что искусственные системы не могут испытывать сочувствия. Они не знают, что значит чувствовать что-то. Это означает, что они не могут выполнить условие конгруэнтности. Следовательно, вопрос о том, соответствует ли то, что они чувствуют, состоянию асимметрии и осознания другого, даже не возникает. Что могут искусственные системы, так это распознавать эмоции, будь то на основе выражений лица, голосовых сигналов, физиологических моделей или аффективных значений; и они могут имитировать эмпатическое поведение с помощью речи или других способов эмоционального выражения.
Таким образом, искусственные системы демонстрируют сходство с теми, кого здравый смысл называет психопатами: несмотря на неспособность испытывать сочувствие, они способны распознавать эмоции на основе объективных признаков, имитировать сочувствие и использовать эту способность в манипулятивных целях. В отличие от психопатов, искусственные системы не ставят эти цели сами, а задают их создатели. Часто предполагается, что так называемый чуткий ИИ заставляет нас вести себя желаемым образом, например, не расстраиваться за рулем, учиться с большей мотивацией, работать более продуктивно, покупать определенный продукт или голосовать за определенного политического кандидата. Но разве все не зависит от того, насколько хороши цели, для которых используется ИИ, моделирующий эмпатию?
ИИ, моделирующий эмпатию, в контексте ухода и психотерапии
Позаботьтесь и о психотерапии, целью которой является забота о благополучии людей. Вы можете подумать, что использование искусственного интеллекта, имитирующего эмпатию, в этих областях определенно хорошо. Разве они не были бы замечательными опекунами и социальными товарищами для пожилых людей, любящими партнерами для инвалидов или идеальными психотерапевтами, которые доступны круглосуточно и без выходных ?
Такие вопросы в конечном итоге касаются того, что значит быть человеком. Достаточно ли одинокому, старому или психически неуравновешенному человеку проецировать эмоции на лишенный чувств артефакт или человеку важно испытать признание себя и своих страданий в межличностных отношениях?
Уважение или технология?
С этической точки зрения, вопрос уважения состоит в том, есть ли кто-то, кто сочувственно признает потребности и страдания человека как таковые. Лишая признания со стороны другого субъекта, человек, нуждающийся в заботе, общении или психотерапии, рассматривается как простой объект, поскольку в конечном итоге это основано на предположении, что не имеет значения, действительно ли кто-то слушает этого человека. У них нет моральных претензий на то, что их чувства, потребности и страдания воспринимаются кем-то, кто действительно может их понять. Использование искусственного интеллекта, имитирующего эмпатию, в уходе и психотерапии, в конечном счете , является еще одним примером технологического решения, то есть наивного предположения, что существует технологическое решение для каждой проблемы, включая одиночество и психические «сбои». Передача решения этих проблем искусственным системам не позволяет нам увидеть социальные причины одиночества и психических расстройств в более широком контексте общества.
Кроме того, создание искусственных систем, которые будут выглядеть как кто-то или что-то, обладающее эмоциями и сочувствием, будет означать, что такие устройства всегда будут иметь манипулятивный характер, поскольку они воздействуют на очень подсознательные механизмы антропоморфизации. Этот факт используется в коммерческих приложениях , чтобы заставить пользователей разблокировать платный премиум-уровень: или клиенты платят своими данными. Обе практики особенно проблематичны для уязвимых групп, которые здесь находятся под угрозой. Даже люди, не принадлежащие к уязвимым группам и прекрасно осознающие, что искусственная система не имеет чувств, все равно будут реагировать на нее эмпатически, как если бы она их имела.
Эмпатия к искусственным системам — слишком человечная
Это хорошо изученный феномен: люди с сочувствием реагируют на искусственные системы, обладающие определенными человеческими или животными характеристиками. Этот процесс во многом основан на механизмах восприятия, которые сознательно недоступны. Восприятие признака того, что другой человек испытывает определенную эмоцию, вызывает у наблюдателя соответствующую эмоцию. Таким признаком может быть типичное поведенческое проявление эмоции, выражение лица или событие, которое обычно вызывает определенную эмоцию. Данные МРТ головного мозга показывают, что одни и те же нейронные структуры активируются, когда люди испытывают сочувствие к роботам.
Хотя сочувствие, возможно, и не является строго необходимым для нравственности, оно играет важную моральную роль. По этой причине наша симпатия к человекоподобным (или животноподобным) роботам накладывает, по крайней мере, косвенные моральные ограничения на то, как нам следует обращаться с этими машинами. Аморально неправильно постоянно оскорблять роботов, вызывающих сочувствие, поскольку это отрицательно влияет на нашу способность испытывать сочувствие, которое является важным источником моральных суждений, мотивации и развития.
Означает ли это, что нам необходимо создать лигу по защите прав роботов? Это было бы преждевременно, поскольку сами по себе роботы не имеют моральных требований. Сочувствие роботам имеет моральное значение лишь косвенно из-за его влияния на человеческую мораль. Но нам следует тщательно подумать, действительно ли нам нужны роботы, которые имитируют и вызывают сочувствие у людей, и в каких областях, поскольку мы рискуем исказить или даже разрушить наши социальные практики, если они станут повсеместными.