Мощный искусственный интеллект Google выявляет когнитивный сбой человека: путаница беглой речи с беглым мышлением

Прочитано: 272 раз(а)


Когда вы читаете фразу типа «Это моя история…», ваш прошлый опыт говорит вам, что она написана думающим, чувствующим человеком. И в этом случае действительно есть человек, печатающий эти слова: [Привет!] Но в наши дни некоторые предложения, которые кажутся удивительно похожими на человеческие, на самом деле генерируются системами искусственного интеллекта, обученными на огромных объемах человеческого текста.

Разработан алгоритм искусственного интеллекта для анализа цифровой патологии

Люди настолько привыкли предполагать, что беглый язык исходит из думающего и чувствующего человека, что доказательств обратного может быть трудно уложить в голове. Как люди могут перемещаться по этой относительно неизведанной территории? Из-за устойчивой тенденции ассоциировать беглое выражение с беглым мышлением естественно — но потенциально ошибочно — думать, что если модель ИИ может свободно выражать себя, это означает, что она думает и чувствует точно так же, как люди.

Таким образом, неудивительно, что бывший инженер Google недавно заявил, что система искусственного интеллекта Google LaMDA обладает самоощущением, потому что она может красноречиво генерировать текст о своих предполагаемых чувствах. Это событие и последующее освещение в СМИ привели к ряду справедливо скептических статей и сообщений о том, что вычислительные модели человеческого языка разумны, то есть способны думать, чувствовать и переживать.

Вопрос о том, что значит для модели ИИ быть разумной, сложен ( см., например, мнение нашего коллеги ), и наша цель здесь не в том, чтобы решить его. Но как исследователи языка мы можем использовать нашу работу в области когнитивистики и лингвистики, чтобы объяснить, почему людям так легко попасть в когнитивную ловушку, думая, что сущность, которая может свободно использовать язык, является разумной, сознательной или разумной.

Использование ИИ для создания человекоподобного языка

Текст, сгенерированный такими моделями, как Google LaMDA, трудно отличить от текста, написанного людьми. Это впечатляющее достижение является результатом многолетней программы по созданию моделей, генерирующих грамматически осмысленный язык.

Искусственный интеллект облегчает идентификацию подструктуры ткани

Ранние версии, датируемые по крайней мере 1950-ми годами, известные как модели n-грамм, просто подсчитывали вхождения определенных фраз и использовали их, чтобы угадать, какие слова могут встречаться в определенных контекстах. Например, легко понять, что фраза « арахисовое масло и желе» более вероятна, чем «арахисовое масло и ананасы». Если у вас достаточно английского текста, вы будете снова и снова встречать фразу «арахисовое масло и желе», но никогда не увидите фразу «арахисовое масло и ананасы».

Сегодняшние модели, наборы данных и правил, приближенные к человеческому языку , отличаются от этих ранних попыток несколькими важными моментами. Во-первых, они обучены практически всему интернету. Во-вторых, они могут изучать отношения между словами, которые находятся далеко друг от друга, а не только слова, которые являются соседями. В-третьих, они настраиваются с помощью огромного количества внутренних «ручек» — их так много, что даже инженерам, которые их проектируют, трудно понять, почему они генерируют одну последовательность слов, а не другую.

Однако задача моделей остается той же, что и в 1950-х годах: определить, какое слово, скорее всего, будет следующим. Сегодня они так хорошо справляются с этой задачей, что почти все предложения, которые они генерируют, кажутся плавными и грамматическими.

Арахисовое масло и ананасы?

Мы попросили большую языковую модель GPT-3 завершить предложение «Арахисовое масло и ананасы___». В нем говорилось: «Арахисовое масло и ананасы — отличное сочетание. Сладкие и пикантные вкусы арахисового масла и ананаса идеально дополняют друг друга». Если бы человек сказал это, можно было бы сделать вывод, что он пробовал вместе арахисовое масло и ананас, сформировал мнение и поделился им с читателем.

Но как GPT-3 придумал этот абзац? Создавая слово, которое соответствует контексту, который мы предоставили. А потом еще один. А потом еще один. Модель никогда не видела, не трогала и не пробовала ананасы — она просто обработала все тексты в Интернете, в которых они упоминаются. И все же чтение этого абзаца может заставить человеческий разум — даже инженера Google — представить GPT-3 разумным существом, способным рассуждать об арахисовом масле и блюдах из ананасов.

Человеческий мозг запрограммирован на то, чтобы делать выводы о намерениях, стоящих за словами. Каждый раз, когда вы участвуете в разговоре, ваш разум автоматически создает ментальную модель вашего собеседника. Затем вы используете слова, которые они говорят, чтобы заполнить модель целями, чувствами и убеждениями этого человека.

Компьютерщики разработали структуру искусственного интеллекта для автоматического рисования «подземных карт»

Процесс перехода от слов к ментальной модели не вызывает затруднений и запускается каждый раз, когда вы получаете полноценное предложение. Этот когнитивный процесс экономит вам много времени и усилий в повседневной жизни, значительно облегчая ваше социальное взаимодействие.

Однако в случае с системами искусственного интеллекта он дает осечку — создание ментальной модели из воздуха.

Немного больше исследований может выявить серьезность этой осечки. Рассмотрим следующую подсказку: «Арахисовое масло и перья прекрасно сочетаются друг с другом, потому что ___». GPT-3 продолжил: «Арахисовое масло и перья имеют прекрасный вкус вместе, потому что они оба имеют ореховый вкус. Арахисовое масло также гладкое и кремообразное, что помогает компенсировать текстуру пера».

Текст в этом случае такой же беглый, как и в нашем примере с ананасами, но на этот раз модель говорит что-то явно менее осмысленное. Начинаешь подозревать, что GPT-3 на самом деле никогда не пробовал арахисовое масло и перья.

Приписывая интеллект машинам, отрицая его людям

Печальная ирония заключается в том, что та же когнитивная предвзятость , которая заставляет людей приписывать человечность GPT-3, может заставить их обращаться с реальными людьми негуманным образом. Социокультурная лингвистика — изучение языка в его социальном и культурном контексте — показывает, что предположение о слишком тесной связи между беглым выражением и беглым мышлением может привести к предвзятому отношению к людям, говорящим иначе.

Искусственный интеллект теперь может подражать поведению человека

Например, люди с иностранным акцентом часто воспринимаются как менее умные и с меньшей вероятностью получат работу, для которой они квалифицированы. Подобные предубеждения существуют в отношении носителей диалектов, которые не считаются престижными, таких как южно-английский в США, против глухих людей, использующих языки жестов, и против людей с нарушениями речи , такими как заикание .

Эти предубеждения очень вредны, часто приводят к расистским и сексистским предположениям, и снова и снова доказывается их необоснованность.

Само по себе свободное владение языком не означает человечность

Станет ли когда-нибудь ИИ разумным? Этот вопрос требует глубокого рассмотрения, и философы действительно размышляли над ним десятилетиями . Однако исследователи установили, что вы не можете просто доверять языковой модели, когда она говорит вам о своих ощущениях. Слова могут ввести в заблуждение, и очень легко спутать беглую речь с беглой мыслью.



Новости партнеров