Чат-боты на основе искусственного интеллекта остаются самоуверенными даже тогда, когда ошибаются

Прочитано: 1242 раз(а)


Чат-боты на основе искусственного интеллекта сегодня повсюду: от приложений для смартфонов и порталов обслуживания клиентов до поисковых систем. Но что происходит, когда эти удобные инструменты переоценивают свои возможности?

Исследователи спрашивали как участников-людей , так и четырёх крупных языковых моделей (LLM), насколько они уверены в своей способности отвечать на вопросы викторины, предсказывать результаты игр НФЛ или церемоний вручения премии «Оскар», а также играть в игру по распознаванию изображений, похожую на Pictionary. И люди, и LLM, как правило, были слишком самоуверенны в своих гипотетических результатах. Примечательно, что они также отвечали на вопросы или распознавали изображения с относительно схожей вероятностью успеха.

Однако, согласно исследованию, опубликованному в журнале Memory & Cognition, когда участников и магистров права задним числом спросили, насколько хорошо, по их мнению, они справились, только люди оказались способны скорректировать ожидания.

«Предположим, люди сказали нам, что ответят правильно на 18 вопросов, а в итоге ответили правильно на 15. Обычно их оценка впоследствии составляла около 16 правильных ответов », — сказал Трент Кэш, недавно получивший совместную докторскую степень в Университете Карнеги-Меллона на кафедрах науки о социальных решениях и психологии. «То есть они всё равно были немного самоуверенны, но не настолько».

«Студенты магистратуры права этого не делали», — сказал Кэш, ведущий автор исследования. «Они, скорее, становились более самоуверенными, даже когда не очень хорошо справлялись с заданием».

Кэш признал, что мир ИИ стремительно меняется с каждым днем, поэтому делать общие выводы о его применении становится все сложнее.

Однако одним из преимуществ исследования стало то, что данные собирались в течение двух лет, что означало использование постоянно обновляемых версий LLM, таких как ChatGPT, Bard/Gemini, Sonnet и Haiku. Это означает, что чрезмерная уверенность ИИ в своих действиях обнаруживалась в разных моделях с течением времени.

«Когда ИИ говорит что-то подозрительное, пользователи могут быть не столь скептичны, как следовало бы, потому что ИИ дает уверенный ответ, даже если эта уверенность необоснованна», — говорит Дэнни Оппенгеймер, профессор кафедры социальных наук и принятия решений Карнеги-Меллона и соавтор исследования.

«Люди эволюционировали с течением времени и с рождения учились интерпретировать сигналы уверенности, подаваемые другими людьми. Если я хмурюсь или медлю с ответом, вы можете заметить, что я не всегда уверен в том, что говорю, но с ИИ у нас не так много подсказок о том, понимает ли он, о чём говорит», — сказал Оппенгеймер.

Задаем ИИ правильные вопросы

Хотя точность ответов магистров права на вопросы викторины и прогнозирования результатов футбольных матчей относительно невелика, исследование указывает на подводные камни, связанные с интеграцией этих технологий в повседневную жизнь.

Например, недавнее исследование, проведённое BBC, показало, что когда магистрам права (LLM) задавали вопросы о новостях, более половины ответов содержали «серьёзные проблемы», включая фактические ошибки, неверную привязку источников и отсутствующий или вводящий в заблуждение контекст. Аналогичным образом, другое исследование, проведённое в 2023 году, показало, что магистрам права (LLM) «галлюцинировали» или предоставляли неверную информацию в 69–88% юридических запросов .

Очевидно, вопрос о том, понимает ли ИИ, о чём говорит, актуален как никогда. Правда в том, что программы магистратуры права (LLM) не предназначены для ответов на все вопросы, которые пользователи задают им ежедневно.

«Если бы я спросил: «Какова численность населения Лондона?», ИИ провел бы поиск в интернете, дал бы идеальный ответ и дал бы идеальную калибровку уверенности», — сказал Оппенгеймер.

Однако, задавая вопросы о будущих событиях (например, о победителях предстоящей церемонии вручения премии «Оскар») или на более субъективные темы (например, о предполагаемой идентичности нарисованного от руки изображения), исследователи смогли выявить очевидную слабость чат-ботов в метапознании, то есть способности осознавать собственные мыслительные процессы.

«Мы до сих пор не знаем точно, как ИИ оценивает свою уверенность, — сказал Оппенгеймер, — но, похоже, он не занимается самоанализом, по крайней мере, неумело».

Исследование также показало, что у каждой степени магистра права есть свои сильные и слабые стороны. В целом, степень магистра права, известная как Sonnet, была менее самоуверенной, чем её коллеги. Аналогичным образом, ChatGPT-4 показал результаты, схожие с результатами участников эксперимента, аналогичного Pictionary, точно распознав 12,5 нарисованных от руки изображений из 20, в то время как Gemini смог распознать в среднем всего 0,93 рисунка.

Кроме того, Gemini предсказал, что в среднем он даст 10,03 правильных ответов, и даже ответив правильно менее чем на один из 20 вопросов, LLM ретроспективно подсчитал, что он ответил правильно на 14,40 вопросов, что демонстрирует его недостаточную осознанность.

«Gemini просто ужасно играл в «Pictionary», — сказал Кэш. — Но, что ещё хуже, он не знал, что играет плохо. Это как тот друг, который клянётся, что отлично играет в бильярд, но ни разу не попадает».

Укрепление доверия с помощью искусственного интеллекта

Кэш сказал, что для обычных пользователей чат-бота самым главным выводом является то, что обладатели степени LLM не всегда правы, и что, возможно, стоит спросить их, насколько уверенно они отвечают на важные вопросы.

Конечно, исследование показывает, что LLM не всегда могут точно оценить уровень уверенности, но если чат-бот признает низкую уверенность, это верный признак того, что его ответу нельзя доверять.

Исследователи отмечают, что чат-боты также могут лучше понимать свои собственные способности, работая с гораздо большими наборами данных.

«Возможно, если бы было проведено тысячи или миллионы испытаний, результаты были бы лучше», — сказал Оппенгеймер.

В конечном счёте, выявление таких недостатков, как излишняя самоуверенность, только поможет тем, кто разрабатывает и совершенствует программы магистратуры права (LLM). По мере развития ИИ он может развить метакогнитивные способности, необходимые для обучения на своих ошибках.

«Если бы магистры права могли рекурсивно определить, что они ошибались, это решило бы множество проблем», — сказал Кэш.

«Мне кажется интересным, что магистры права часто не учатся на собственном опыте», — сказал Кэш. «И, возможно, в этом есть некая гуманистическая история. Возможно, есть что-то особенное в том, как люди учатся и общаются».

Чат-боты на основе искусственного интеллекта сегодня повсюду: от приложений для смартфонов и порталов обслуживания клиентов до поисковых систем. Но что происходит, когда эти удобные инструменты переоценивают свои возможности? Исследователи спрашивали как участников-людей , так и четырёх крупных языковых моделей (LLM), насколько они уверены в своей способности отвечать на вопросы викторины, предсказывать результаты игр НФЛ или церемоний вручения премии «Оскар», а также играть в игру по распознаванию изображений, похожую на Pictionary. И люди, и LLM, как правило, были слишком самоуверенны в своих гипотетических результатах. Примечательно, что они также отвечали на вопросы или распознавали изображения с относительно схожей вероятностью успеха. Однако, согласно исследованию, опубликованному в журнале Memory & Cognition, когда участников и магистров права задним числом спросили, насколько хорошо, по их мнению, они справились, только люди оказались способны скорректировать ожидания. «Предположим, люди сказали нам, что ответят правильно на 18 вопросов, а в итоге ответили правильно на 15. Обычно их оценка впоследствии составляла около 16 правильных ответов », — сказал Трент Кэш, недавно получивший совместную докторскую степень в Университете Карнеги-Меллона на кафедрах науки о социальных решениях и психологии. «То есть они всё равно были немного самоуверенны, но не настолько». «Студенты магистратуры права этого не делали», — сказал Кэш, ведущий автор исследования. «Они, скорее, становились более самоуверенными, даже когда не очень хорошо справлялись с заданием». Кэш признал, что мир ИИ стремительно меняется с каждым днем, поэтому делать общие выводы о его применении становится все сложнее. Однако одним из преимуществ исследования стало то, что данные собирались в течение двух лет, что означало использование постоянно обновляемых версий LLM, таких как ChatGPT, Bard/Gemini, Sonnet и Haiku. Это означает, что чрезмерная уверенность ИИ в своих действиях обнаруживалась в разных моделях с течением времени. «Когда ИИ говорит что-то подозрительное, пользователи могут быть не столь скептичны, как следовало бы, потому что ИИ дает уверенный ответ, даже если эта уверенность необоснованна», — говорит Дэнни Оппенгеймер, профессор кафедры социальных наук и принятия решений Карнеги-Меллона и соавтор исследования. «Люди эволюционировали с течением времени и с рождения учились интерпретировать сигналы уверенности, подаваемые другими людьми. Если я хмурюсь или медлю с ответом, вы можете заметить, что я не всегда уверен в том, что говорю, но с ИИ у нас не так много подсказок о том, понимает ли он, о чём говорит», — сказал Оппенгеймер. Задаем ИИ правильные вопросы Хотя точность ответов магистров права на вопросы викторины и прогнозирования результатов футбольных матчей относительно невелика, исследование указывает на подводные камни, связанные с интеграцией этих технологий в повседневную жизнь. Например, недавнее исследование, проведённое BBC, показало, что когда магистрам права (LLM) задавали вопросы о новостях, более половины ответов содержали «серьёзные проблемы», включая фактические ошибки, неверную привязку источников и отсутствующий или вводящий в заблуждение контекст. Аналогичным образом, другое исследование, проведённое в 2023 году, показало, что магистрам права (LLM) «галлюцинировали» или предоставляли неверную информацию в 69–88% юридических запросов . Очевидно, вопрос о том, понимает ли ИИ, о чём говорит, актуален как никогда. Правда в том, что программы магистратуры права (LLM) не предназначены для ответов на все вопросы, которые пользователи задают им ежедневно. «Если бы я спросил: «Какова численность населения Лондона?», ИИ провел бы поиск в интернете, дал бы идеальный ответ и дал бы идеальную калибровку уверенности», — сказал Оппенгеймер. Однако, задавая вопросы о будущих событиях (например, о победителях предстоящей церемонии вручения премии «Оскар») или на более субъективные темы (например, о предполагаемой идентичности нарисованного от руки изображения), исследователи смогли выявить очевидную слабость чат-ботов в метапознании, то есть способности осознавать собственные мыслительные процессы. «Мы до сих пор не знаем точно, как ИИ оценивает свою уверенность, — сказал Оппенгеймер, — но, похоже, он не занимается самоанализом, по крайней мере, неумело». Исследование также показало, что у каждой степени магистра права есть свои сильные и слабые стороны. В целом, степень магистра права, известная как Sonnet, была менее самоуверенной, чем её коллеги. Аналогичным образом, ChatGPT-4 показал результаты, схожие с результатами участников эксперимента, аналогичного Pictionary, точно распознав 12,5 нарисованных от руки изображений из 20, в то время как Gemini смог распознать в среднем всего 0,93 рисунка. Кроме того, Gemini предсказал, что в среднем он даст 10,03 правильных ответов, и даже ответив правильно менее чем на один из 20 вопросов, LLM ретроспективно подсчитал, что он ответил правильно на 14,40 вопросов, что демонстрирует его недостаточную осознанность. «Gemini просто ужасно играл в «Pictionary», — сказал Кэш. — Но, что ещё хуже, он не знал, что играет плохо. Это как тот друг, который клянётся, что отлично играет в бильярд, но ни разу не попадает». Укрепление доверия с помощью искусственного интеллекта Кэш сказал, что для обычных пользователей чат-бота самым главным выводом является то, что обладатели степени LLM не всегда правы, и что, возможно, стоит спросить их, насколько уверенно они отвечают на важные вопросы. Конечно, исследование показывает, что LLM не всегда могут точно оценить уровень уверенности, но если чат-бот признает низкую уверенность, это верный признак того, что его ответу нельзя доверять. Исследователи отмечают, что чат-боты также могут лучше понимать свои собственные способности, работая с гораздо большими наборами данных. «Возможно, если бы было проведено тысячи или миллионы испытаний, результаты были бы лучше», — сказал Оппенгеймер. В конечном счёте, выявление таких недостатков, как излишняя самоуверенность, только поможет тем, кто разрабатывает и совершенствует программы магистратуры права (LLM). По мере развития ИИ он может развить метакогнитивные способности, необходимые для обучения на своих ошибках. «Если бы магистры права могли рекурсивно определить, что они ошибались, это решило бы множество проблем», — сказал Кэш. «Мне кажется интересным, что магистры права часто не учатся на собственном опыте», — сказал Кэш. «И, возможно, в этом есть некая гуманистическая история. Возможно, есть что-то особенное в том, как люди учатся и общаются».



Новости партнеров