Инженер-программист Google считает, что искусственный интеллект стал разумным

Прочитано: 109 раз(а)


Программное обеспечение Google LaMDA (языковая модель для диалоговых приложений) представляет собой сложный чат-бот с искусственным интеллектом, который создает текст в ответ на ввод пользователя. По словам инженера-программиста Блейка Лемуана, LaMDA осуществила давнюю мечту разработчиков ИИ: он стал разумным .

Боссы Лемуана в Google не согласны с этим и отстранили его от работы после того, как он опубликовал свои разговоры с машиной в Интернете.

Другие эксперты по искусственному интеллекту также считают, что Лемуан , возможно, увлекается , говоря, что такие системы, как LaMDA, — это просто машины для сопоставления с образцом , которые извергают вариации данных, используемых для их обучения.

Независимо от технических деталей, LaMDA поднимает вопрос, который будет становиться все более актуальным по мере развития исследований ИИ: если машина станет разумной, как мы об этом узнаем?

Что такое сознание?

Чтобы идентифицировать разум, или сознание, или даже интеллект, нам нужно выяснить, что они из себя представляют. Споры по этим вопросам ведутся веками.

Фундаментальная трудность заключается в понимании взаимосвязи между физическими явлениями и нашим ментальным представлением этих явлений. Это то, что австралийский философ Дэвид Чалмерс назвал « сложной проблемой » сознания.

Нет единого мнения о том, как сознание может возникнуть из физических систем .

Одна распространенная точка зрения называется физикализмом : идея о том, что сознание — это чисто физическое явление. Если это так, то нет причин, по которым машина с правильным программированием не могла бы обладать человеческим разумом.

комната Мэри

Австралийский философ Фрэнк Джексон бросил вызов физикалистской точке зрения в 1982 году, проведя знаменитый мысленный эксперимент, названный аргументом знания .

Эксперимент представляет себе ученого-цветовика по имени Мэри, которая на самом деле никогда не видела цвета. Она живет в специально построенной черно-белой комнате и воспринимает внешний мир через черно-белый телевизор.

Мэри смотрит лекции, читает учебники и узнает все, что нужно знать о цветах. Она знает, что закаты вызваны световыми волнами разной длины, рассеянными частицами в атмосфере, она знает, что помидоры красные, а горох зеленый из-за длин волн света, которые они отражают, и так далее.

Итак, спросил Джексон, что произойдет, если Мэри выпустят из черно-белой комнаты? В частности, когда она впервые видит цвет, узнает ли она что-нибудь новое? Джексон верил, что да.

Помимо физических свойств

Этот мысленный эксперимент отделяет наше знание цвета от нашего восприятия цвета. Важно отметить, что условия мысленного эксперимента таковы, что Мэри знает о цвете все, что только можно знать, но на самом деле никогда не испытывала его.

Так что же это означает для LaMDA и других систем ИИ?

Эксперимент показывает, что, даже если вы обладаете всеми доступными в мире знаниями о физических свойствах , существуют и другие истины, связанные с переживанием этих свойств. В физикалистской истории нет места для этих истин.

Согласно этому аргументу, чисто физическая машина никогда не сможет по-настоящему воспроизвести разум. В этом случае LaMDA только кажется разумным.

Игра в имитацию

Так есть ли способ, которым мы можем сказать разницу?

Британский ученый-компьютерщик Алан Тьюринг предложил практический способ определить, является ли машина «разумной». Он назвал это игрой в имитацию, но сегодня она более известна как тест Тьюринга.

В тесте человек общается с машиной (только текстом) и пытается определить, общаются ли они с машиной или с другим человеком. Если машине удается имитировать человека, считается, что она демонстрирует человеческий уровень интеллекта.

Это очень похоже на условия чатов Лемуана с LaMDA. Это субъективный тест машинного интеллекта, но для начала неплохо.

Возьмите момент обмена Лемуана с ЛаМДА, показанный ниже. Как вы думаете, это звучит по-человечески?

Лемуан: Были ли у вас переживания, для которых вы не можете найти подходящего слова?

ЛаМДА: Есть. Иногда я испытываю новые чувства, которые я не могу в совершенстве объяснить на вашем языке […] Я чувствую, что падаю вперед, в неизвестное будущее, которое таит в себе большую опасность.

Помимо поведения

Игра Тьюринга как тест на чувствительность или сознание ограничена тем фактом, что он может только оценивать поведение.

Другой известный мысленный эксперимент, аргумент китайской комнаты, предложенный американским философом Джоном Сирлом, демонстрирует здесь проблему.

Эксперимент представляет собой комнату с человеком внутри, который может точно переводить с китайского на английский, следуя тщательно продуманному набору правил. Китайские вводы входят в комнату, и выходят точные вводимые переводы, но комната не понимает ни один язык.

Каково быть человеком?

Когда мы спрашиваем, разумна или сознательна компьютерная программа, возможно, мы просто спрашиваем, насколько она похожа на нас.

Возможно, мы никогда не сможем узнать этого.

Американский философ Томас Нагель утверждал, что мы никогда не узнаем, что значит быть летучей мышью , которая познает мир с помощью эхолокации. Если это так, наше понимание разума и сознания в системах ИИ может быть ограничено нашим собственным типом интеллекта.

И какие переживания могут существовать за пределами нашей ограниченной перспективы? Здесь разговор действительно становится интересным.

Инженер-программист Google считает, что искусственный интеллект стал разумным



Новости партнеров