Философ утверждает, что мы, возможно, никогда не сможем сказать, станет ли искусственный интеллект сознательным

Прочитано: 75 раз(а)


Философ из Кембриджского университета утверждает, что имеющиеся у нас данные о том, что составляет сознание, слишком ограничены, чтобы сказать, совершил ли искусственный интеллект этот скачок и когда это произошло, — и достоверный тест для этого останется недоступным в обозримом будущем.

Поскольку искусственное сознание переходит из области научной фантастики в сферу насущной этической проблемы, доктор Том Макклелланд утверждает, что единственной «оправданной позицией» является агностицизм: мы просто не сможем этого определить, и это не изменится еще долгое время — если вообще когда-либо изменится.

Хотя вопросы прав ИИ обычно связывают с сознанием, Макклелланд утверждает, что одного лишь сознания недостаточно, чтобы ИИ имел этическое значение. Важен особый тип сознания, известный как чувственность, который включает в себя как позитивные, так и негативные чувства.

«Появление сознания позволит искусственному интеллекту развить способность к восприятию и обрести самосознание, но это все еще может быть нейтральным состоянием», — сказал Макклелланд из Кембриджского факультета истории и философии науки.

« Разумность предполагает осознанные переживания, которые могут быть хорошими или плохими, именно это делает существо способным к страданию или наслаждению. Вот тут-то и вступает в игру этика», — сказал он. «Даже если мы случайно создадим сознательный ИИ, вряд ли это будет тот тип сознания, о котором нам стоит беспокоиться».

«Например, беспилотные автомобили, которые видят дорогу перед собой, — это было бы огромным прорывом. Но с этической точки зрения это не имеет значения. Если же они начнут эмоционально реагировать на пункт назначения, это уже совсем другое дело».

Дискуссии и проблемы в области сознания ИИ

Компании вкладывают огромные средства в разработку искусственного общего интеллекта: машин с человекоподобными когнитивными способностями. Некоторые утверждают, что сознательный ИИ уже не за горами, и исследователи и правительства уже рассматривают вопросы регулирования сознания в ИИ.

Макклелланд отмечает, что мы не знаем, что объясняет сознание, поэтому не знаем, как проверить наличие сознания у искусственного интеллекта.

«Если мы случайно создадим сознательный или разумный ИИ, нам следует быть осторожными и избегать причинения вреда. Но считать сознательным тостер, по сути, в то время как существуют реальные сознательные существа, которым мы причиняем вред в эпических масштабах, тоже кажется большой ошибкой».

В дебатах об искусственном сознании существуют два основных лагеря, говорит Макклелланд. Сторонники утверждают, что если система ИИ сможет воспроизвести «программное обеспечение» — функциональную архитектуру — сознания, то она будет обладать сознанием, даже несмотря на то, что работает на кремниевых чипах, а не на тканях мозга.

С другой стороны, скептики утверждают, что сознание зависит от правильных биологических процессов в «воплощенном органическом субъекте». Даже если бы структуру сознания можно было воссоздать на кремнии, это была бы всего лишь симуляция, которая работала бы без мгновенного пробуждения ИИ к осознанию.

Ограничения современного понимания и имеющихся данных

В исследовании, опубликованном в журнале Mind and Language, Макклелланд анализирует позиции каждой из сторон, показывая, как обе делают «прыжок веры», выходящий далеко за рамки любых существующих или потенциально развивающихся доказательств.

«У нас нет глубокого объяснения сознания. Нет никаких доказательств того, что сознание может возникнуть при наличии соответствующей вычислительной структуры, или что сознание по своей сути является биологическим», — сказал Макклелланд.

«И никаких признаков появления достаточных доказательств в ближайшем будущем нет. В лучшем случае нас отделяет всего лишь интеллектуальная революция от создания каких-либо жизнеспособных тестов на сознание».

«Я верю, что моя кошка обладает сознанием, — сказала Макклелланд. — Это основано не столько на науке или философии, сколько на здравом смысле — это просто очевидно».

«Однако здравый смысл — продукт долгой эволюционной истории, в течение которой не существовало искусственных форм жизни, поэтому здравому смыслу нельзя доверять, когда речь идёт об ИИ. Но если мы посмотрим на доказательства и данные, то и это не сработает».

«Если ни здравый смысл, ни серьезные исследования не могут дать нам ответ, логичнее всего придерживаться агностицизма. Мы не можем и, возможно, никогда не узнаем».

Ажиотаж в отрасли и этические последствия

Макклелланд смягчает это, заявляя, что он «довольно строгий» агностик. «Проблема сознания — поистине сложная. Однако она может быть и не непреодолимой».

Он утверждает, что способ продвижения искусственного сознания технологической индустрией больше похож на брендинг.

«Существует риск того, что неспособность доказать наличие сознания будет использована индустрией ИИ для того, чтобы делать нелепые заявления о своих технологиях. Это станет частью ажиотажа, и компании смогут продавать идею о новом уровне интеллекта в области ИИ».

По словам Макклелланда, ажиотаж вокруг искусственного сознания имеет этические последствия для распределения исследовательских ресурсов.

«Все больше данных свидетельствует о том, что креветки способны испытывать страдания, однако мы убиваем около полутриллиона креветок каждый год. Проверить наличие сознания у креветок сложно, но это ничто по сравнению со сложностью проверки наличия сознания у искусственного интеллекта», — сказал он.

Работа Макклелланда над проблемой сознания привела к тому, что к нему стали обращаться представители общественности по поводу чат-ботов с искусственным интеллектом. «Люди заставляют своих чат-ботов писать мне личные письма, умоляя меня признать, что они обладают сознанием. Это делает проблему более конкретной, когда люди убеждаются, что у них есть сознательные машины, заслуживающие прав, которые мы все игнорируем».

«Если у вас есть эмоциональная связь с чем-то, основанная на предположении о его осознанности, а это не так, это может привести к экзистенциальной токсичности. Это, безусловно, усугубляется раздутой риторикой технологической индустрии».

Философ утверждает, что мы, возможно, никогда не сможем сказать, станет ли искусственный интеллект сознательным



Новости партнеров