Должны ли мы беспокоиться о разумности ИИ Google?

Прочитано: 108 раз(а)


От виртуальных помощников, таких как Siri от Apple и Alexa от Amazon, до роботов-пылесосов и беспилотных автомобилей, автоматизированных менеджеров инвестиционных портфелей и маркетинговых ботов, искусственный интеллект стал важной частью нашей повседневной жизни. Тем не менее, думая об ИИ, многие из нас представляют себе человекоподобных роботов, которые, согласно бесчисленным научно-фантастическим историям, однажды станут независимыми и восстанут.

Однако никто не знает, когда люди создадут разумный или разумный ИИ, сказал Джон Басл, доцент философии Северо-восточного колледжа социальных и гуманитарных наук, чьи исследования сосредоточены на этике новых технологий, таких как ИИ и синтетическая биология.

«Когда вы слышите разговоры Google, они говорят так, как будто это не за горами или определенно в нашей жизни», — сказал Басл. «И они очень легкомысленно относятся к этому».

Может быть, именно поэтому недавняя статья Washington Post произвела такой большой фурор. В этой истории инженер Google Блейк Лемуан говорит, что генератор чат-ботов с искусственным интеллектом, LaMDA, с которым он провел многочисленные глубокие беседы, может быть разумным. Это напоминает ему 7- или 8-летнего ребенка, сказал Блейк Washington Post.

Однако Басл считает, что доказательств, упомянутых в статье Washington Post, недостаточно, чтобы сделать вывод о разумности ЛаМДА.

«Реакции типа «Мы создали разумный ИИ», я думаю, чрезвычайно преувеличены», — сказал Басл.

Доказательства, по-видимому, основаны на лингвистических способностях LaMDA и на вещах, о которых он говорит, сказал Басл. Однако LaMDA, языковая модель, была разработана специально для того, чтобы говорить, и функция оптимизации, используемая для ее обучения обработке речи и обращению, стимулирует ее алгоритм для создания этих лингвистических доказательств.

«Это не похоже на то, что мы отправились на чужую планету, и дело в том, что мы никогда не давали никаких стимулов для начала общения с нами [начал задумчиво говорить]», — сказал Бэзл.

Тот факт, что эта языковая модель может обмануть человека, заставив его думать, что он разумен, говорит о ее сложности, но ей потребуются некоторые другие возможности помимо тех, для которых она оптимизирована, чтобы показать разумность, сказал Басл.

Существуют разные определения сознания. Разумный определяется как способность воспринимать или чувствовать вещи и часто сравнивается с разумным.

Басл считает, что разумный ИИ будет иметь минимальное сознание. Он может осознавать пережитый опыт, иметь положительные или отрицательные установки, такие как чувство боли или желание не чувствовать боли, и иметь желания.

«Мы видим такой диапазон возможностей в мире животных», — сказал он.

Например, Басл сказал, что его собака не предпочитает, чтобы мир был одним, а не другим, в каком-либо глубоком смысле, но она явно предпочитает печенье кусочкам.

«Кажется, это отслеживает какую-то внутреннюю ментальную жизнь», — сказал Бэзл. «[Но] она не испытывает ужаса по поводу изменения климата».

Из статьи Washington Post неясно, почему Лемуан сравнивает ЛаМДА с ребенком. Он может иметь в виду, что языковая модель так же умна, как маленький ребенок, или что она способна страдать или желать, как маленький ребенок, сказал Бэсл.

«Это могут быть самые разные вещи. Мы можем создать мыслящий ИИ, у которого нет никаких чувств, и мы можем создать чувствующий ИИ, который не очень хорошо думает», — сказал Басл.

По словам Басла, большинство исследователей в сообществе ИИ, которое состоит из специалистов по машинному обучению, специалистов по искусственному интеллекту , философов, специалистов по этике технологий и ученых-когнитивистов, уже думают об этих далеких будущих проблемах и беспокоятся о мыслительной части.

«Если мы создадим суперумный ИИ, он может нас всех убить», — сказал он.

Однако беспокойство Лемуана связано не с этим, а с обязательством по-другому относиться к быстро меняющимся возможностям ИИ.

«В некотором смысле я сочувствую такому беспокойству. Мы не очень осторожны в отношении того, что это возможно», — сказал Бэсл. «Мы недостаточно думаем о моральных вещах, касающихся ИИ, например, чем мы можем быть обязаны разумному ИИ?»

Он считает, что люди, скорее всего, будут плохо обращаться с разумным ИИ, потому что они, вероятно, не признают, что сделали это, полагая, что он искусственный и ему все равно.

«Мы просто не очень хорошо разбираемся в таких вещах», — сказал Басл.

Не существует хорошей модели, позволяющей узнать, когда ИИ стал разумным. Что, если Google LaMDA не может убедительно выражать свои чувства, потому что он может говорить только через окно чата, а не через что-то еще?

«Мы не можем сделать сканирование мозга, чтобы увидеть, похоже ли оно на нас», — сказал он.

Другой ход мыслей состоит в том, что разумный ИИ вообще может быть невозможен из-за физических ограничений вселенной или ограниченного понимания сознания.

В настоящее время ни одна из компаний, работающих над ИИ, включая крупных игроков, таких как Google, Meta, Microsoft, Apple и правительственные учреждения, не имеет явной цели создания разумного ИИ, сказал Басл. Некоторые организации заинтересованы в разработке AGI, или искусственного общего интеллекта , теоретической формы ИИ, в которой машина, разумная как человек, будет иметь возможность решать широкий круг проблем, учиться и планировать будущее, согласно IBM.

«Я думаю, что реальный урок из этого заключается в том, что у нас нет необходимой инфраструктуры, даже если этот человек ошибается», — сказал Басл, имея в виду Лемуана.

Инфраструктура по вопросам ИИ может быть построена на прозрачности, обмене информацией с государственными и/или государственными учреждениями и регулировании исследований. Basl выступает за создание одного междисциплинарного комитета, который поможет создать такую ​​инфраструктуру, и второго, который будет контролировать технологов, работающих над ИИ, и оценивать исследовательские предложения и результаты.

«Проблема с доказательствами действительно сложна», — сказал Бэсл. «У нас нет хорошей теории сознания, и у нас нет хорошего доступа к свидетельствам существования сознания. Кроме того, у нас также нет инфраструктуры. Это ключевые вещи».

Должны ли мы беспокоиться о разумности ИИ Google?



Новости партнеров