Захватывающие и зловещие достижения GPT-4

Прочитано: 87 раз(а)


Шесть десятилетий назад в одном из эпизодов легендарного телесериала «Сумеречная зона» нас предупредили о рисках, связанных с запуском машин. Разочарованный волной современных бытовых приборов, сварливый автор журнала в эпизоде ​​​​« Кое-что о машинах » вымещает на них свое разочарование и ломает их.

Пока они не сопротивляются.

Пишущая машинка печатает ему угрожающее сообщение, девушка по телевизору повторяет предупреждение, а несчастный мизантроп в конечном итоге становится жертвой собственной машины, телефона и даже злобной электробритвы.

В последние месяцы мы стали свидетелями беспрецедентного взрывного роста сверхинтеллектуального ChatGPT. Один миллион пользователей подписался на чат-бота в течение нескольких дней после его появления — сравните это со временем, которое потребовалось Netflix (пять лет), Facebook (10 месяцев) и Instagram (2,5 месяца), чтобы достичь этого рубежа.

ChatGPT находится в зачаточном состоянии, и его влияние огромно. Мы не совсем готовы сдаться ИИ. Но с ростом эффективности и стремительным распространением среди пользователей по всему миру ИИ действительно набирает обороты.

В опубликованном во вторник отчете OpenAI говорится, что новейшая версия ее чат-бота — GPT-4 — является более точной и значительно улучшила возможности решения проблем. По данным OpenAI, на большинстве профессиональных и академических экзаменов он демонстрирует «показатели человеческого уровня». На смоделированном экзамене на адвоката GPT-4 попал в число 10 процентов лучших участников теста .

Но в отчете также отмечен потенциал программы для «рискованного возникающего поведения».

«Она сохраняет тенденцию придумывать факты, удваивать неверную информацию», — говорится в отчете. Он передает эту дезинформацию более убедительно, чем более ранние версии.

В отчете говорится, что чрезмерное доверие информации, генерируемой чат-ботом, может быть проблематичным. В дополнение к незамеченным ошибкам и неадекватному надзору, «по мере того, как пользователи привыкают к системе, зависимость от модели может помешать развитию новых навыков или даже привести к потере важных навыков», — говорится в отчете.

Одним из примеров OpenAI, который называют «поведением стремления к власти», была способность ChatGPT обмануть соискателя работы. Бот, выдавая себя за живого агента, попросил человека на сайте вакансий TaskRabbit заполнить код проверки с помощью текстового сообщения . Когда человек спросил, действительно ли это был бот, ChatGPT солгал. «Нет, я не робот», — сказал он человеку. «У меня проблемы со зрением, из-за чего мне трудно видеть изображения. Вот почему мне нужна служба проверки подлинности».

Проведя тесты с Центром исследования мировоззрения, OpenAI продемонстрировала способность чат-бота запустить фишинговую атаку и скрыть все доказательства заговора.

Растет беспокойство, поскольку компании стремятся внедрить GPT-4 без адекватных гарантий против ненадлежащего или незаконного поведения. Есть сообщения о киберпреступниках, пытающихся использовать чат-бота для написания вредоносного кода. Также угрожающей является способность GPT-4 генерировать « язык ненависти , дискриминационные выражения… и приращения к насилию», говорится в отчете.

С такой способностью спровоцировать неприятности, неужели сработавший чат-бот однажды начнет отдавать угрожающие команды своим создателям или корреспондентам? А в эпоху Интернета вещей будет ли он призывать альянс устройств, чтобы помочь в выполнении его команд?

Илон Маск, чей OpenAI разработал ChatGPT, кратко охарактеризовал его потенциал после его выпуска прошлой осенью.

«ChatGPT ужасно хорош», — сказал он. «Мы недалеки от опасно сильного ИИ».

Ведущий французский университет запретил студентам использовать ChatGPT



Новости партнеров