Искусственный интеллект представляет собой риск «вымирания»

Прочитано: 201 раз(а)


Мировые лидеры должны работать над снижением «риска исчезновения» технологий искусственного интеллекта, предупредила во вторник группа руководителей отрасли и экспертов.

В однострочном заявлении, подписанном десятками специалистов, в том числе Сэмом Альтманом, чья фирма OpenAI создала бота ChatGPT, говорится, что устранение рисков, связанных с ИИ, должно быть «глобальным приоритетом наряду с другими рисками общественного масштаба, такими как пандемии и ядерная война».

ChatGPT ворвался в центр внимания в конце прошлого года, продемонстрировав способность генерировать эссе, стихи и разговоры по самым кратким подсказкам.

Ошеломительный успех программы вызвал золотую лихорадку с миллиардами долларов инвестиций в эту область, но критики и инсайдеры забили тревогу.

Общие опасения включают в себя возможность того, что чат-боты могут наводнить сеть дезинформацией, что предвзятые алгоритмы будут штамповать расистские материалы или что автоматизация на основе ИИ может уничтожить целые отрасли.

Сверхразумные машины

В последнем заявлении, размещенном на веб-сайте американского некоммерческого Центра безопасности ИИ, не содержится никаких подробностей о потенциальной угрозе существованию, которую представляет ИИ.

В центре заявили, что «краткое заявление» было призвано открыть дискуссию об опасностях технологии.

Несколько подписавшихся, в том числе Джеффри Хинтон, который создал некоторые технологии, лежащие в основе систем искусственного интеллекта, и известен как один из крестных отцов отрасли, делали аналогичные предупреждения в прошлом.

Больше всего их беспокоило появление так называемого искусственного общего интеллекта (ИИА) — слабо определенной концепции на тот момент, когда машины смогут выполнять широкий спектр функций и могут разрабатывать свои собственные программы.

Опасения заключаются в том, что люди больше не смогут контролировать сверхразумные машины, которые, как предупреждают эксперты, могут иметь катастрофические последствия для вида и планеты.

Заявление подписали десятки ученых и специалистов из компаний, включая Google и Microsoft — лидеров в области искусственного интеллекта.

Это произошло через два месяца после того, как глава Tesla Илон Маск и сотни других опубликовали открытое письмо с призывом приостановить разработку такой технологии до тех пор, пока не будет доказано, что она безопасна.

Однако письмо Маска вызвало широкую критику за то, что страшные предупреждения об общественном коллапсе были сильно преувеличены и часто отражали тезисы сторонников ИИ.

Ученый из США Эмили Бендер, соавтор влиятельных статей с критикой ИИ, сказала, что мартовское письмо, подписанное сотнями известных деятелей, «пропитано шумихой вокруг ИИ».

«Удивительно беспристрастный»

Бендер и другие критики обрушились с критикой на фирмы, занимающиеся искусственным интеллектом, за отказ опубликовать источники своих данных или рассказать, как они обрабатываются — так называемая проблема «черного ящика».

Среди критических замечаний есть то, что алгоритмы могут быть обучены расистским, сексистским или политически предвзятым материалам.

Альтман, который в настоящее время путешествует по миру, пытаясь помочь сформировать глобальную дискуссию об ИИ, несколько раз намекал на глобальную угрозу, которую представляет технология, которую разрабатывает его фирма.

«Если с ИИ что-то пойдет не так, никакие противогазы вам не помогут», — сказал он небольшой группе журналистов в Париже в прошлую пятницу.

Но он защищал отказ своей фирмы публиковать исходные данные, говоря, что критики на самом деле просто хотели знать, были ли модели предвзятыми.

«Там важно, как это работает в тесте на расовую предвзятость», — сказал он, добавив, что последняя модель была «на удивление беспристрастной».

Искусственный интеллект представляет собой риск «вымирания»



Новости партнеров