Присвоение статуса антропогенного риска в цепочке поставок может замедлить инновации

Прочитано: 132 раз(а)


По мнению эксперта из Северо-восточного университета, присвоение Пентагоном ведущей в отрасли компании Anthropic, занимающейся разработкой искусственного интеллекта, статуса «риска для цепочки поставок» свидетельствует о том, что правительство США может использовать свои полномочия в области управления цепочками поставок в качестве рычага давления на переговорах с американскими компаниями.

Для технологических компаний, работающих с федеральными агентствами, «это создает новую реальность», — сказала Нада Сандерс, профессор управления цепочками поставок в Северо-восточном университете.

«Это может означать, что условия контракта станут менее подлежащими обсуждению. Это изменит баланс сил между Силиконовой долиной и Вашингтоном», — добавила она.

Компания Anthropic получила статус «риска в цепочке поставок» после того, как не смогла достичь соглашения с Министерством войны США (ранее Министерством обороны США) по оборонному контракту на сумму 200 миллионов долларов.

Ведомство отказалось согласиться с утверждением компании о том, что ее модели ИИ не должны использоваться для создания полностью автономного оружия без вмешательства человека, а также для массового внутреннего наблюдения. Оно утверждает, что имеет право использовать любую модель ИИ для любого применения, которое сочтет целесообразным, если это подпадает под «законное» использование.

Сандерс заявил, что присвоение статуса «риск в цепочке поставок» является значительным и беспрецедентным наказанием для американской компании.

В прошлом правительство присваивало этот статус иностранным компаниям, таким как китайские технологические фирмы Huawei и ZTE, чьи дела «были связаны с опасениями по поводу государственного влияния, доступа к данным и контроля над критически важной телекоммуникационной инфраструктурой», — сказал Сандерс.

«В общих чертах, когда компания считается «риском для цепочки поставок», это обычно означает, что правительства считают, что ведение бизнеса с этой компанией может создать уязвимости для национальной безопасности, критической инфраструктуры, целостности данных или экономической стабильности», — сказал Сандерс.

Но Anthropic — американская компания, поэтому традиционная модель взаимодействия с иностранным юридическим лицом в данном случае не работает, сказал Сандерс, и вместо этого ответные меры правительства, похоже, носят преимущественно ответный характер.

«Одна из главных проблем заключается в том, что такое обозначение американской компании, занимающейся искусственным интеллектом , — особенно в качестве очевидной мести за ее переговорную позицию, — может затормозить инновации», — сказала она. «Компании могут колебаться в разработке мер безопасности или этических норм, если это может привести к исключению из государственных рынков».

Компания Anthropic имеет давнюю историю сотрудничества с Пентагоном, будучи первой компанией, разработавшей собственный класс больших языковых моделей для использования в секретных сетях правительства.

Однако в заявлении, сделанном всего за день до присвоения статуса «рискованной цепочки поставок», генеральный директор Anthropic Дарио Амодей объяснил, почему компания не станет переступать две «красные линии».

Комментируя перспективу использования технологии Anthropic для массового наблюдения за внутренним пространством, Амодей написал, что это было бы «несовместимо с демократическими ценностями».

Что касается использования своих технологий для создания полностью автономного оружия, компания Amodei заявила, что современные передовые модели искусственного интеллекта — самые совершенные и мощные модели обработки больших языковых данных — «просто недостаточно надежны».

В сообщении на X министр обороны Пит Хегсет написал, что ни один подрядчик, поставщик или партнер, работающий с вооруженными силами США, не может использовать модели Anthropic, и что в течение следующих шести месяцев правительство постепенно откажется от использования инструментов компании.

Президент Дональд Трамп подтвердил это, объявив на своей платформе в социальных сетях Truth Social , что правительство прекратит использовать модели компании Anthropic.

Ранее министерство угрожало использовать Закон о производстве продукции оборонного назначения, чтобы заставить компанию Anthropic разрешить правительству использовать её технологии. Закон о производстве продукции оборонного назначения предоставляет президенту возможность направлять частные компании на нужды национальной обороны, но неясно, сможет ли правительство использовать его в будущем.

В ответ компания Anthropic заявила, что Министерство обороны не имеет полномочий запрещать организациям, сотрудничающим с военными, вести дела с Клодом. По мнению компании, это обозначение распространяется только на контракты с Министерством обороны. Она также заявила о намерении подать в суд на правительство из-за присвоения ей статуса «риска в цепочке поставок».

Спустя несколько часов после того, как переговоры между компанией Anthropic и Министерством обороны провалились, другая крупная американская компания, занимающаяся искусственным интеллектом, OpenAI, объявила о подписании собственного контракта с министерством. Хотя в последние дни генеральный директор OpenAI Сэм Альтман заявил, что, оглядываясь назад, сделка была « небрежной », и что он работает над ее пересмотром.

В сообщении своим сотрудникам Амодей заявил, что сделка OpenAI с правительством была «театрализованной игрой на тему безопасности», и администрация Трампа была недовольна компанией, потому что она не «оказывала Трампу похвалу в диктаторском стиле», как сообщает издание The Information.

Усама Файяд, старший проректор по стратегии в области искусственного интеллекта и данных в Северо-восточном университете, заявил, что эскалация действий правительства США против компании Anthropic создала «плохой прецедент».

«Неясно, законно ли это или останется ли это в силе, но это нанесет серьезный экономический, научный и инженерный ущерб, поскольку все застынут в страхе, а США отстанут от других стран в ожидании решения», — сказал он.

Файяд заявил, что, преследуя Anthropic таким образом, правительство США подает сигнал другим компаниям, занимающимся искусственным интеллектом, не пересекаться с ним, «а это неразумный шаг в демократическом обществе».

И «пока эта ситуация не разрешится, это может привести к резкому падению бизнеса антропогенных предприятий, поскольку многие другие предприятия будут колебаться, прежде чем столкнуться с этой ситуацией, напоминающей «клеймо позора»», — сказал он.

Присвоение статуса антропогенного риска в цепочке поставок может замедлить инновации



Новости партнеров