Система управления рисками направлена ​​на повышение надежности искусственного интеллекта

Прочитано: 117 раз(а)


Национальный институт стандартов и технологий (NIST) Министерства торговли США выпустил свою концепцию управления рисками искусственного интеллекта (AI RMF 1.0) — руководство для добровольного использования организациями, проектирующими, разрабатывающими, развертывающими или использующими системы ИИ, чтобы помочь управлять многими риски технологий ИИ.

AI RMF следует указанию Конгресса для NIST по разработке структуры и был разработан в тесном сотрудничестве с частным и государственным секторами. Он предназначен для адаптации к ландшафту ИИ по мере того, как технологии продолжают развиваться, и для использования организациями в разной степени и с разной мощностью, чтобы общество могло получать выгоду от технологий ИИ, а также быть защищенным от их потенциального вреда.

«Эта добровольная структура поможет разработать и внедрить технологии искусственного интеллекта таким образом, чтобы Соединенные Штаты, другие страны и организации могли повысить надежность искусственного интеллекта при одновременном управлении рисками на основе наших демократических ценностей», — сказал заместитель министра торговли Дон Грейвс. «Он должен ускорить инновации и рост ИИ, продвигая, а не ограничивая или нанося ущерб , гражданские права , гражданские свободы и равенство для всех».

По сравнению с традиционным программным обеспечением ИИ представляет ряд различных рисков. Системы искусственного интеллекта обучаются на данных, которые могут меняться со временем, иногда значительно и неожиданно, влияя на системы таким образом, что это может быть трудно понять. Эти системы также являются «социально-техническими» по своей природе, что означает, что на них влияет социальная динамика и поведение человека. Риски ИИ могут возникать из-за сложного взаимодействия этих технических и социальных факторов, влияющих на жизнь людей в различных ситуациях, начиная от их опыта работы с онлайн-чат-ботами и заканчивая результатами подачи заявок на работу и получение кредита.

Эта структура позволяет организациям по-новому взглянуть на ИИ и риски. Он способствует изменению институциональной культуры, побуждая организации подходить к ИИ с новой точки зрения, в том числе о том, как думать, сообщать, измерять и отслеживать риски ИИ и его потенциальные положительные и отрицательные последствия.

AI RMF обеспечивает гибкий, структурированный и измеримый процесс, который позволит организациям устранять риски, связанные с ИИ. Следование этому процессу управления рисками ИИ может максимизировать преимущества технологий ИИ при одновременном снижении вероятности негативного воздействия на отдельных лиц, группы, сообщества, организации и общество.

По словам заместителя министра по стандартам и технологиям и директора NIST Лори Э. Локасио, эта структура является частью более масштабных усилий NIST по укреплению доверия к технологиям искусственного интеллекта, что необходимо для того, чтобы технология была широко принята обществом.

«Структура управления рисками ИИ может помочь компаниям и другим организациям в любом секторе и любом размере ускорить или усовершенствовать свои подходы к управлению рисками ИИ», — сказал Локасио. «Он предлагает новый способ интеграции ответственных практик и практических рекомендаций по внедрению надежного и ответственного ИИ. Мы ожидаем, что AI RMF поможет стимулировать разработку передовых практик и стандартов».

AI RMF разделен на две части. В первой части обсуждается, как организации могут формировать риски, связанные с ИИ, и описываются характеристики надежных систем ИИ. Вторая часть, ядро ​​структуры, описывает четыре конкретные функции — управление, отображение, измерение и управление — чтобы помочь организациям справиться с рисками, связанными с системами ИИ, на практике. Эти функции можно применять в конкретных случаях использования и на любых этапах жизненного цикла ИИ.

Тесно сотрудничая с частным и государственным секторами, NIST разрабатывал AI RMF в течение 18 месяцев. В документе отражено около 400 комплектов официальных комментариев, полученных NIST от более чем 240 различных организаций по черновым версиям фреймворка. Сегодня NIST опубликовал заявления некоторых организаций, которые уже взяли на себя обязательство использовать или продвигать эту структуру.

Агентство также сегодня выпустило сопутствующую добровольную книгу AI RMF Playbook, в которой предлагаются способы навигации и использования этой структуры.

NIST планирует работать с сообществом ИИ, чтобы периодически обновлять структуру, и в любое время приветствует предложения по дополнениям и улучшениям. Комментарии, полученные до конца февраля 2023 года, будут включены в обновленную версию сборника, которая выйдет весной 2023 года.

Кроме того, NIST планирует запустить Trustworthy and Responsible AI Resource Center, чтобы помочь организациям внедрить AI RMF 1.0 на практике. Агентство призывает организации разрабатывать и делиться профилями того, как они будут использовать его в своих конкретных условиях.

Система управления рисками направлена ​​на повышение надежности искусственного интеллекта



Новости партнеров