Искусственный интеллект должен знать, когда обращаться за помощью к человеку

Прочитано: 572 раз(а)


Системы искусственного интеллекта являются мощными инструментами для предприятий и правительств для обработки данных и реагирования на меняющиеся ситуации, будь то на фондовом рынке или на поле боя . Но есть некоторые вещи, к которым ИИ не готов.

Мы — ученые в области компьютерных наук, работающие над пониманием и улучшением способов взаимодействия алгоритмов с обществом. Системы искусственного интеллекта работают лучше всего, когда цель ясна и имеются высококачественные данные, например, когда их просят различить разные лица после изучения многих изображений правильно идентифицированных людей.

Иногда системы искусственного интеллекта настолько хороши, что пользователи и наблюдатели удивляются тому, насколько восприимчива технология. Однако иногда успех трудно измерить или определить неверно , или данные обучения не соответствуют поставленной задаче . В этих случаях алгоритмы ИИ, как правило, терпят неудачу непредсказуемым и впечатляющим образом , хотя не всегда сразу очевидно , что что-то даже пошло не так. В результате важно с осторожностью относиться к шумихе и волнению по поводу того, что может делать ИИ, и не предполагать, что найденное им решение всегда является правильным.

Когда работают алгоритмы, должна быть сеть безопасности человека, чтобы предотвратить вред людям. Наше исследование показало, что в некоторых ситуациях алгоритмы могут распознавать проблемы в том, как они работают, и обращаться за помощью к человеку . В частности, мы показываем, что обращение за помощью к людям может помочь уменьшить алгоритмический уклон в некоторых ситуациях.

Насколько верен алгоритм?

Системы искусственного интеллекта используются для вынесения уголовных приговоров , профилирования личности на лице , проверки резюме , регистрации в медицинских учреждениях и других сложных задач, где на карту поставлены жизнь и благополучие людей. Правительственные агентства США начинают расширять свои исследования и использование систем искусственного интеллекта в ответ на недавнее распоряжение президента Дональда Трампа .

Тем не менее, важно помнить, что ИИ может укрепить неправильные представления о том, как решается задача, или усилить существующее неравенство. Это может произойти, даже если никто явно не сказал алгоритму, чтобы он относился к кому-то по-другому.

Искусственный интеллект должен знать, когда обращаться за помощью к человеку

Например, у многих компаний есть алгоритмы, которые пытаются определить особенности человека по его лицу — скажем, угадать его пол. Системы, разработанные американскими компаниями, как правило, значительно лучше классифицируют белых мужчин, чем женщин и темнокожих людей; они хуже всего поступают с темнокожими женщинами. Системы, разработанные в Китае, однако, как правило , хуже на белых лицах .

Разница не в том, что у одной группы есть лица, которые легче классифицировать, чем другие. Скорее, оба алгоритма обычно обучаются на большой коллекции данных, которая не так разнообразна, как общая численность населения. Если в наборе данных преобладают лица определенного типа — белые мужчины в США и китайские лица в Китае — тогда алгоритм, вероятно, будет лучше анализировать эти лица, чем другие.

Независимо от того, как возникает разница, в результате алгоритмы могут быть предвзятыми, если быть более точными в одной группе, чем в другой.

Человеческий взгляд на ИИ

Для ситуаций с высокими ставками уверенность алгоритма в своем собственном результате — его оценка вероятности того, что система пришла к правильному ответу — так же важна, как и сам результат. Люди, которые получают выходные данные алгоритмов, должны знать, насколько серьезно нужно воспринимать результаты, а не предполагать, что это правильно, потому что это связано с компьютером.

Только недавно исследователи начали разрабатывать способы выявления, а тем более попыток исправить неравенства в алгоритмах и данных . Алгоритмы могут быть запрограммированы на распознавание их собственных недостатков — и следовать этому распознаванию с просьбой к человеку помочь с задачей .

Многие типы алгоритмов ИИ уже рассчитывают внутренний уровень достоверности — прогноз того, насколько хорошо он справился с анализом определенного фрагмента входных данных. При анализе лица многие алгоритмы искусственного интеллекта имеют более низкую достоверность на темных лицах и женских лицах, чем на белых мужских лицах. Это неясно , насколько это было принято во внимание правоохранительных органов на высокие лимиты использования этих алгоритмов.

Цель состоит в том, чтобы сам ИИ находил области, где он не достигает одинаковой точности для разных групп. На этих входах ИИ может отложить свое решение до модератора. Этот метод особенно хорошо подходит для задач с интенсивным контекстом, таких как модерация контента .

Модераторы человеческого контента не могут успевать за потоком изображений, размещаемых на сайтах социальных сетей. Но модерирование контента ИИ известно тем, что оно не учитывает контекст, стоящий за публикацией, — неверное определение дискуссий о сексуальной ориентации как явного содержания или определение Декларации независимости как ненавистнических высказываний . Это может привести к неточной цензуре одной демографической или политической группы над другой.

Чтобы получить лучшее из обоих миров, наше исследование предлагает оценивать весь контент в автоматическом режиме, используя те же методы искусственного интеллекта, которые уже используются сегодня. Затем в нашем подходе используются новые предлагаемые методы, позволяющие автоматически определять потенциальные неравенства в точности алгоритма для различных защищенных групп людей и передавать человеку решения, касающиеся определенных лиц. В результате алгоритм может быть абсолютно беспристрастным в отношении тех людей, с которыми он на самом деле решает. И люди выбирают тех людей, где алгоритмическое решение неизбежно создало бы предвзятость.

Этот подход не устраняет предвзятость: он просто «концентрирует» потенциал предвзятости на меньшем наборе решений, которые затем принимаются людьми, используя человеческий здравый смысл. ИИ все еще может выполнять основную часть работы по принятию решений.

Это демонстрация ситуации, когда алгоритм ИИ, работающий вместе с человеком, может пожинать плоды и эффективность хороших решений ИИ, не будучи привязанным к его плохим. У людей будет больше времени для работы над нечеткими, сложными решениями, которые имеют решающее значение для обеспечения справедливости и справедливости.

Искусственный интеллект должен знать, когда обращаться за помощью к человеку

 



Новости партнеров