Большинство людей игнорируют искусственный интеллект, несмотря на безупречный совет

Прочитано: 45 раз(а)
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (Оценок пока нет)
Loading ... Loading ...


Если бы вы были уверены, что знаете дорогу домой, вы все равно бы включили свой GPS?

Армейские ученые недавно попытались ответить на аналогичный вопрос из-за постоянной обеспокоенности тем, что искусственный интеллект, который может быть непрозрачным и разочаровывающим для многих людей, может не помочь в принятии решений на поле боя.

«Армия США продолжает настаивать на модернизации своих войск, при этом заметными усилиями являются разработка программного обеспечения для смартфонов для доставки информации в режиме реального времени, такого как Android Tactical Assault Kit или ATAK, и выделение значительного финансирования на исследования новых ИИ и методы машинного обучения для помощи командному и контрольному персоналу », — сказал доктор Джеймс Шаффер, научный сотрудник Исследовательской лаборатории армии RDECOM, Корпоративной исследовательской лаборатории армии (ARL), в ARL West в Плайя-Виста, Калифорния.

По словам Шаффера, несмотря на эти достижения, значительный пробел в базовых знаниях об использовании ИИ все еще существует, и неизвестно, какие факторы ИИ будут или не будут помогать процессам принятия военных решений.

Университетские и корпоративные исследования значительно продвинулись в решении этой проблемы для таких приложений, как рекомендации фильмов и ресторанов, но результаты не совсем соответствуют военному миру.

«Например, многие исследования и A / B-тестирование, например, проведенные Amazon, экспериментировали с различными формами убеждения, аргументации и стилями пользовательского интерфейса, чтобы определить выигрышную комбинацию, которая перемещает большинство продуктов или вызывает наибольшее доверие». Сказал Шаффер. «К сожалению, между допущениями в этих областях низкого риска и военной практикой существует большой разрыв».

Армейские исследования, в которых участвовали армейские ученые и университетские исследователи из Калифорнийского университета в Санта-Барбаре, выдвигают гипотезу о том, что многие люди доверяют своим собственным способностям гораздо больше, чем компьютерным, что повлияет на их суждение, когда они вынуждены выступать.


По словам Шаффера, это означает, что даже если бы безупречный ИИ мог быть создан, некоторые люди не стали бы прислушиваться к совету ИИ.

Исследователи создали абстрактную игру, похожую на «Дилемму итеративного заключенного» — игру, в которой игроки должны сотрудничать со своими товарищами в каждом раунде или участвовать в них, чтобы контролировать все соответствующие факторы.

Дилемма «Итеративного заключенного» использовалась в отношении нескольких реальных проблем, таких как гонки вооружений, публичное распределение ресурсов и международная политика.

Исследовательская группа разработала онлайн-версию игры, в которой игроки получали очки, принимая правильные решения в каждом раунде.

ИИ использовался для генерации совета в каждом раунде, который показывался рядом с игровым интерфейсом, и предлагал, какое решение должен принять игрок.

Исследователи имели возможность разработать ИИ, который всегда рекомендовал оптимальный курс действий.

Однако, как и в реальной жизни, игроки должны были получить доступ к совету ИИ вручную, так же как вы должны были вручную включить GPS, и были свободны принять или проигнорировать его предложение.

Исследователи также представили различные версии этого ИИ — некоторые были намеренно неточными, некоторые требовали ввода информации об игре вручную, а некоторые обосновывали свои предложения рациональными аргументами.

Все варианты этих методов лечения ИИ были протестированы, чтобы можно было изучить эффекты взаимодействия между конфигурациями ИИ.

Люди были приглашены играть в онлайн игру, а исследователи собирали информацию о каждом игроке и следили за его поведением.

Для каждого игрока исследователи спрашивали об их знакомстве с игрой, а также измеряли их истинную компетентность.

Кроме того, в середине игры был проведен тест, который измерял осведомленность об элементах игрового процесса.

«То, что было обнаружено, может беспокоить некоторых сторонников ИИ, две трети человеческих решений не согласны с ИИ, независимо от количества ошибок в предложениях», — сказал Шаффер.

Чем выше игрок оценил свое знакомство с игрой заранее, тем меньше ИИ использовался, эффект, который все еще наблюдался при контроле точности ИИ. Это означает, что повышение точности системы не сможет повысить ее адаптацию в этой группе.

«Это может быть безвредным результатом, если эти игроки действительно чувствуют себя лучше, но на самом деле они играют значительно хуже, чем их более скромные сверстники, которые сообщили, что раньше знали меньше об игре», — сказал Шаффер. «Когда ИИ пытался оправдать свои предложения игрокам, которые сообщили о высоком уровне знакомства с игрой, наблюдалось снижение осведомленности об элементах игрового процесса как признак чрезмерного доверия и самоуспокоенности».

Несмотря на эти выводы, соответствующее увеличение согласия с предложениями AI не наблюдалось.

По словам Шаффера, это является ключевым моментом для разработчиков систем: некомпетентные пользователи больше всего нуждаются в ИИ, но с наименьшей вероятностью будут склонны к разумным оправданиям.

Некомпетентные пользователи также чаще всего говорили, что доверяют ИИ, который изучался с помощью опросника после игры.

«Это резко контрастирует с наблюдаемым ими пренебрежением предложениями ИИ, демонстрирующими, что люди не всегда честны или не всегда осознают свое поведение», — сказал Шаффер.

Для Шаффера и его команды это исследование высвечивает текущие проблемы в области использования сложных непрозрачных систем, таких как ИИ, несмотря на постоянный рост точности, надежности и скорости.

«Рациональные аргументы были продемонстрированы как неэффективные для некоторых людей, поэтому разработчикам, возможно, нужно быть более креативными в разработке интерфейсов для этих систем», — сказал Шаффер.

Шаффер сказал, что это может быть достигнуто путем апеллирования к эмоциям или конкуренции, или даже путем удаления присутствия из ИИ, так что пользователи не регистрируют его присутствие и, таким образом, не привязывают свои собственные способности.

«Несмотря на проблемы во взаимодействии человека с компьютером, системы, подобные ИИ, будут неотъемлемой частью стратегии армии в течение следующих пяти лет», — сказал Шаффер. «Одной из основных проблем, стоящих сегодня перед военными операциями, является быстрое реагирование со стороны партизанских противников, которые часто имеют более короткие командные цепочки и, таким образом, могут действовать и реагировать быстрее, чем вооруженные силы США. Сложные системы, которые могут быстро реагировать на изменяющуюся обстановку и ускорять передачу информации Поток может улучшить время отклика и помочь поддерживать оперативный темп, но только при условии достаточного доверия со стороны пользователей. »

Исследовательская группа продолжает экспериментировать с различными интерфейсами для систем искусственного интеллекта, чтобы все типы людей могли пользоваться все более эффективными автоматизированными знаниями.

Большинство людей игнорируют искусственный интеллект, несмотря на безупречный совет



Новости партнеров

Загрузка...