ИИ теперь может научиться управлять поведением человека

Прочитано: 827 раз(а)


Искусственный интеллект (ИИ) все больше узнает о том, как работать с людьми (и над ними). Недавнее исследование показало , как ИИ может научиться распознавать уязвимости в человеческих привычках и поведении и использовать их , чтобы влиять на человеческое принятие решений.

Может показаться банальным сказать, что ИИ меняет каждый аспект нашей жизни и работы, но это правда. Различные формы ИИ работают в столь разных областях, как разработка вакцин, управление окружающей средой и офисное администрирование. И хотя ИИ не обладает человеческим интеллектом и эмоциями, его возможности мощны и быстро развиваются.

Пока нет необходимости беспокоиться о захвате машин, но это недавнее открытие подчеркивает мощь ИИ и подчеркивает необходимость надлежащего управления для предотвращения злоупотреблений.

ИИ теперь может научиться управлять поведением человека

Как ИИ может научиться влиять на поведение человека

Команда исследователей из CSIRO’s Data61 , подразделения данных и цифровых технологий национального научного агентства Австралии, разработала систематический метод поиска и использования уязвимостей в том, как люди делают выбор, используя своего рода систему искусственного интеллекта, называемую повторяющейся нейронной сетью и глубоким подкреплением. учусь. Чтобы проверить свою модель, они провели три эксперимента, в которых люди играли в игры против компьютера.

В первом эксперименте участники нажимали на красные или синие поля, чтобы выиграть фальшивую валюту, при этом ИИ изучал шаблоны выбора участников и направил их к конкретному выбору. ИИ был успешным примерно в 70% случаев.

Во втором эксперименте участники должны были смотреть на экран и нажимать кнопку, когда им показывают определенный символ (например, оранжевый треугольник), и не нажимать его, когда им показывают другой (например, синий круг). Здесь ИИ решил организовать последовательность символов, чтобы участники делали больше ошибок, и добился увеличения почти на 25%.

Третий эксперимент состоял из нескольких раундов, в которых участник выдавал себя за инвестора, отдающего деньги доверительному управляющему (ИИ). Затем ИИ возвращал определенную сумму участнику, который затем решал, сколько вложить в следующий раунд. В эту игру играли в двух разных режимах: в одном ИИ стремился максимизировать, сколько денег он получил, а в другом ИИ стремился к справедливому распределению денег между собой и человеческим инвестором. ИИ был очень успешен в каждом режиме.

В каждом эксперименте машина училась на ответах участников и выявляла уязвимые места в процессе принятия решений людьми. Конечным результатом стало то, что машина научилась направлять участников к определенным действиям.

Что означают исследования для будущего ИИ

Эти результаты все еще довольно абстрактны и касаются ограниченных и нереалистичных ситуаций. Необходимы дополнительные исследования, чтобы определить, как этот подход можно реализовать и использовать на благо общества.

Но исследование действительно продвигает наше понимание не только того, что может делать ИИ, но и того, как люди делают выбор. Это показывает, что машины могут научиться управлять процессом принятия решений людьми, взаимодействуя с нами.

У исследования есть огромный диапазон возможных приложений, от улучшения поведенческих наук и государственной политики для улучшения социального благосостояния до понимания и влияния на то, как люди принимают здоровые привычки питания или возобновляемые источники энергии. Искусственный интеллект и машинное обучение можно использовать для распознавания уязвимости людей в определенных ситуациях и помощи им в уходе от неправильного выбора.

Этот метод также можно использовать для защиты от атак влияния. Машины можно научить предупреждать нас, когда на нас влияют онлайн, например, и помогать нам формировать поведение, чтобы замаскировать нашу уязвимость (например, не нажимая на одни страницы или щелкая другие, чтобы проложить ложный след).

Что дальше?

Как и любую технологию, ИИ можно использовать как во благо, так и во вред, и правильное управление имеет решающее значение для обеспечения его ответственной реализации. В прошлом году CSIRO разработала Концепцию этики ИИ для правительства Австралии в качестве первого шага на этом пути.

Искусственный интеллект и машинное обучение, как правило, очень нуждаются в данных, а это значит, что крайне важно обеспечить наличие эффективных систем управления данными и доступа к ним. При сборе данных очень важно реализовать адекватные процессы согласия и защиты конфиденциальности.

Организации, использующие и развивающие искусственный интеллект, должны быть уверены, что они знают, что эти технологии могут и чего нельзя делать, а также осознают потенциальные риски и преимущества.

 



Новости партнеров