Ученые работают над созданием этически выровненного ИИ

Прочитано: 148 раз(а)


Чем больше агентов ИИ развертываются в сценариях с возможными неожиданными ситуациями, тем больше им нужно быть гибкими, адаптивными и творческими в достижении своих целей. Таким образом, определенная степень свободы выбора наилучшего пути к конкретной цели необходима для того, чтобы сделать ИИ надежным и достаточно гибким для успешного развертывания в реальных сценариях.

Это особенно верно, когда системы ИИ решают сложные проблемы, решение которых не может быть точно определено традиционным подходом, основанным на правилах, но требуют подходов, основанных на данных и / или обучении, все чаще используемых в ИИ. Действительно, системы искусственного интеллекта, основанные на данных, такие как системы, использующие машинное обучение , очень успешны с точки зрения точности и гибкости, и они могут быть очень «креативными» в решении проблемы, находя решения, которые могут положительно удивить людей, и обучать их инновационным способам. решить проблему.

Однако творчество и свобода без границ могут иногда приводить к нежелательным действиям: система ИИ может достичь своей цели способами, которые не считаются приемлемыми в соответствии с ценностями и нормами пострадавшего сообщества. Таким образом, существует растущая потребность в понимании того, как ограничить действия системы ИИ путем установления границ, в пределах которых система должна работать. Обычно это называют проблемой «выравнивания значений», поскольку такие границы должны моделировать значения и принципы, требуемые для конкретного сценария применения AI.

В IBM Research мы изучили и оценили два способа приведения систем ИИ в соответствие с этическими принципами:

  • Первый использует тот же формализм для моделирования и объединения субъективных предпочтений (для достижения персонализации обслуживания) и этических приоритетов (для достижения согласованности ценностей). Понятие расстояния между предпочтениями и этическими приоритетами используется для определения того, могут ли действия определяться только предпочтениями или нам нужно учитывать дополнительные этические приоритеты, когда предпочтения слишком отличаются от этих приоритетов.
  • Вторая использует метод обучения с подкреплением (в рамках постановки проблемы бандитов) для максимизации вознаграждения и изучает этические принципы на основе положительных и отрицательных примеров. Мы проверили этот подход на рекомендациях к фильму под руководством родителей, а также на подборе дозировки лекарств с учетом качества жизни.

Документ, описывающий наш общий подход и два возможных способа решения проблемы выравнивания значений, будет представлен на предстоящей конференции AAAI 2019 и получит награду AAAI 2019 Blue Sky Idea. Это можно найти здесь.

Эта работа является частью долгосрочной попытки понять, как внедрить этические принципы в системы ИИ в сотрудничестве с MIT. В то время как исследования проводятся и моделируют этические приоритеты как деонтологические ограничения, команда IBM-MIT в настоящее время собирает данные о человеческих предпочтениях, чтобы смоделировать, как люди следуют и переключаются между различными этическими теориями (такими как утилитарные, деонтологические и контрактные), чтобы затем разработать этические теории и механизмы переключения, соответствующим образом адаптированные, в системы ИИ. Таким образом, такие системы смогут лучше соответствовать тому, как люди рассуждают и действуют в соответствии с этикой при принятии решений, и, следовательно, будет лучше подготовлен к естественному и компактному взаимодействию с людьми в рамках расширенного интеллектуального подхода к ИИ.

Ученые работают над созданием этически выровненного ИИ



Новости партнеров