Математическая формула помогает принимать сложные моральные решения в ИИ

Прочитано: 84 раз(а)


Междисциплинарная группа исследователей разработала план создания алгоритмов, которые более эффективно включают этические принципы в программы принятия решений искусственного интеллекта (ИИ). Проект был сосредоточен конкретно на технологиях, в которых люди взаимодействуют с программами искусственного интеллекта, такими как виртуальные помощники или «боты-помощники», используемые в медицинских учреждениях.

«Предполагается, что такие технологии, как роботы для ухода за больными, должны помочь обеспечить безопасность и комфорт пациентов больниц, пожилых людей и других людей, которым требуется контроль за состоянием здоровья или физическая помощь», — говорит Велько Дублевич, корреспондент статьи о работе и доцент в Науке. , Технология и общество в Университете штата Северная Каролина. «С практической точки зрения это означает, что эти технологии будут помещены в ситуации, когда им необходимо выносить этические суждения».

«Например, предположим, что робот-помощник находится в ситуации, когда два человека нуждаются в медицинской помощи. Один пациент находится без сознания, но ему требуется неотложная помощь, а второй пациент нуждается в менее срочной помощи, но требует, чтобы робот-помощник оказал ему первую помощь. робот-помощник решает, какому пациенту оказать первую помощь? Должен ли робот-помощник лечить даже пациента, находящегося без сознания и, следовательно, неспособного дать согласие на лечение?»

«Предыдущие усилия по включению этического принятия решений в программы ИИ были ограничены по масштабу и сосредоточены на утилитарных рассуждениях, которые игнорируют сложность принятия моральных решений человеком», — говорит Дублевич. «Наша работа направлена ​​на это и, хотя в качестве примера я использовал роботов-помощников, она применима к широкому спектру технологий совместной работы человека и ИИ».

Утилитарное принятие решений фокусируется на результатах и ​​последствиях. Но когда люди выносят моральные суждения, они также учитывают два других фактора.

Первый фактор — это намерение данного действия и характер агента, выполняющего действие. Другими словами, кто выполняет данное действие и чего он пытается достичь? Доброжелательно оно или злонамеренно? Второй фактор – само действие. Например, люди склонны рассматривать определенные действия, такие как ложь, как изначально плохие.

И все эти факторы взаимодействуют друг с другом. Например, мы можем согласиться с тем, что лгать плохо, но если медсестра лжет пациенту, выдвигая неприятные требования, чтобы отдать приоритет лечению второго пациента, нуждающегося в более срочном лечении, большинство людей сочтут это морально приемлемым.

Чтобы справиться со сложностью принятия моральных решений, исследователи разработали математическую формулу и связанный с ней ряд деревьев решений, которые можно включить в программы ИИ. Эти инструменты основаны на так называемой модели «Агент, действие и последствия» (ADC), которая была разработана Дублевичем и его коллегами, чтобы отразить, как люди принимают сложные этические решения в реальном мире.

«Наша цель здесь заключалась в том, чтобы перевести модель ADC в формат, который делает ее жизнеспособной для включения в программирование ИИ», — говорит Дублевич. «Мы не просто говорим, что эти этические рамки будут хорошо работать для ИИ, мы представляем их на языке, доступном в контексте компьютерных наук.

«С развитием технологий искусственного интеллекта и робототехники обществу нужны такие совместные усилия специалистов по этике и инженеров. От этого зависит наше будущее».

Статья опубликована в открытом доступе в AI and Ethics.

Математическая формула помогает принимать сложные моральные решения в ИИ



Новости партнеров