Кто виноват, если ИИ выходит из строя?

Прочитано: 89 раз(а)


Искусственный интеллект (ИИ) становится неотъемлемой частью нашей повседневной жизни, и в связи с этим возникает насущный вопрос: кто должен нести ответственность за ошибки ИИ? ИИ не обладает сознанием и свободой воли, поэтому сложно обвинить систему в ошибках.

Системы ИИ работают посредством сложных, непрозрачных процессов полуавтономно. Следовательно, даже несмотря на то, что системы разрабатываются и используются людьми, они не могут предсказать ущерб. Таким образом, традиционные этические рамки не объясняют, кто несет ответственность за этот ущерб, что приводит к так называемому разрыву ответственности в этике ИИ.

Недавнее исследование доктора Хёнгрэ Но, доцента философии Пусанского национального университета (Республика Корея), проливает свет на философские и эмпирические вопросы, связанные с моральной ответственностью в контексте систем искусственного интеллекта.

В исследовании критикуются традиционные моральные принципы, основанные на таких психологических способностях человека, как намерение и свобода воли, которые делают практически невозможным возложение ответственности ни на системы искусственного интеллекта, ни на людей. Результаты исследования были опубликованы в журнале Topoi .

«Поскольку технологии искусственного интеллекта всё глубже проникают в нашу жизнь, количество случаев причинения вреда с его помощью неизбежно возрастёт. Поэтому крайне важно понимать, кто несёт моральную ответственность за непредсказуемый вред, причинённый искусственным интеллектом», — говорит доктор Но.

Системы ИИ не могут быть обвинены в причинении вреда в рамках традиционных этических подходов. Эти подходы обычно требуют от агента наличия определённых умственных способностей для несения моральной ответственности. В случае ИИ отсутствует осознанное понимание, то есть способность понимать моральную значимость своих действий.

Более того, системы ИИ не испытывают субъективного опыта, что приводит к отсутствию феноменального сознания. Системы не имеют полного контроля над своим поведением и решениями. Им также не хватает намерения — способности к осознанному принятию решений, лежащей в основе действий.

Наконец, эти системы часто не способны дать ответ или дать какое-либо объяснение своим действиям. Ввиду этих пробелов возлагать на них ответственность неправомерно.

Исследование также проливает свет на неантропоцентрическую теорию деятельности и ответственности Лучано Флориди в области ИИ, которую поддерживают и другие исследователи в этой области.

Эта теория заменяет традиционные этические рамки идеей цензуры, согласно которой заинтересованные стороны обязаны предотвращать причинение вреда со стороны ИИ, контролируя и модифицируя системы, а также отключая или удаляя их при необходимости. Эта же обязанность распространяется и на сами системы ИИ, если они обладают достаточным уровнем автономии.

«Вместо того, чтобы настаивать на традиционных этических принципах в контексте ИИ, важно признать идею распределённой ответственности. Это подразумевает общую обязанность как заинтересованных лиц, включая программистов, пользователей и разработчиков, так и самих агентов ИИ, устранять вред, нанесённый ИИ, даже если этот вред не был предвиден или преднамерен», — заключает доктор Но.

«Это поможет оперативно исправлять ошибки и предотвращать их повторное возникновение, тем самым укрепляя этические нормы как при проектировании, так и при использовании систем ИИ».

Искусственный интеллект с открытым исходным кодом соответствует лучшим фирменным моделям в решении сложных медицинских случаев



Новости партнеров