Поскольку искусственный интеллект все больше проникает во все аспекты нашей жизни, эксперты все больше беспокоятся о его опасностях. В некоторых случаях риски являются неотложными, в других они проявятся только через много месяцев или даже лет.
Ученые отмечают в Philosophical Transactions of the Royal Society A Mathematical Physical and Engineering Sciences, что последовательный подход к пониманию этих угроз все еще неуловим. Статья называется «Перспектива сложных систем в оценке рисков в ИИ».
Они призывают к комплексному системному подходу для лучшей оценки и снижения этих рисков, особенно в свете долгосрочной неопределенности и сложных взаимодействий между ИИ и обществом.
«Понимание рисков ИИ требует признания сложного взаимодействия между технологиями и обществом. Речь идет о навигации по сложным, совместно развивающимся системам, которые формируют наши решения и поведение», — говорит Фариба Карими, соавтор статьи. Карими возглавляет исследовательскую группу по алгоритмической справедливости в Complexity Science Hub (CSH) и является профессором социальных наук о данных в Техническом университете Граца.
«Мы должны не только обсуждать, какие технологии и как внедрять, но и как адаптировать социальный контекст , чтобы извлечь выгоду из позитивных возможностей. Возможности и риски ИИ, вероятно, следует принимать во внимание в дебатах, например, об экономической политике », — добавляет ученый CSH Даниэль Кондор, первый автор исследования.
Более широкие и долгосрочные риски
По словам авторов статьи, современные структуры оценки рисков часто фокусируются на немедленном, конкретном вреде, таком как предвзятость и проблемы безопасности. «Эти структуры часто упускают из виду более широкие, долгосрочные системные риски, которые могут возникнуть из-за повсеместного внедрения технологий ИИ и их взаимодействия с социальным контекстом, в котором они используются», — говорит Кондор.
«В этой статье мы попытались сбалансировать краткосрочные перспективы алгоритмов с долгосрочными взглядами на то, как эти технологии влияют на общество. Речь идет о осмыслении как непосредственных, так и системных последствий ИИ», — добавляет Кондор.
Что происходит в реальной жизни
В качестве примера для иллюстрации потенциальных рисков технологий ИИ ученые обсуждают, как предиктивный алгоритм использовался во время пандемии COVID-19 в Великобритании для школьных экзаменов. Новое решение «предполагалось более объективным и, следовательно, более справедливым [чем просьба к учителям предсказать успеваемость своих учеников], полагаясь на статистический анализ успеваемости учеников в предыдущие годы», согласно исследованию.
Однако, когда алгоритм был применен на практике, возникло несколько проблем. «Как только был применен алгоритм оценки, неравенство стало совершенно очевидным», — отмечает Валери Хафез, независимый исследователь и соавтор исследования.
«Учащиеся из неблагополучных сообществ приняли на себя основную тяжесть тщетных усилий по борьбе с инфляцией оценок, но даже в целом 40% учащихся получили более низкие оценки, чем они могли бы обоснованно ожидать».
Хафез сообщает, что многие ответы в отчете о консультациях указывают на то, что риск, который учителя считали значительным (долгосрочный эффект от выставления оценок ниже заслуженных), отличался от риска, который воспринимали разработчики алгоритма. Последние были обеспокоены инфляцией оценок, возникающим в результате давлением на высшее образование и недостатком доверия к реальным способностям студентов.
Масштаб и размах
Этот случай демонстрирует несколько важных проблем, возникающих при развертывании крупномасштабных алгоритмических решений, подчеркивают ученые.
«Мы считаем, что следует обращать внимание на масштаб и область применения, поскольку алгоритмы масштабируются: они хорошо переходят из одного контекста в другой, даже если эти контексты могут существенно отличаться. Первоначальный контекст творения не исчезает просто так, а накладывается на все эти другие контексты», — объясняет Хафез.
«Долгосрочные риски не являются линейной комбинацией краткосрочных рисков. Они могут экспоненциально возрастать с течением времени. Однако с помощью вычислительных моделей и симуляций мы можем предоставить практические идеи для лучшей оценки этих динамических рисков», — добавляет Карими.
Вычислительные модели и участие общественности
Это одно из направлений, предложенных учеными для понимания и оценки рисков, связанных с технологиями ИИ, как в краткосрочной, так и в долгосрочной перспективе.
«Вычислительные модели, например, те, которые оценивают влияние ИИ на представительство меньшинств в социальных сетях, могут продемонстрировать, как предубеждения в системах ИИ приводят к циклам обратной связи, которые усиливают социальное неравенство», — объясняет Кондор. Такие модели можно использовать для моделирования потенциальных рисков , предлагая идеи, которые трудно почерпнуть из традиционных методов оценки.
Кроме того, авторы исследования подчеркивают важность привлечения неспециалистов и экспертов из различных областей в процесс оценки рисков. Группы компетенций — небольшие, разнородные команды, объединяющие различные точки зрения — могут стать ключевым инструментом для содействия демократическому участию и обеспечения того, чтобы оценки рисков основывались на информации, полученной от тех, кого больше всего затрагивают технологии ИИ.
«Более общая проблема — это содействие социальной устойчивости, что поможет дебатам и принятию решений, связанным с ИИ, функционировать лучше и избегать ловушек. В свою очередь, социальная устойчивость может зависеть от многих вопросов, не связанных (или, по крайней мере, не связанных напрямую) с искусственным интеллектом », — размышляет Кондор. Увеличение участия в принятии решений может стать одним из важных компонентов повышения устойчивости.
«Я думаю, что как только вы начинаете рассматривать системы ИИ как социотехнические, вы не можете отделить людей, затронутых системами ИИ, от «технических» аспектов. Отделение их от системы ИИ лишает их возможности формировать инфраструктуры классификации, навязанные им, лишая затронутых лиц возможности участвовать в создании миров, адаптированных к их потребностям», — говорит Хафез, сотрудник по политике в области ИИ в Федеральном канцелярии Австрии.