Этика ИИ игнорирует детей

Прочитано: 59 раз(а)


Исследователи из Оксфордской программы Мартина по этической веб-архитектуре и архитектуре данных (EWADA) Оксфордского университета призвали к более взвешенному подходу при внедрении этических принципов в разработку и управление ИИ для детей.

В перспективной статье , опубликованной в журнале Nature Machine Intelligence, авторы подчеркивают, что, хотя существует растущий консенсус относительно того, как должны выглядеть этические принципы искусственного интеллекта высокого уровня , слишком мало известно о том, как эффективно применять их в принципе для детей. Исследование нарисовало глобальную картину существующих этических принципов ИИ и выявило четыре основные проблемы в адаптации таких принципов на благо детей:

  • Недостаточное внимание к аспектам развития детства, особенно к сложным и индивидуальным потребностям детей, возрастным диапазонам, стадиям развития, происхождению и характерам.
  • Минимальное внимание к роли опекунов (например, родителей) в детстве. Например, родителей часто изображают как людей, обладающих более высоким опытом, чем дети, в то время как цифровому миру, возможно, придется задуматься об этой традиционной роли родителей.
  • Слишком мало оценок, ориентированных на детей и учитывающих интересы и права детей. Количественные оценки являются нормой при оценке таких вопросов, как безопасность и защита в системах ИИ, но их, как правило, не хватает при рассмотрении таких факторов, как потребности в развитии и долгосрочное благополучие детей.
  • Отсутствие скоординированного, межсекторального и междисциплинарного подхода к формулированию этических принципов ИИ для детей, которые необходимы для осуществления эффективных изменений в практике.

При выявлении этих проблем исследователи также опирались на примеры из реальной жизни и опыт. Они обнаружили, что, хотя ИИ используется для обеспечения безопасности детей, как правило, путем выявления неприемлемого контента в Интернете, не было инициативы по включению принципов защиты в инновации ИИ, в том числе те, которые поддерживаются моделями большого языка (LLM). Такая интеграция имеет решающее значение для предотвращения воздействия на детей предвзятого контента, основанного на таких факторах, как этническая принадлежность, или вредного контента, особенно для уязвимых групп , и оценка таких методов должна выходить за рамки простых количественных показателей, таких как точность или прецизионность.

Благодаря партнерству с Бристольским университетом исследователи также разрабатывают инструменты, помогающие детям с СДВГ, тщательно учитывая их потребности и разрабатывая интерфейсы для поддержки обмена данными с алгоритмами, связанными с искусственным интеллектом, способами, которые соответствуют их повседневным маршрутам. навыки цифровой грамотности и потребность в простых, но эффективных интерфейсах.

В ответ на эти проблемы исследователи рекомендовали:

  • повышение участия ключевых заинтересованных сторон, включая родителей и опекунов, разработчиков ИИ и самих детей;
  • предоставление более прямой поддержки отраслевым дизайнерам и разработчикам систем искусственного интеллекта, особенно путем более активного вовлечения их в реализацию этических принципов искусственного интеллекта;
  • создание юридических и профессиональных механизмов подотчетности, ориентированных на детей; и
  • расширение междисциплинарного сотрудничества вокруг подхода, ориентированного на детей, с участием заинтересованных сторон в таких областях, как взаимодействие человека и компьютера, дизайн, алгоритмы, политическое руководство, закон о защите данных и образование.

Доктор Цзюнь Чжао, научный сотрудник Оксфордского Мартина, старший научный сотрудник факультета компьютерных наук университета и ведущий автор статьи, сказал: «Внедрение ИИ в жизнь детей и наше общество неизбежно. Чтобы гарантировать, что технологии являются ответственными и этичными, значительная часть такого бремени ложится на родителей и детей, которые должны ориентироваться в этом сложном ландшафте.

«В этой перспективной статье были рассмотрены существующие глобальные принципы этики ИИ и определены важнейшие пробелы и направления будущего развития. Эти идеи имеют решающее значение для руководства нашими отраслями и политиками. Мы надеемся, что это исследование послужит важной отправной точкой для межсекторального сотрудничества в создании этического ИИ. технологии для детей и развитие глобальной политики в этой сфере».

Авторы изложили несколько этических принципов ИИ, которые особенно необходимо учитывать в отношении детей. Они включают в себя обеспечение справедливого, равного и инклюзивного цифрового доступа, обеспечение прозрачности и подотчетности при разработке систем искусственного интеллекта, защиту конфиденциальности и предотвращение манипулирования и эксплуатации, гарантию безопасности детей и создание систем, соответствующих возрасту, при активном вовлечении детей в их развитие.

Профессор сэр Найджел Шедболт, соавтор, директор программы EWADA, директор Джесус-колледжа в Оксфорде и профессор компьютерных наук на факультете компьютерных наук, сказал: «В эпоху алгоритмов на основе искусственного интеллекта дети заслуживают систем, которые отвечают их социальным потребностям. «, эмоциональные и когнитивные потребности. Наши системы искусственного интеллекта должны быть этичными и уважительными на всех этапах развития, но это особенно важно в детстве».

Этика ИИ игнорирует детей



Новости партнеров