Структура ИИ слишком ограничена, говорят эксперты по технологиям

Прочитано: 100 раз(а)


Shaping AI — это продолжающееся международное исследование в области социальных наук, в котором изучаются публичные дебаты об искусственном интеллекте в четырех странах за десятилетний период (2012–2022 гг.). Ученые Уорикского университета изучают противоречия в исследованиях ИИ и анализируют мнение экспертов в Великобритании в сотрудничестве с партнерами, проводящими аналогичные исследования в Северной Америке и Европе.

Команда Университета Уорвика проконсультировалась с 70 британскими экспертами в области ИИ и «ИИ и общество» о том, что они считают наиболее важными и наиболее игнорируемыми противоречиями в области ИИ. Консультация определила технологию распознавания лиц как серьезную область, вызывающую озабоченность, и ее применение в обществе, например, ее использование в школах и полицией. Однако самые противоречивые события, выявленные британскими экспертами, касаются базовой технической архитектуры современного ИИ и того, как в настоящее время он контролируется ограниченным числом влиятельных технологических компаний.

Эксперты заявили, что люди должны быть больше всего обеспокоены отсутствием общедоступных знаний и надзора за происхождением данных, на которых обучается ИИ; например, откуда поступают данные и было ли получено согласие на использование этих данных. Они также подчеркнули человеческие и экологические затраты на обучение и развертывание крупных моделей ИИ, таких как ChatGPT, которые опираются на большие объемы как свободно доступных данных, так и данных, защищенных авторским правом, наряду с недорогим человеческим трудом и, кроме того, очень энергоемки.

Во время недавнего семинара исследователи из Уорикского университета представили результаты этой консультации и анализ основных выявленных противоречий в области ИИ, а также работали с 30 экспертами, чтобы оценить результаты и обсудить, что должно больше всего беспокоить общество в ближайшие годы. В отчете «Перенос споров об ИИ: как перейти от споров об ИИ, которые у нас есть, к противоречиям, которые нам нужны?» публикуется в сети.

Профессор науки, технологий и общества Нортье Маррес сказал: «В конечном счете, внимание общества должно быть сосредоточено на отсутствии прозрачности и надзора за данными и методами, на которых основан ИИ, а не только на применении ИИ в конкретных областях. контексты.

«Наш анализ показал, что проблемы, связанные с ИИ, хорошо известны в определенных контекстах и ​​среди различных кругов, от промышленности, науки, активизма, и что общественность все чаще участвует в дебатах вокруг ИИ, но вопросы, обсуждаемые вокруг него, очень трудно решить. решение, потому что отсутствует прозрачность и надзор за фундаментальной структурой ИИ при его разработке и развертывании».

Ученые говорят, что если эти проблемы не будут решены, в будущем могут возникнуть огромные последствия для контроля качества в науке, инновациях и, в конечном итоге, в критически важной инфраструктуре общества.

Профессор Маррес продолжает: «В науке всегда существует подотчетность, когда бы ни проводились исследования, должны соблюдаться установленные рамки этики и защиты данных, и ученые должны быть прозрачными в отношении того, как они проводят свои исследования и какие данные они используют.

«ИИ масштабируется и развивается быстрыми темпами и меняет множество различных аспектов общества. Отсутствие знаний и прозрачности в отношении данных и методов, разрабатываемых в индустрии ИИ, означает, что научные и технологические разработки не могут полностью соответствовать действующим правилам.

«Правительство Великобритании должно признать этот новый тип риска и изменения в науке, инновациях и обществе , которые происходят в результате».

Структура ИИ слишком ограничена, говорят эксперты по технологиям



Новости партнеров