Делать больше, но учиться меньше: Устранение рисков, связанных с ИИ в исследованиях

Прочитано: 64 раз(а)


Искусственный интеллект (ИИ) широко известен своим потенциалом повышения производительности научных исследований. Но с этим обещанием связаны риски, которые могут ограничить способность ученых лучше понимать мир, согласно новой статье, соавтором которой является антрополог из Йельского университета.

Некоторые будущие подходы к искусственному интеллекту, утверждают авторы, могут ограничить круг вопросов, которые задают исследователи, проводимые ими эксперименты и точки зрения, которые влияют на научные данные и теории.

В целом эти факторы могут сделать людей уязвимыми перед «иллюзиями понимания», из-за которых они полагают, что понимают мир лучше, чем на самом деле.

Перспективная статья опубликована в журнале Nature.

«Существует риск того, что ученые будут использовать ИИ, чтобы производить больше, понимая при этом меньше», — сказала соавтор Лиза Мессери, антрополог с факультета искусств и наук Йельского университета. «Мы не утверждаем, что учёным не следует использовать инструменты ИИ, но мы выступаем за разговор о том, как учёные будут их использовать, и предлагаем не предполагать автоматически, что все виды использования технологии или повсеместное использование это принесет пользу науке».

Статья, соавтором которой является ученый-когнитивист из Принстона М. Дж. Крокетт, задает основу для обсуждения рисков, связанных с использованием инструментов ИИ на протяжении всего процесса научных исследований , от разработки исследования до экспертной оценки.

«Мы надеемся, что эта статья предложит словарный запас для обсуждения потенциальных эпистемических рисков ИИ», — сказал Мессери.

Крокетт добавил: «Чтобы понять эти риски, ученые могут извлечь выгоду из работы в области гуманитарных и качественных социальных наук».

Мессери и Крокетт классифицировали предлагаемые концепции ИИ, охватывающие научный процесс, которые в настоящее время вызывают ажиотаж среди исследователей, на четыре архетипа:

  • Они утверждают, что при планировании исследования инструменты «ИИ как оракул» представляются способными объективно и эффективно искать, оценивать и обобщать массивы научной литературы, помогая исследователям формулировать вопросы на стадии разработки проекта.
  • Ожидается, что при сборе данных приложения «ИИ как суррогат» позволят ученым генерировать точные дублирующие точки данных, в том числе в качестве замены участников исследования на людях, когда получение данных в противном случае слишком сложно или дорого.
  • В анализе данных инструменты «ИИ как количественный анализ» стремятся превзойти способность человеческого интеллекта анализировать обширные и сложные наборы данных.
  • А приложения «ИИ как арбитр» направлены на объективную оценку научных исследований на предмет их достоинств и воспроизводимости, тем самым заменяя людей в процессе рецензирования.

Авторы предостерегают от отношения к приложениям ИИ этих четырех архетипов как к надежным партнерам, а не просто к инструментам в производстве научных знаний. По их словам, это может сделать ученых восприимчивыми к иллюзиям понимания, которые могут исказить их точку зрения и убедить их, что они знают больше, чем есть на самом деле.

Эффективность и понимание, которые обещают инструменты ИИ, могут ослабить производство научных знаний, создавая «монокультуры знаний», в которых исследователи отдают приоритет вопросам и методам, наиболее подходящим для ИИ, по сравнению с другими способами исследования, заявляют Мессери и Крокетт. Подобная научная среда делает исследователей уязвимыми для того, что они называют «иллюзиями исследовательской широты», когда ученые ошибочно полагают, что они исследуют все проверяемые гипотезы, тогда как они исследуют только более узкий круг вопросов, которые можно проверить с помощью ИИ.

Например, «суррогатные» инструменты искусственного интеллекта, которые, кажется, точно имитируют ответы людей на опросы, могут сделать эксперименты, требующие измерения физического поведения или личного взаимодействия, все более непопулярными, поскольку их проведение медленнее и дороже, говорит Крокетт.

Авторы также описывают возможность того, что инструменты ИИ станут рассматриваться как более объективные и надежные, чем ученые-люди, создавая «монокультуру знающих», в которой системы ИИ рассматриваются как единственные, авторитетные и объективные знающие люди вместо разнообразного научного сообщества. ученые с различным опытом, подготовкой и опытом. По их словам, монокультура порождает «иллюзии объективности», когда ученые ошибочно полагают, что инструменты ИИ не имеют перспективы или отражают все перспективы, тогда как на самом деле они отражают точку зрения ученых-компьютерщиков, которые их разработали и обучили.

«В науке существует убеждение, что объективный наблюдатель является идеальным создателем знаний о мире», — сказал Мессери. «Но это миф. Объективного «знающего» никогда не было и не может быть, и продолжение преследования этого мифа только ослабляет науку».

Авторы добавляют, что существуют убедительные доказательства того, что человеческое разнообразие делает науку более надежной и творческой.

«Признание того, что наука — это социальная практика, которая извлекает выгоду из включения различных точек зрения, поможет нам полностью реализовать ее потенциал», — сказал Крокетт. «Замена различных точек зрения инструментами ИИ отбросит время в сторону прогресса, которого мы достигли в включении большего количества перспектив в научную работу».

По словам Мессери, важно помнить о социальных последствиях ИИ, которые выходят далеко за рамки лабораторий, где он используется в исследованиях.

«Мы обучаем ученых думать о технических аспектах новых технологий», — сказала она. «Мы не обучаем их так же хорошо учитывать социальные аспекты, которые жизненно важны для будущей работы в этой области».

Устранение рисков, связанных с ИИ в исследованиях



Новости партнеров