Недавний всплеск популярности инструментов искусственного интеллекта, таких как ChatGPT, заставляет научное сообщество считаться со своим местом в научной литературе. Престижные журналы, такие как Science и Nature, пытались ограничить или запретить использование искусственного интеллекта в материалах, но им трудно добиться этого из-за того, насколько сложно становится обнаруживать машинно-генерируемый язык.
Поскольку ИИ становится все более продвинутым в имитации человеческого языка, исследователи из Чикагского университета были заинтересованы в том, чтобы узнать, как часто авторы используют ИИ и насколько хорошо он может создавать убедительные научные статьи. В исследовании, опубликованном в журнале Clinical Oncology Clinical Cancer Informatics в субботу, 1 июня, Фредерик Ховард, доктор медицинских наук, и его коллеги оценили текст из более чем 15 000 тезисов ежегодного собрания Американского общества клинической онкологии (ASCO) с 2021 по 2023 год, используя несколько коммерческие детекторы контента AI.
Они обнаружили, что в 2023 году было примерно вдвое больше рефератов, содержащих контент ИИ, по сравнению с 2021 и 2022 годами, что указывает на четкий сигнал о том, что исследователи используют инструменты ИИ в научных трудах. Интересно, что детекторы контента намного лучше отличали текст, созданный старыми версиями чат-ботов с искусственным интеллектом, от текста, написанного человеком, но были менее точными при идентификации текста из новых, более точных моделей искусственного интеллекта или смеси текста, написанного человеком и сгенерированного искусственным интеллектом.
Поскольку в ближайшие годы использование искусственного интеллекта в научных трудах, скорее всего, будет расширяться с развитием более эффективных языковых моделей искусственного интеллекта, Ховард и его коллеги предупреждают, что важно установить меры безопасности, гарантирующие включение в научную работу только фактически точной информации , учитывая склонность моделей ИИ писать правдоподобные, но неверные утверждения. Они также пришли к выводу, что, хотя детекторы контента ИИ никогда не достигнут идеальной точности, их можно использовать в качестве инструмента проверки, чтобы указать, что представленный контент требует дополнительной проверки со стороны рецензентов, но не следует использовать в качестве единственного средства для оценки контента ИИ в научных трудах.