В рамках сотрудничества между Тяньцзиньским университетом и Китайским университетом Гонконга исследователи под руководством Сянбиня Тэна использовали поведенческие и мозговые измерения, чтобы выяснить, могут ли люди различать речь, сгенерированную искусственным интеллектом, и речь человека. Исследователи также оценили, улучшает ли кратковременное обучение эту способность. Эта работа опубликована в журнале eNeuro.
Тридцать участников прослушали предложения, произнесенные людьми или голосами, сгенерированными искусственным интеллектом, и оценили, являются ли говорящие людьми или ИИ, до и после короткого обучения. Исследователи обнаружили, что участники исследования плохо различали два типа говорящих, и что обучение помогло лишь минимально.
Однако на нейронном уровне тренировка привела к тому, что реакции мозга на речь человека и ИИ стали более отчетливыми. Что это может означать?
Тенг говорит: «Похоже, что слуховая система мозга начинает улавливать тонкие акустические различия, даже если люди пока не могут надежно преобразовать это в поведенческое решение».
«Это обнадеживает — это говорит о том, что обучение может помочь, и это многообещающая отправная точка для создания более эффективных способов различения речи, созданной с помощью дипфейков, от реальной человеческой речи. Люди все еще адаптируются к контенту, сгенерированному ИИ, поэтому низкая эффективность не означает, что сигналов нет — это может означать, что мы еще не используем правильные подсказки».




