Обучение использованию ИИ может сыграть решающую роль в борьбе с растущим числом мошеннических схем

Прочитано: 185 раз(а)


Новое исследование Университета Абертей показывает, что наиболее эффективный способ защиты людей от мошенничества с использованием голосов ИИ — это не традиционные предупреждающие сообщения, а информирование людей о том, насколько продвинутыми и достоверными стали голоса ИИ. Опубликованное в журнале «Journal of Cybersecurity», исследование предлагает одну из первых психологических мер противодействия голосам ИИ, предоставляя проактивный подход к предотвращению мошенничества.

Голоса, сгенерированные искусственным интеллектом, стали настолько убедительными, что используются в крупных мошеннических схемах — от клонирования генеральных директоров для одобрения многомиллионных переводов до выдачи себя за членов семьи в ложных звонках с угрозами похищения.

Результаты исследования показывают, что короткие сообщения, объясняющие способность ИИ убедительно воспроизводить региональные акценты и диалекты, могут значительно снизить склонность слушателей предполагать, что голоса принадлежат человеку. Доктор Нил Кирк из Департамента социологических и психологических наук университета, возглавлявший исследование, говорит, что это простое изменение в восприятии может помочь предотвратить мошенничество, поскольку синтетические голоса становятся все более реалистичными.

Доктор Кирк сказал: «Мошенники часто используют эмоциональные приемы — например, срочные звонки от «родственников», нуждающихся в помощи, или ложные сообщения о проблемах с доставкой, — чтобы заставить жертв быстро принять решение. В сочетании с голосами, сгенерированными искусственным интеллектом, которые звучат аутентично и даже имитируют местные акценты, эти тактики становится гораздо сложнее обнаружить».

Обнаружить голосовое мошенничество сложнее, чем видеодипфейки, поскольку оно основано всего на одном сенсорном признаке, и эта глобальная проблема уже сильно затронула Великобританию. Опрос, проведенный банком Starling Bank, показал, что 28% взрослых жителей Великобритании становились жертвами мошенничества с использованием клонирования голоса с помощью ИИ, однако почти 46% даже не знают о существовании таких мошеннических схем, и лишь треть знают признаки мошенничества.

Согласно ежегодному отчету UK Finance о мошенничестве за 2025 год, жертвы мошеннических звонков, использующих так называемые «дипфейки», теряют в среднем 595 фунтов стерлингов за один инцидент, а в некоторых случаях сумма ущерба превышает 13 000 фунтов стерлингов.

Доктор Кирк сказал: «Технологии голосового управления на основе ИИ развиваются быстрее, чем повышается осведомленность общественности. Если мы сейчас не изменим ожидания людей, мы рискуем сделать целые сообщества уязвимыми для мошенничества. Мошенники уже используют эти пробелы, и последствия могут быть разрушительными. Образование — это самый мощный инструмент, который у нас есть для устранения этого пробела, и мы можем внедрить его быстро и в больших масштабах».

«В исследовании вводится концепция MINDSET (Minority, Indigenous, Non-standard, and Dialect-Shaped Expectations of Technology — ожидания меньшинств, коренных народов, нестандартные и диалектные представления о технологиях), убеждение в том, что голосовые системы не способны обрабатывать местную или региональную речь. Это предубеждение делает носителей недостаточно представленных диалектов особенно уязвимыми для мошенничества, поскольку они с большей вероятностью поверят, что голос искусственного интеллекта, говорящий таким образом, принадлежит реальному человеку».

В ходе двух экспериментов с участием 300 шотландцев исследователи обнаружили, что сообщения, информирующие участников о том, что ИИ может достоверно воспроизводить шотландские акценты и диалекты, значительно снижали предвзятость в классификации голосов как человеческих.

Предупреждения, которые просто подчеркивали риски мошенничества с использованием голосов ИИ, имели незначительный эффект, если не сочетались с информацией о возможностях системы. Хотя предупреждения не улучшили навыки людей в распознавании того, какие голоса на самом деле принадлежат человеку, а какие — ИИ, они сделали их более осторожными и снизили вероятность ошибки, связанной с принятием шотландских голосов ИИ за реальных людей.

Доктор Кирк сказал: «Наши выводы указывают на очевидные возможности для предотвращения мошенничества. Банки, телекоммуникационные компании и кампании по повышению осведомленности общественности могли бы включать сообщения, основанные на возможностях системы, в предупреждения о безопасности или оповещения о мошенничестве, чтобы помочь защитить потребителей. Информирование, а не паника, может быть наиболее масштабируемым способом повышения бдительности. Но это нельзя оставлять только на откуп промышленности — правительствам и политикам необходимо работать вместе с бизнесом, чтобы запустить скоординированные образовательные кампании, которые сократят разрыв в осведомленности и обеспечат безопасность людей».

Это исследование основывается на более ранней работе доктора Кирка, опубликованной ранее в этом году, которая продемонстрировала, насколько убедительными могут быть голоса, сгенерированные искусственным интеллектом, особенно при имитации региональных диалектов, таких как шотландский диалект Данди . В этом исследовании было установлено, что слушатели часто принимали голоса, сгенерированные ИИ, за настоящие, особенно в местных диалектах.

Обучение использованию ИИ может сыграть решающую роль в борьбе с растущим числом мошеннических схем



Новости партнеров