Новое программное обеспечение поможет бороться с угрозами личной безопасности, связанными с поддельными изображениями

Прочитано: 486 раз(а)


Реалистичные изображения, созданные искусственным интеллектом (ИИ), включая те, которые генерируются из текстового описания и используются в видео, представляют реальную угрозу личной безопасности. От кражи личных данных до неправомерного использования личного изображения, становится все сложнее отличить реальное от поддельного.

В результате научного сотрудничества с Центром исследований искусственного интеллекта и науки о данных (PAIDS) Университета Портсмута было разработано инновационное решение , позволяющее точно различать поддельные и подлинные изображения, а также определять источник искусственного изображения.

Решение, известное как DeepGuard, объединяет три передовых метода ИИ: бинарную классификацию, ансамблевое обучение и многоклассовую классификацию. Эти методы позволяют ИИ обучаться на маркированных данных, делая более умные и надежные прогнозы.

Это инструмент, который может использоваться для расследования и судебного преследования преступной деятельности, такой как мошенничество, или средствами массовой информации для обеспечения подлинности изображений, используемых в их материалах, с целью предотвращения дезинформации или непреднамеренной предвзятости.

DeepGuard был разработан исследовательской группой под руководством доктора Гельтума Бендиаба и Ясмин Намани с кафедры электроники Университета братьев Ментури в Алжире, а также при участии доктора Ставроса Шиаэлеса из Исследовательского центра PAIDS и Школы вычислительной техники университета.

Доктор Шиалес сказал: «С постоянно развивающимися технологическими возможностями распознавание поддельных изображений человеческим глазом будет постоянной проблемой. Манипулированные изображения представляют серьезную угрозу нашей конфиденциальности и безопасности, поскольку они могут использоваться для подделки документов с целью шантажа, подрыва выборов, фальсификации электронных доказательств и нанесения ущерба репутации, а также могут использоваться взрослыми для подстрекательства к причинению вреда детям».

«Люди также нечестно наживаются на таких платформах социальных сетей, как TikTok, где изображения моделей превращаются в персонажей и анимируются в различных сценариях в играх или для развлечения.

«DeepGuard и будущие версии должны оказаться ценной мерой безопасности для проверки изображений, в том числе в видео, в широком диапазоне контекстов».

Исследование , опубликованное в журнале Electronics, также будет способствовать дальнейшим академическим исследованиям в этой области, предоставив ученым дополнительные наборы данных .

В ходе разработки команда рассмотрела и проанализировала методы как манипулирования изображениями, так и их обнаружения, уделив особое внимание поддельным изображениям, включающим изменения лица и тела. Они рассмотрели 255 исследовательских статей, опубликованных в период с 2016 по 2023 год, в которых рассматривались различные методы обнаружения манипулированных изображений, такие как изменения выражения лица, позы, голоса или других черт лица или тела.

Реалистичные изображения, созданные искусственным интеллектом (ИИ), включая те, которые генерируются из текстового описания и используются в видео, представляют реальную угрозу личной безопасности. От кражи личных данных до неправомерного использования личного изображения, становится все сложнее отличить реальное от поддельного. В результате научного сотрудничества с Центром исследований искусственного интеллекта и науки о данных (PAIDS) Университета Портсмута было разработано инновационное решение , позволяющее точно различать поддельные и подлинные изображения, а также определять источник искусственного изображения. Решение, известное как DeepGuard, объединяет три передовых метода ИИ: бинарную классификацию, ансамблевое обучение и многоклассовую классификацию. Эти методы позволяют ИИ обучаться на маркированных данных, делая более умные и надежные прогнозы. Это инструмент, который может использоваться для расследования и судебного преследования преступной деятельности, такой как мошенничество, или средствами массовой информации для обеспечения подлинности изображений, используемых в их материалах, с целью предотвращения дезинформации или непреднамеренной предвзятости. DeepGuard был разработан исследовательской группой под руководством доктора Гельтума Бендиаба и Ясмин Намани с кафедры электроники Университета братьев Ментури в Алжире, а также при участии доктора Ставроса Шиаэлеса из Исследовательского центра PAIDS и Школы вычислительной техники университета. Доктор Шиалес сказал: «С постоянно развивающимися технологическими возможностями распознавание поддельных изображений человеческим глазом будет постоянной проблемой. Манипулированные изображения представляют серьезную угрозу нашей конфиденциальности и безопасности, поскольку они могут использоваться для подделки документов с целью шантажа, подрыва выборов, фальсификации электронных доказательств и нанесения ущерба репутации, а также могут использоваться взрослыми для подстрекательства к причинению вреда детям». «Люди также нечестно наживаются на таких платформах социальных сетей, как TikTok, где изображения моделей превращаются в персонажей и анимируются в различных сценариях в играх или для развлечения. «DeepGuard и будущие версии должны оказаться ценной мерой безопасности для проверки изображений, в том числе в видео, в широком диапазоне контекстов». Исследование , опубликованное в журнале Electronics , также будет способствовать дальнейшим академическим исследованиям в этой области, предоставив ученым дополнительные наборы данных . В ходе разработки команда рассмотрела и проанализировала методы как манипулирования изображениями, так и их обнаружения, уделив особое внимание поддельным изображениям, включающим изменения лица и тела. Они рассмотрели 255 исследовательских статей, опубликованных в период с 2016 по 2023 год, в которых рассматривались различные методы обнаружения манипулированных изображений, такие как изменения выражения лица, позы, голоса или других черт лица или тела.



Новости партнеров