Подростки используют генеративный искусственный интеллект для многих целей, включая эмоциональную поддержку и социальное взаимодействие. Исследование, проведенное исследователями Иллинойсского университета в Урбане-Шампейне, показало, что родители плохо понимают GAI, как их дети его используют и какие потенциальные риски он несет, и что платформы GAI не обеспечивают достаточной защиты для обеспечения безопасности детей.
Научная работа профессора информационных наук Янга Вана, содиректора Лаборатории социальных вычислительных систем, и докторанта Ямана Ю является одним из первых опубликованных источников данных об использовании и рисках GAI для детей. Ван и Ю представят свои выводы в мае 2025 года на симпозиуме IEEE по безопасности и конфиденциальности. Статья опубликована на сервере препринтов arXiv.
Ван и Юй отметили, что подростки часто используют платформы GAI, но мало что известно о том, как они их используют, а их восприятие рисков и то, как они с ними справляются, ранее не изучалось учеными.
Исследователи проанализировали содержание 712 постов и 8533 комментариев на Reddit, которые имели отношение к использованию подростками GAI. Они также опросили семь подростков и 13 родителей , чтобы понять их восприятие безопасности и то, как родители пытались снизить риск.
Они обнаружили, что подростки часто используют чат-ботов GAI в качестве терапевтических помощников или доверенных лиц, чтобы оказывать эмоциональную поддержку без осуждения и помогать им справляться с социальными проблемами. Чат-боты AI встроены в платформы социальных сетей, такие как Snapchat и Instagram (запрещена в РФ), и подростки включают их в групповые чаты, используют их для обучения социальным навыкам и иногда относятся к ним как к романтическим партнерам.
Они используют GAI для академических целей, таких как написание эссе, перефразирование текста и генерация идей. Подростки также размещали на Reddit посты о запросах сексуального или жестокого контента и издевательствах над чат-ботами AI.
«Это очень горячая тема, и многие подростки говорят об искусственном интеллекте персонажей и о том, как они его используют», — сказал Юй, имея в виду платформу для создания и взаимодействия с чат-ботами на основе персонажей.
Ван и Юй сообщили, что и родители, и дети имели существенные заблуждения относительно генеративного ИИ. Родители практически не понимали, как их дети используют GAI, и их знакомство с инструментами было ограниченным. Они не знали, что их дети используют такие инструменты, как Midjourney и DALL-E для генерации изображений и ИИ персонажей. Они рассматривали ИИ как инструмент для выполнения домашних заданий и как поисковую систему, в то время как дети в основном использовали его в личных и социальных целях, говорят исследователи.
Подростки сообщили, что их опасения включают в себя чрезмерную зависимость или пристрастие к чат-ботам для заполнения пустоты в личных связях , использование чат-ботов для создания оскорбительного контента, несанкционированное использование их личной информации и распространение вредоносного контента, такого как расистские высказывания. Они также были обеспокоены заменой человеческого труда ИИ и нарушением прав интеллектуальной собственности.
Родители считали, что платформы ИИ собирают большой объем данных, таких как демографические данные пользователей, история разговоров и история браузера, и были обеспокоены тем, что дети делятся личной или семейной информацией.
Однако родители «не полностью осознавали масштаб конфиденциальных данных, которыми их дети могли поделиться с GAI… включая подробности личных травм, медицинские записи и личные аспекты их социальной и сексуальной жизни», — пишут исследователи. Родители также были обеспокоены тем, что дети непреднамеренно распространяют дезинформацию, и беспокоились, что чрезмерная зависимость от ИИ приведет к тому, что их дети будут избегать критического мышления.
Родители сказали, что хотят ИИ, ориентированный на ребенка, который обучается только с помощью контента, соответствующего возрасту, или систему со встроенными функциями контроля возраста и темы. Дети сказали, что их родители не консультируют их по конкретным вариантам использования GAI, и они хотят, чтобы родители обсуждали его этическое использование, а не ограничивали его, сообщили исследователи.
Платформы GAI предоставляют ограниченную защиту детям, фокусируются на ограничении явного контента и не предлагают функции родительского контроля, адаптированные под ИИ. Ван и Юй заявили, что как риски для детей, так и стратегии их снижения более сложны и нюансированы, чем просто блокировка нежелательного контента. Одной из ключевых проблем для выявления и предотвращения нежелательного контента на платформах GAI является его динамическая природа создания уникального контента в режиме реального времени по сравнению со статическим онлайн-контентом, заявили они.
Исследователи отметили, что крайне важно, чтобы платформы предоставляли прозрачные объяснения рисков для безопасности и конфиденциальности, выявленных экспертами, и рекомендовали им предлагать фильтры контента, которые можно адаптировать к потребностям отдельных семей и стадиям развития их детей.
Однако стратегии безопасности не могут быть чисто техническими и должны выходить за рамки фильтрации и ограничений, признавая напряженность между детской автономией и родительским контролем над управлением онлайн-рисками. Ван и Юй заявили, что взрослым сначала нужно понять мотивы поведения детей в GAI. Они предложили чат-бота поддержки, который мог бы обеспечить безопасную среду для объяснения потенциальных рисков, повышения устойчивости и предложения стратегий преодоления трудностей подросткам-пользователям.
«Технологии ИИ развиваются очень быстро, как и способы их использования людьми», — сказал Ван. «Есть некоторые вещи, которые мы можем почерпнуть из прошлых областей, таких как зависимость и ненадлежащее поведение в социальных сетях и онлайн-играх».
Ван сказал, что их исследование — первый шаг в решении проблемы. Он и Ю создают таксономию категорий риска, которую можно использовать для обсуждения рисков и вмешательств, помогающих их смягчить.
По словам Вана, это также поможет выявить ранние сигналы рискованного поведения, включая количество времени, проведенного на платформе GAI, содержание разговоров и модели использования, такие как время суток, когда дети используют платформы.
Он и Ю работают с профессором психологии из Иллинойса Карен Рудольф, директором Лаборатории семейных исследований, чьи исследования сосредоточены на развитии подростков, чтобы разработать соответствующие возрасту вмешательства.
«Это очень междисциплинарная тема, и мы пытаемся решить ее междисциплинарными способами, задействуя образование, психологию и наши знания в области безопасности и управления рисками. Это должно быть техническое и социально-интерактивное решение», — сказал Юй.