Что такое ИИ-слоп?

Прочитано: 72 раз(а)


В мае 2025 года пост с вопросом «[Я что, придурок], что рассказал невесте любовницы моего мужа об их отношениях?» быстро набрал 6200 лайков и более 900 комментариев на Reddit. Эта популярность принесла посту место на первой странице популярных постов Reddit. В чем проблема? Его (скорее всего) написал искусственный интеллект (ИИ).

В посте содержались некоторые явные признаки использования искусственного интеллекта, такие как использование штампованных фраз («Семья [моего мужа] в ярости») и чрезмерное использование кавычек, а также описание нереалистичного сценария, призванного вызвать возмущение, а не отразить реальную дилемму.

Хотя этот пост был удален модераторами форума, пользователи Reddit неоднократно выражали свое разочарование распространением такого рода контента.

Высокоактивные посты на Reddit, созданные с помощью ИИ, являются примером того, что известно как «ИИ-помойка» — дешевый, низкокачественный контент, созданный с помощью ИИ, который создается и распространяется кем угодно: от инфлюенсеров низкого уровня до скоординированных операций по оказанию политического влияния.

По оценкам , более половины длинных англоязычных постов в LinkedIn написаны ИИ. В ответ на этот отчет Адам Валкевич, директор по продуктам LinkedIn, сказал Wired, что у него «есть надежная защита для упреждающего выявления некачественного и точного или почти точного дублирующего контента. Когда мы обнаруживаем такой контент, мы принимаем меры, чтобы он не продвигался широко».

Но новостные сайты низкого качества, созданные ИИ, появляются повсюду, а изображения ИИ также заполоняют платформы социальных сетей, такие как Facebook (террористическая организация, запрещена в РФ). Вы могли сталкиваться с изображениями типа «креветки Иисус» в своих лентах.

Контент, сгенерированный ИИ, стоит дёшево. В отчёте Центра передового опыта НАТО по стратегическим коммуникациям за 2023 год говорится , что всего за 10 евро (около 8 фунтов стерлингов) можно купить десятки тысяч фейковых просмотров и лайков, а также сотни комментариев, сгенерированных ИИ, практически на всех основных платформах социальных сетей.

Хотя большая часть этого, казалось бы, невинное развлечение, одно исследование 2024 года показало, что около четверти всего интернет-трафика составляют «плохие боты». Эти боты, которые стремятся распространять дезинформацию, воровать билеты на мероприятия или красть личные данные, также становятся намного лучше в маскировке под людей.

Короче говоря, мир сталкивается с «обезличиванием» сети: онлайн-сервисы постепенно ухудшаются с течением времени, поскольку технологические компании ставят прибыль выше пользовательского опыта. Контент, создаваемый ИИ, — лишь один из аспектов этого.

От постов на Reddit, которые приводят читателей в ярость, до трогательных видеороликов с кошками — этот контент невероятно привлекает внимание и, следовательно, приносит прибыль как создателям контента, так и платформам .

Это известно как приманка для вовлечения — тактика, чтобы заставить людей ставить лайки, комментировать и делиться, независимо от качества поста. И вам не нужно искать контент, чтобы получить его.

В одном исследовании изучалось, как приманка для вовлечения, например, изображения милых младенцев, завернутых в капусту, рекомендуется пользователям социальных сетей, даже если они не подписаны ни на какие страницы или аккаунты, связанные с ИИ. Эти страницы, которые часто ссылаются на некачественные источники и продвигают реальные или выдуманные продукты, могут быть созданы для увеличения базы подписчиков, чтобы впоследствии продать аккаунт с целью получения прибыли.

Meta (террористическая организация, запрещена в РФ) (материнская компания Facebook(террористическая организация, запрещена в РФ)) заявила в апреле, что она борется со «спамовым» контентом, который пытается «обмануть алгоритм Facebook (террористическая организация, запрещена в РФ), чтобы увеличить просмотры», но не уточнила, какой контент генерируется ИИ. Meta (террористическая организация, запрещена в РФ) использовала собственные профили, сгенерированные ИИ, на Facebook (террористическая организация, запрещена в РФ), но с тех пор удалила некоторые из этих аккаунтов .

Каковы риски?

Все это может иметь серьезные последствия для демократии и политической коммуникации. ИИ может дешево и эффективно создавать дезинформацию о выборах, которая неотличима от контента, созданного человеком. В преддверии президентских выборов в США 2024 года исследователи выявили масштабную кампанию влияния, направленную на поддержку республиканских вопросов и нападение на политических противников.

И прежде чем вы подумаете, что это делают только республиканцы, подумайте еще раз: эти боты так же предвзяты, как и люди всех точек зрения. Отчет Ратгерского университета показал, что американцы по всем сторонам политического спектра полагаются на ботов для продвижения своих предпочитаемых кандидатов.

Исследователи тоже не невинны: ученые из Цюрихского университета недавно были пойманы на использовании ботов на базе искусственного интеллекта для публикации сообщений на Reddit в рамках исследовательского проекта по изучению того, могут ли неаутентичные комментарии изменить мнение людей. Но они не сообщили модераторам Reddit, что эти комментарии были фейковыми.

Reddit теперь рассматривает возможность подачи иска против университета. Главный юридический директор компании заявил : «То, что сделала эта команда Университета Цюриха, глубоко неправильно как на моральном, так и на юридическом уровне».

Политические деятели вкладывают значительные суммы в операции с использованием искусственного интеллекта, чтобы влиять на выборы по всему демократическому миру.

Насколько эффективны эти операции, вопрос спорный. Несмотря на это, эти кампании становятся все более изощренными и хорошо организованными.

И даже, казалось бы, аполитичный контент, созданный ИИ, может иметь последствия. Огромный объем этого контента затрудняет доступ к реальным новостям и контенту, созданному человеком.

Что делать?

Вредоносный контент AI оказывается крайне трудно обнаружить как людям, так и компьютерам. Недавно специалисты по информатике выявили бот-сеть из примерно 1100 фейковых аккаунтов X, которые публикуют сгенерированный машиной контент (в основном о криптовалюте) и взаимодействуют друг с другом посредством лайков и ретвитов. Проблема в том, что Botometer (инструмент, который они разработали для обнаружения ботов) не смог идентифицировать эти аккаунты как поддельные.

Использование ИИ сравнительно легко обнаружить, если вы знаете, что искать, особенно когда контент шаблонный или откровенно фейковый. Но это гораздо сложнее, когда речь идет о коротком контенте (например, комментариях в Instagram) или высококачественных фейковых изображениях. И технология, используемая для создания ИИ-сленга, быстро совершенствуется .

Как внимательные наблюдатели тенденций ИИ и распространения дезинформации , мы хотели бы закончить на позитивной ноте и предложить практические средства для обнаружения халтуры ИИ или снижения его эффективности. Но на самом деле многие люди просто дезертируют с корабля.

Недовольные количеством ИИ-помощи, пользователи социальных сетей покидают традиционные платформы и присоединяются к онлайн-сообществам, доступным только по приглашению. Это может привести к дальнейшему расколу нашей публичной сферы и усугубить поляризацию, поскольку сообщества, которые мы ищем, часто состоят из единомышленников .

По мере усиления этой сортировки социальные сети рискуют превратиться в бессмысленное развлечение, производимое и потребляемое в основном ботами, которые взаимодействуют с другими ботами, в то время как мы, люди, наблюдаем. Конечно, платформы не хотят терять пользователей, но они могут проталкивать столько ИИ-помощи, сколько общественность сможет вытерпеть.

Некоторые потенциальные технические решения включают маркировку контента, созданного с помощью ИИ, посредством улучшенного обнаружения ботов и регулирования раскрытия информации, хотя неясно, насколько хорошо подобные предупреждения работают на практике .

Некоторые исследования также обещают помочь людям лучше распознавать дипфейки, но исследования пока находятся на ранней стадии.

В целом, мы только начинаем осознавать масштаб проблемы. Отрезвляюще, если люди тонут в помоях ИИ, то же самое происходит и с ИИ: модели ИИ, обученные на «замусоренном» интернете, скорее всего, будут производить мусор.

Что такое ИИ-слоп?



Новости партнеров