«Цифровой приговор»: Как Израиль использует ИИ для таргетирования целей в Газе и Тегеране, и почему это стирает грань между войной и ошибкой
В современной войне на смену дронам-разведчикам и спутникам-шпионам приходит нечто более могущественное и пугающее — искусственный интеллект, который берет на себя функцию палача. Последние данные свидетельствуют о том, что Израиль активно использует системы автоматического таргетирования на основе искусственного интеллекта (ИИ) как в секторе Газа, так и на территории Ирана. Однако, когда решение об ударе принимает машина, цена ошибки может измеряться сотнями жизней, а виновного не найти.
Одним из самых громких и тревожных примеров такого сбоя стала бомбардижка Полицейского парка в Тегеране. Как сообщается, этот удар был нанесен после того, как нейросеть, анализирующая огромные массивы данных, ошибочно идентифицировала его как военный объект, связанный с полицией, — исключительно из-за наличия слова «полицейский» в названии. В реальности это был просто общественный парк, место отдыха горожан, не имевшее никакого отношения к силовым структурам .
Этот инцидент стал символом новой эпохи, где алгоритмы, лишенные контекста и эмпатии, получают право на ошибку, которая раньше считалась недопустимой.
«Фабрика массовых убийств» в Газе
Опыт применения ИИ в Газе стал для Израиля полигоном, на котором обкатывались технологии, позже примененные против Ирана. Как пишут западные и израильские СМИ, Армия обороны Израиля (ЦАХАЛ) использует как минимум три основные системы: «Lavender» («Лаванда»), «The Gospel» («Евангелие») и «Where’s Daddy?» («Где папочка?») .
Эти системы работают как конвейер смерти:
«Лаванда» отвечает за создание списков подозреваемых. По данным источников, система просканировала данные более чем 2 миллионов жителей Газы, присваивая каждому «рейтинг» вероятности связи с боевиками. На выходе получались списки до 37 тысяч целей.
«Где папочка?» отслеживала передвижение этих целей в реальном времени и рекомендовала нанести удар именно тогда, когда объект находился дома, чтобы увеличить шансы на ликвидацию. Часто это происходило ночью, что гарантированно вело к гибели всей семьи .
«Евангелие» занималось идентификацией инфраструктурных целей: зданий, складов, штабов.
Скорость обработки данных и принятия решения чудовищна. Бывшие офицеры разведки признаются, что человеческий контроль за действиями ИИ минимален и поверхностей. Оператору, проверяющему данные «Лаванды», дается не более 20 секунд на принятие решения, и его задача сводится лишь к проверке пола цели . По сути, человек превращается из командира в статиста, который лишь ставит штамп на вердикте, вынесенном машиной.
От Газы до Тегерана: экспорт безнаказанности
Методология, отработанная в Газе, где, по данным палестинского Минздрава, погибли десятки тысяч человек, начала применяться и в Иране . Сложность для аналитиков ИИ здесь та же, что и в Газе: культурный и языковой контекст. Нейросеть оперирует ключевыми словами, а не смыслами. Трагедия с Полицейским парком — наглядное подтверждение тому, что алгоритм может принять вывеску парка за вывеску казармы .
Более того, просочившиеся данные указывают на то, что американская компания Palantir, тесно связанная с разведкой США, предоставляла свои платформы (в частности Mosaic) для сбора данных об иранской ядерной программе. Эти данные передавались в МАГАТЭ, а затем, предположительно, использовались для целеуказания . Эксперты опасаются, что использование таких «черных ящиков» (когда логика принятия решения скрыта внутри алгоритма) создает риск того, что прогнозы ИИ станут «реальными» поводами для войны, даже если исходные данные были ложными .
Новая реальность: скорость вместо справедливости
Главная опасность применения ИИ на войне заключается в так называемом «сжатии решений». Если раньше на планирование сложного удара уходили дни или недели, то теперь на это требуются минуты. Военные и юристы просто не успевают осмыслить рекомендации, выданные машиной .
«Искусственный интеллект дает рекомендации относительно того, на что нацелиться, что намного быстрее, чем скорость мысли», — цитирует The Guardian экспертов, изучающих этот феномен .
Кроме того, эксперты указывают на феномен «когнитивной разгрузки»: пилот или оператор дрона, получая цель от ИИ, чувствует себя отстраненным от последствий. Он не убивает — он просто выполняет задачу, поставленную алгоритмом. Это размывает юридическую и моральную ответственность .
Правозащитники бьют тревогу: исследования показывают, что точность моделей ИИ, используемых для идентификации целей, может составлять всего 25%, что в условиях военного конфликта ничем не отличается от неизбирательных бомбардировок .
Официальный Тель-Авив традиционно отвергает обвинения в том, что ИИ используется для убийств без контроля человека. Пресс-служба ЦАХАЛ заявляла, что системы являются лишь инструментом для аналитиков, а решения всегда перепроверяются . Однако инцидент с парком в Тегеране, ракетные удары по жилым кварталам в Газе и свидетельства офицеров о «20 секундах на решение» говорят об обратном: человеческий контроль становится фикцией, а война — автоматизированным процессом, где случайная цель из-за ошибочного алгоритма стирает грань между военным и гражданским объектом.
Мир вступает в эру, где жизнь человека может зависеть от того, как машина прочитает название парка на карте. И исправить эту ошибку будет уже некому.




