Когда мы говорим «ИИ в армии», это обычно звучит как что‑то из далекого будущего. Но в Пентагоне модель ИИ Claude на отлично работает как профессиональный военный аналитик, которого посадили решать военные задачи.
В истории с Венесуэлой его подключали через Palantir: модель гоняли по разведданным, отчетам и картинкам, чтобы помочь спланировать рейд на Мадуро, несмотря на то что по публичным правилам Anthropic такие сценарии вообще‑то под запретом. А буквально через пару месяцев те же подходы, по сообщениям, использовали уже против иранского руководства: Claude выступил инструментом для синтеза разведданных, перебора сценариев удара и прогнозирования.
Как Claude оказался в штабе спецоперации «Рейд на Каракас»
Официальное кодовое название операции — «Абсолютная решимость». В прессе ее все чаще называют просто «рейдом на Каракас», но за этим бытовым определением прячется кое-что важное: это была крупнейшая за последние десятилетия силовая акция США против действующего главы государства — с авиацией, дронами, спецназом и нейросетью в штабе.
Американская оборонка давно работает по принципу «подрядчик на подрядчике». В этой цепочке Palantir — старый знакомый Пентагона, поставщик больших платформ для анализа разведданных. Anthropic — модный новичок, который обещает «безопасный ИИ» и получает доступ к государственным заказам.
Связка проста: Palantir подтягивает к себе облачную модель Anthropic, чтобы ускорять разбор текста, изображений, аудио. В бумагах это звучит прилично: «поддержка аналитиков, поиск паттернов в больших данных». Про похищения президентов там, разумеется, ни слова. Есть обтекаемая формула: помощь в «национальной безопасности» и «операциях в интересах США».
В какой‑то момент этот набор инструментов начинают использовать не в учениях, а в подготовке реальной операции против Мадуро. Не потому что кто‑то в Пентагоне захотел «дать порулить ИИ», а потому что в оперативном смысле все упирается в ресурсы: данных много, людей мало, времени на разбор нет. Когда задача звучит как «найти уязвимые окна в расписании действующего президента», ручной разбор всего массива становится просто непрактичным.
Claude в этой цепочке не волшебная кнопка, а очень быстрый, но специфичный аналитик. Он прогоняет разведсводки, отчеты и карты, ищет повторяющиеся уязвимости и предлагает набор рабочих сценариев, включая те, до которых офицеры с привычным опытом могут банально не дойти. При чем делает это в сотни раз быстрее, чем человек.
Штаб по‑прежнему принимает решение сам. Но рамка выбора уже подправлена моделью. Тебе на стол кладут не бесформенную гору данных, а аккуратно разложенный набор сценариев с плюсами и минусами. И когда на горизонте появляются «две идеальные ночи для задержания», ты редко задаешься вопросом, не прихватил ли ИИ по дороге пару галлюцинаций, а начинаешь анализ с группой профессиональных военных.
Разбор операции: что реально мог делать ИИ в Каракасе
По открытым данным картина выглядит гораздо прозаичнее, чем в любых боевиках. Есть стандартный цикл военной операции: разведка, планирование, исполнение. В кейсе с Мадуро в этот цикл просто встроили еще один инструмент — Claude, работающий через инфраструктуру Palantir в засекреченной сети Пентагона.
Разведка: где нужен ИИ
Вокруг Мадуро у США и союзников годами копилась однотипная информация: обвинения в наркоторговле и связях с картелями, санкционные пакеты, опора на силовиков, паранойя насчет переворотов, привычные маршруты и резиденции. Это означает огромный массив данных: агентурные донесения, спутниковые и дроновые снимки, сигнальная разведка, отчеты по охране, передвижениям и окружению.
На этом уровне Claude логично использовать как фильтр и агрегатор. Он может:
- cводить разрозненные отчеты по выездам Мадуро в единую картину, выделяя устойчивые паттерны (по дням недели, типам мероприятий, составу охраны);
- подсвечивать зоны, где президент регулярно появляется с меньшим уровнем защиты или более предсказуемым маршрутом;
- соотносить маршруты с инфраструктурой, важной для режима (военные объекты, связь, центры управления), чтобы оценивать побочные эффекты разных сценариев.
Тут речь скорее про ускорение того, что и так делают аналитики вручную, но на порядки медленнее.
Планирование: варианты действий
Дальше включается классический для штабов этап courses of action — варианты действий. Раньше основная работа делалась руками офицеров, сейчас часть перебора можно отдать модели.
Типовые задачи для ИИ на этом шаге:
- сгенерировать набор сценариев «где и когда брать цель»: резиденция, военная база, кортеж на выезде, самолет при посадке/взлете;
- для каждого сценария оценить ключевые параметры: время реакции сил охраны, плотность городской застройки, количество потенциальных свидетелей, сложности с эвакуацией, риски пересечения с другими объектами;
- отсортировать сценарии по заданным критериям (минимум времени на операцию, минимум риска срыва, максимум шансов вывести цель живой).
На выходе штаб все равно принимает решения сам, но не «с нуля», а по уже разложенному и отсортированному списку.
Исполнение: что известно точно, а что нет
Факт того, что Claude использовали в операции против Мадуро, подтверждают WSJ, Reuters, NBC и другие крупные медиа, со ссылкой на источники в Минобороны США. Через партнерство с Palantir Anthropic стала первой компанией, которой дали доступ к засекреченным сетям Пентагона для работы LLM‑модели. На этом уровне документальный след обрывается: точная роль модели засекречена, Anthropic публично отказалась комментировать детали, а представители компании в частном порядке уточняли у Palantir, использовали ли Claude именно в рейде на Каракас.
Что могла делать модель во время самой операции — можно восстановить только по аналогиям с другими военными кейсами:
- обновлять для штаба оценку обстановки по мере поступления данных (перемещение сил, перекрытие дорог, активность сторонних групп);
- предлагать корректировки маршрутов и таймингов, если что‑то идет не по базовому сценарию;
- помогать приоритизировать цели и ресурсы, когда поступает противоречивая информация.
Это похоже, скорее, на дополнительного сверхчеловеческого аналитика в реальном времени, а не на систему, которая отдает команды на уровне тактического управления.
Итоги операции и вопрос, который остается
По данным венесуэльских властей и международных медиа, в ходе операции погибли десятки людей: речь идет примерно о 80 погибших, включая военнослужащих Венесуэлы и кубинских советников, американская сторона заявляла об отсутствии погибших и о нескольких раненых. Гражданские жертвы отдельно не учтены, оценки расходятся, а единого официального реестра жертв нет.
На этом месте возникает более широкий вопрос, который важнее конкретных деталей Каракаса. Модель, которую включили в такие операции, работает в логике оптимизации: она ищет решения под заданную цель и набор ограничений. Если цель формулируется как «захватить лидера» с минимальными рисками для своих сил, то все остальные параметры — в том числе чужие потери, разрушения и политические последствия — зависят только от того, насколько явно их заложили в формулировку задачи.
И именно здесь начинается реальная революция в военной сфере. Ключевые вывод напрашиваются сами собой:
- ключевые решения начинают опираться на работу системы, которая оптимизирует по заданным метрикам и не имеет собственного представления о допустимых потерях;
- политическое и военное руководство получает инструмент, который позволяет встраивать ИИ‑аналитику в каждый этап — от разведки до выбора окна для удара;
- каждое «чуть быстрее» и «чуть эффективнее», которое дает модель, масштабируется не на одну операцию, а на всю архитектуру военного планирования.
И успешный кейс с Мадуро — это только первый публично подтвержденный пример, как такая архитектура уже работает в реальных боевых сценариях.
LLM как новый слой национальной безопасности
Если отойти от Каракаса на пару шагов назад, становится очевидно, что Мадуро — не исключение, а просто первый громкий пример. Армии и спецслужбы по всему миру ищут, куда пристроить генеративный ИИ. Это вечный стажер, который не спит и не просит повышения: резюмирует сотни отчетов в страничный брифинг, находит исторические аналоги и прокручивает сценарии «что если» — пусть и на основании упрощенных моделей мира.
При этом у ИИ нет того, что военные называют «искусством командования». Нет политического нюха, понимания контекста, интуиции. Он видит паттерны, но не понимает, что за ними стоят люди, способные сорваться, предать, устроить резню.
Получается странная конструкция: «наука войны» все больше отдается ИИ, а «искусство войны» остается за человеком. Но со временем человек привыкает опираться на машину. И там, где раньше генерал шел против цифр, когда чувствовал, что операцию лучше отменить, теперь у него в руках графики и красивые дэшборды. Спорить с красивой картинкой сложнее, чем с интуицией подчиненного.
В случае с Мадуро это особенно критично. Речь не о том, чтобы убрать полевого командира на Ближнем Востоке. Речь о задержании бывшего президента, пусть и нелегитимного в глазах Вашингтона. Такая операция всегда балансирует на грани международного скандала. И когда в этой точке вмешивается ИИ, мы получаем новый, почти неизученный слой — ответственность алгоритма.
Галлюцинации, которые стоят жизней
В мирной жизни «галлюцинации» нейросети — повод для мемов. Чат‑бот перепутал писателя с актером, придумал несуществующую книгу, уверенно соврал про статью. В контексте спецоперации масштаб последствий меняется.
Представим: модель «додумывает» структуру охраны Мадуро, потому что в данных пробел. Она уверенно пишет, что в определенной резиденции в ночное время минимум охраны, опираясь на старые паттерны. Штаб строит план, спецназ заходит — а там в этот день перенесли совещание, охраны втрое больше, плюс рядом оказалась подразделение, о котором модель не знала.
Человек в штабе теоретически может поймать такую ошибку, если у него есть собственный опыт, сомнения, здоровый скепсис. Но когда ИИ дает аккуратный список «приоритетных целей» и «окон возможности», психологически гораздо проще поверить в то, что все учтено. Особенно если на экране еще и проценты вероятностей, графики, цветные тепловые карты. А потом в отчете это честно запишут как «непредвиденный фактор».
Вторая опасность — атрофия. Если годами отдавать ИИ самую грязную и сложную часть работы по анализу, свои мозги начинают лениться. Люди привыкают к тому, что им приносят уже отсортированное.
В случае с Мадуро все прошло относительно «чисто» — президента задержали, вывезли, мир ограничился волной заявлений. Но это ровно та ситуация, когда успех опаснее провала. Он создает иллюзию, что связка «спецназ + ИИ» работает, и ее можно и нужно масштабировать.
Anthropic: компания, которая решила, что у ИИ может быть совесть
На этом месте стоит вернуться к тем, кто писал правила для Claude. Anthropic строилась как альтернатива классическим бигтехам: не просто играть в гонку моделей, а встраивать в них жесткие ограничители. Не помогать разрабатывать оружие, не участвовать в тотальной слежке, не отдавать модели в автономное распоряжение военных. По крайней мере, так это выглядело в презентациях и политиках использования.
Летом 2025 года компания подписала с Пентагоном соглашение на 200 млн $ — не как оружейный подрядчик, а как «поставщик аналитических возможностей». Формулировка аккуратная. Реальность оказалась радикальнее.
Проблема в том, что война не терпит красивых PDF. Бюджеты — терпят, отчеты — терпят, войны — нет. Как только модель оказалась в контуре Пентагона, начался естественный процесс: военным понравилось. Быстрый аналитик, который никогда не спит, особенно хорош на фоне усталых офицеров, которые давно живут на пределе когнитивных возможностей в условиях круглосуточного напряжения. Логичный следующий шаг — расширить список задач. Пентагон захотел это закрепить прямо в договоре: право использовать Claude «для всех законных целей».
И тут Anthropic сказала «нет». Амодеи публично обозначил два конкретных ограничения: массовый внутренний надзор — никогда, полностью автономное летальное оружие — никогда. Не абстрактная тревога о демократии, а два конкретных применения, которые он назвал теми, что подрывают ее на практике.
Для военного ведомства это прозвучало как каприз. Тем более, когда на кону — миллиарды бюджета и геополитические игры. Начались угрозы задействовать законы 1950-х о мобилизационной экономике, превратить компанию в своего рода «оборонный актив» с принудительным доступом к технологиям. Это уже не диалог подрядчика и заказчика, а соревнование: кто кого — молодая компания с принципами или государство с монополией на насилие.
Когда совесть становится «риском цепочки поставок»
Развязка оказалась еще циничнее, чем казалась. После очередного раунда публичных заявлений и кулуарного давления администрация просто сменила тон: если поставщик не готов подчиниться, его не убеждают, его выкидывают.
В тот же день, пока Хегсет подписывал приказы о выдворении Anthropic, Сэм Альтман объявил о новом контракте OpenAI с Пентагоном. С теми же двумя ограничениями, которые Anthropic отстаивала: никакой массовой слежки, никакого автономного летального оружия. То есть Вашингтон получил ровно то, против чего воевал, — только от более сговорчивого поставщика. Anthropic наказали не за принципы. За то, что произносила их вслух.
Anthropic объявили «риском для цепочки поставок». Это технократическая формулировка для очень простой вещи: с этой компанией работать нельзя, она неблагонадежна. Федеральным агентствам приказали прекратить использование ее технологий, армейским структурам дали несколько месяцев на миграцию на другие решения.
Аргументация звучала почти гротескно. Та же система, которая еще вчера помогала ловить «диктатора», сегодня записана в угрозы — не за сбой, а за лишние вопросы о правилах игры.
Трамп не стал выбирать выражения. В Truth Social он написал, что «леворадикальные фанатики из Anthropic совершили катастрофическую ошибку, пытаясь взять измором Министерство войны», и пообещал «серьезные гражданские и уголовные последствия». В Вашингтоне статус врага присваивают быстро.
Амодеи ответил письмом, в котором сформулировал то, что в Пентагоне предпочли не заметить: «Эти две угрозы противоречат друг другу по существу. Одна объявляет нас угрозой безопасности. Другая — называет Claude жизненно необходимым для национальной безопасности». Оба утверждения — в одном и том же пресс-релизе, с разницей в сутки.
Финальный штрих дописала сама история — и сделала это почти немедленно. В пятницу вечером Anthropic официально отказалась принять условия Пентагона. Трамп объявил бан. В ту же ночь CENTCOM запустил Операцию «Эпическая ярость» против Ирана. По данным WSJ, Claude использовали для разведывательных оценок, идентификации целей и моделирования боевых сценариев — в операции, которая закончилась смертью верховного лидера Ирана Хаменеи. Та самая «безопасная» нейросеть, которую только что объявили угрозой цепочке поставок, работала в штабе, пока Трамп постил гневные сообщения в Truth Social. Если бы это был сценарий политического триллера, редактор вернул бы рукопись с пометкой «слишком неправдоподобно».
Главный вывод тут даже не в судьбе конкретной компании. Кейс Anthropic показывает, что для государства есть всего два типа ИИ‑поставщиков: лояльные подрядчики и угрозы, либо ты с правительством США, либо против. Промежуточной категории «этичный партнер с собственными красными линиями» просто не предусмотрено.
Моральный офшор для ИИ
Есть хорошая финансовая метафора. Когда‑то офшоры придумали как нейтральную территорию для международных операций. Со временем они превратились в привычное место для отмывания денег, ухода от налогов и прочих серых схем. Формально законы есть, фактически именно через эти «дырки» проходит самый токсичный поток.
С ИИ сегодня происходит что‑то похожее. В публичных документах компаний — красивые принципы. Мы не помогаем насилию. Мы не участвуем в разработке оружия. Мы не строим массовый надзор. Потом появляется переходная формула: «кроме случаев, связанных с национальной безопасностью». А дальше все, что вкусно пахнет политике и силе, аккуратно переезжает в эту зону исключения.
Спецоперации, вроде Каракаса, — идеальная площадка для такого морального офшора. Все засекречено, все участники связаны обязательствами молчания.
Серый импорт военной мощности
Отдельного внимания заслуживает сам путь, по которому гражданский ИИ оказывается в военной машине. Claude не поставляли в Пентагон как «военную модель». Ее привел туда Palantir — гражданская, формально «корпоративная» платформа анализа данных, у которой давно есть контракты с разведкой и армией.
В этом шаблоне нет ничего уникального. Маршрут всегда один: через консалтинг, облачные сервисы или платформы данных, уже встроенные в инфраструктуру ведомств.
Формально производитель модели сохраняет лицо: он не подписывал прямой контракт «на оружие». Фактически его модель рассчитывает маршруты эвакуации, помогает выбирать цели и ранжирует сценарии переворотов. И когда через пару лет всплывает скандал, каждый участник цепочки может сделать честное лицо и сказать: «мы же просто предоставляли технологию, а уж как ее использовали — не к нам».
Такая логика не является чем-то новым для мирового сообщества, и для читателей может резать слух своей узнаваемостью То же самое десятилетиями происходило с технологиями двойного назначения: станок продают для промышленности, а он вдруг оказывается на заводе, который собирает боеголовки. Только сейчас вместо станка — облачная модель, вместо завода — штаб, планирующий рейд на президента другой страны.
Алгоритмически оптимизированные перевороты
Случай с Мадуро — это пока что «точечный» кейс. Но если принять как данность, что ИИ хорошо умеет анализировать политические сети, социальные графы, поведенческие паттерны населения, следующий шаг напрашивается сам.
Представим гибридную операцию будущего против нелояльного режима. ИИ анализирует структуры элит с их бизнес-связями, настроение улицы по соцсетям и экономику по открытым и закрытым данным.
На основе этого он предлагает не только «лучший день для штурма», но и оптимальное сочетание шагов: какие санкции когда ввести, какие нарративы качать, каких оппозиционных лидеров подсветить, а каких наоборот утопить в тишине. Это уже не просто спецоперация, а алгоритмически оптимизированная смена режима.
Мадуро в этом смысле — пилот. Попробовали на относительно изолированном и токсичном в глазах Запада режиме, где риски ответных действий невелики. Если все получается, инструмент можно переносить дальше: в Африку, в Юго‑Восточную Азию, куда угодно. И там вопрос «кто на чьей стороне» уже будет решать не только разведчик с сигаретой, но и модель, которая видит мир как набор вероятностей.
Правовой вакуум: ИИ воюет, но не отвечает
Международное гуманитарное право в эти игры пока не играет. Женевские конвенции не знают слов «языковая модель» и «генеративный ИИ». Любой алгоритм сейчас воспринимают как инструмент, вроде оптики на винтовке или спутниковой связи.
По факту ИИ уже влез гораздо дальше. Он не просто гоняет данные по проводам, он лезет в святая святых — в выбор того, кого трогать, когда и как сделать это эффективно.
Но юридически он все равно никто. Значит, вся ответственность ложится на последнего человека в цепочке — командира, министра, президента. Так на бумаге. На практике же, чем сложнее система, тем проще размыть персональную вину. Всегда найдется место сослаться на «комплексный отчет» или «сложные аналитические выводы», которые никто, кроме пары инженеров в Калифорнии, не понимает. Так ИИ становится новой маской для старой привычки — уходить от ответственности за насилие.
Мир, где президентов воруют по подсказке бота
История с Мадуро захватывает именно потому, что она на стыке двух миров. Старый — это вертолеты в ночи, штурм, наручники, вывоз фигуранта в страну, которая объявляет себя жертвой его преступлений. Новый — это тихий дата‑центр, где модель, обученная на книжках, новостях и коде, подсказывает, как лучше спланировать решение военной задачи.
Anthropic попыталась сыграть роль совести в этом новом мире. Написать правила, которые запрещают ИИ становиться оружием без оговорок. И получила в ответ очень старый, почти феодальный жест: коли ты не хочешь служить до конца, ты враг. Неважно, что твой продукт уже успел помочь в нужной операции. Важно, что ты посмел усомниться в праве государства использовать твою технологию как угодно.
Комфортного выхода здесь нет. С одной стороны, никто не будет плакать по Мадуро, если смотреть на него глазами тех, кто привык к бинарной картинке «диктатор / демократия». С другой — если сегодня алгоритм помогает похищать токсичного лидера, завтра он с тем же энтузиазмом будет оптимизировать кампанию по подавлению протеста где‑нибудь в домашнем регионе.
Вопрос не в том, можно ли выключить ИИ в войне. Уже нельзя. Вопрос в другом: кто пишет ему роль — те, кто хоть как‑то думает о границах, или те, кто готовы продавать сверхчеловеческие мозги, лишь бы они были эффективными и послушными. История Anthropic — тревожный сигнал, что второй тип сейчас выигрывает.