Министерство обороны США и американская компания Anthropic, разработчик крупной языковой модели Claude, сталкиваются с глубоким разногласием по поводу условий использования искусственного интеллекта в рамках возможного контракта на сумму до 200 миллионов долларов, сообщает агентство Reuters.
Суть разногласий заключается в том, что Anthropic намерена ограничить спектр возможных применений своего ИИ-продукта, запрещая использование технологии для автономного наведения оружия, массового наблюдения и других сценариев, которые, по мнению компании, могут подорвать принципы ответственного использования. Эти ограничения стали препятствием для Пентагона, который, согласно анонимным источникам Reuters, рассчитывает на более широкие возможности применения ИИ-инструментов в боевых системах и аналитике.
Переговоры между оборонным ведомством и Anthropic продолжаются уже несколько недель, но стороны оказались на «глухой позиции». Представители Пентагона, ссылаясь на внутренний меморандум от 9 января, заявляют, что должны иметь право использовать коммерческие технологии искусственного интеллекта при условии соблюдения законодательства США, даже если исходные ограничения накладываются разработчиком. При этом представители оборонного ведомства прямо не ответили на запросы Reuters о комментариях.
Представитель Anthropic в комментарии агентству Reuters сообщил, что технологии компании уже используются в отдельных проектах, связанных с национальной безопасностью США, и что компания ведет «продуктивный диалог» с Министерством обороны по вопросам возможного сотрудничества.
По данным The Wall Street Journal, спор между сторонами распространяется и на ограничения использования ИИ правоохранительными структурами, включая ФБР и ICE. Источники издания указывают, что в Пентагоне считают подобные ограничения несовместимыми с требованиями к технологиям, применяемым в сфере национальной безопасности.
Конфликт стал заметным событием на фоне того, как правительство США усиливает свои технологические инициативы в сфере ИИ. В прошлом году Pentagon заключал ряд контрактов с крупными разработчиками ИИ, включая Alphabet’s Google, OpenAI и xAI, на внедрение агентских платформ для решения аналитических и планировочных задач, что стимулировало более глубокую интеграцию ИИ в структуры обороны.
Эксперты в области национальной безопасности и технологии отмечают, что подобные разногласия иллюстрируют расширяющиеся границы дилемм, с которыми сталкиваются коммерческие разработчики и государственные структуры. В то время как разработчики стремятся ограничить применение своих продуктов в потенциально спорных сценариях, государственные структуры подчеркивают необходимость гибкости и оперативной адаптации ИИ-решений под реальные угрозы и задачи.
Позиция Anthropic также отражает более широкую дискуссию в индустрии о контроле и этике ИИ: компания заявляла, что поддерживает национальную безопасность, но выступает против участия своей технологии в сценариях, которые могли бы нарушить демократические принципы или привести к нарушениям прав человека.
Если стороны не смогут согласовать рамки применения ИИ, отношения между Пентагоном и Anthropic могут стать прецедентом для будущих контрактов, в которых вопросы безопасности, юридической ответственности и этики будут играть ключевую роль в принятии решений о закупках передовых технологических продуктов.
Материал носит аналитический и информационный характер и отражает интерпретацию открытых данных и отчетов на момент публикации. Оценки и прогнозные ориентиры могут изменяться по мере развития технологий, рынков и регуляторной среды.
technologies
Кризис вычислительных мощностей 2026: хватит ли СНГ чипов для суверенного ИИ?
- Фев 18, 9:01
-
Катрич М.
Нехватка GPU и санкции превратили ИИ из вопроса программного обеспечения в битву за мегаватты и «серый» кремний. Пока западные гиганты обновляют рекорды капитализации, бизнес в СНГ строит суверенную инфраструктуру на китайских чипах и новых правилах юридической ответственности. Разбираем, как РБК 500 выживает и растет в условиях аппаратного голода.
Автономные агенты в бизнесе: как ИИ перестал советовать и начал управлять
- Фев 6, 10:00
-
Катрич М.
К началу 2026 года искусственный интеллект в российском бизнесе стал не столько инструментом для генерации контента, сколько ключевым узлом автоматизации. Пока одни компании внедряют автономных агентов в логистику и ритейл, сокращая издержки на 30%, другие сталкиваются с новыми вызовами — от юридической ответственности за действия алгоритмов до дефицита ИИ-контролеров. Разбираемся, как сегодня выглядит стек технологий РБК 500, почему On-premise побеждает облака и кто на самом деле отвечает за ошибки нейросетей.
Индонезия разрешила Grok — но под жёстким контролем надзорных органов
- Фев 2, 15:47
-
Редакция
Власти Индонезия условно разрешили возобновить работу чат-бота Grok, разработанного компанией xAI, после получения от оператора письменных гарантий соблюдения национального законодательства.
Как EU AI Act и волна госрегулирования меняют правила игры для IT-рынка Евразии
- Ноя 20, 14:00
-
Катрич М.
Европейский «AI Act» перестал быть абстрактной политической идеей — он уже задает правила входа на один из крупнейших рынков мира и вынуждает тех, кто экспортирует решения в ЕС, пересматривать продуктовую документацию, архитектуру данных и коммерческие договоры.