ВС США использовали Anthropic при ударе по Ирану, несмотря на запрет Трампа: WSJ
02.03.2026
4217

ВС США, как сообщается, использовали Anthropic во время крупного авиаудара по Ирану всего через несколько часов после того, как президент Дональд Трамп приказал федеральным агентствам прекратить использование систем компании.
ВС США использовали Anthropic при ударе по Ирану, несмотря на запрет Трампа: WSJ
ВС США, как сообщается, использовали Anthropic во время крупного авиаудара по Ирану всего через несколько часов после того, как президент Дональд Трамп приказал федеральным агентствам прекратить использование систем компании.
Военные командования, включая Центральное командование США (CENTCOM) на Ближнем Востоке, использовали ИИ-модель Claude компании Anthropic для операционной поддержки, согласно источникам, знакомым с ситуацией, на которых ссылается The Wall Street Journal. Сообщается, что инструмент помогал в анализе разведданных, идентификации потенциальных целей и проведении симуляций боевых действий.
Этот инцидент показывает, насколько глубоко продвинутые ИИ-системы внедрились в оборонные операции. Даже когда администрация предприняла шаги по разрыву связей с компанией, Claude оставался интегрированным в рабочие процессы военных.
В пятницу администрация Трампа проинструктировала агентства прекратить работу с компанией и поручила Министерству обороны рассматривать её как потенциальный риск для безопасности. Приказ последовал после срыва переговоров по контракту, когда Anthropic отказалась предоставить неограниченное военное использование своего ИИ для любых законных сценариев, запрошенных оборонными чиновниками.
ИИ Claude от Anthropic использовался для секретных операций
Ранее Anthropic получила многолетний контракт с Пентагоном на сумму до 200 миллионов долларов наряду с несколькими крупными ИИ-лабораториями. Благодаря партнёрствам с Palantir и Amazon Web Services, Claude был одобрен для использования в секретных разведывательных и операционных рабочих процессах. Сообщается, что система также участвовала в более ранних операциях, включая миссию в Венесуэле в январе, в результате которой был захвачен президент Николас Мадуро.
Напряжённость усилилась после того, как министр обороны Пит Хегсет потребовал от компании разрешить неограниченное военное использование её моделей. Генеральный директор Anthropic Дарио Амодей отклонил запрос, описав некоторые применения как этические границы, которые компания не пересечёт, даже если это означает потерю государственных заказов.
В ответ Пентагон начал искать замену поставщикам, достигнув соглашения с OpenAI о развёртывании её ИИ-моделей в секретных военных сетях.
Генеральный директор Anthropic выступает против запрета Пентагона
Во время интервью в субботу генеральный директор Anthropic Дарио Амодей заявил, что компания выступает против использования её ИИ-моделей для массовой внутренней слежки и полностью автономного оружия, отвечая на директиву правительства США, которая обозначила фирму как «риск для цепочки поставок» обороны и запретила подрядчикам использовать её продукты.
Он утверждал, что некоторые применения пересекают фундаментальные границы, подчёркивая, что военные решения должны оставаться под контролем человека, а не полностью делегироваться машинам.
#OpenAI#безопасность ИИ#Военные технологии#Искусственный интеллект#США
Есть тема? Пишите ATLA WIRE в Telegram:t.me/atla_community

