Читать нас в Telegram
Иллюстрация: Анна Чижова

1 марта 2026 года американская армия нанесла удары по Ирану. Как сообщили Wall Street Journal и Axios со ссылкой на свои источники, командование применяло Claude для анализа разведданных, определения целей и моделирования боевых сценариев. Это произошло несмотря на то, что накануне президент Дональд Трамп запретил всем федеральным ведомствам использовать ИИ-продукты компании Anthropic. В социальной сети Truth Social он назвал разработчика Claude «леворадикальной ИИ-компанией, которая не имеет представления о том, как устроен реальный мир». Тем не менее Пентагону не удалось сразу отказаться от применения инструментов Anthropic. По оценкам экспертов, переход от Claude к другой платформе может занять несколько месяцев. 

Конфликт между Anthropic и Пентагоном тлел несколько месяцев. Минобороны США требовало права использовать Claude для любых законных целей. Anthropic настаивала на прямом запрете применять свои технологии для массовой слежки за гражданами США и управления полностью автономным оружием. Глава Anthropic Дарио Амодеи назвал это угрозой демократическим ценностям. 

Противостояние завершилось, когда в пятницу, 27 февраля, президент Трамп потребовал немедленно прекратить использование продуктов Anthropic в государственных ведомствах. Министр обороны Пит Хегсет объявил компанию угрозой для цепочек военных поставок и запретил любым подрядчикам Пентагона с ней сотрудничать. В то же время Пентагон заключил соглашения с конкурентами Anthopic — OpenAI и компанией Илона Маска xAI.

В поддержку Anthropic выступили сотрудники Google. Открытое письмо под заголовком «Мы не будем разделены» подписали 860 работников Google и 100 — Anthropic. Авторы письма призвали руководство компаний объединиться, чтобы сопротивляться требованиям Минобороны. Поддержали компанию и пользователи: в начале марта количество скачиваний приложения Claude на разных платформах выросло на 69%. Однако подрядчики выражают меньше оптимизма, и сделки Anhtropic оказались под угрозой срыва.

Почему это важно?

Коммерческие разработчики ИИ никогда не отрицали своей готовности работать с военными ведомствами и предоставлять свои технологии для проведения боевых операций. Однако случай Claude показывает, насколько глубоко технологии искусственного интеллекта встроены в военную инфраструктуру: армия не смогла сразу отказаться от запрещенного инструмента и перейти на другой. 

Эта ситуация поднимает и вопрос о том, кто должен устанавливать границы использования ИИ в военных целях. Может ли разработчик требовать прямого запрета на применение своих инструментов в тех или иных сценариях — или это исключительное право государства?