Ключевые выводы
- ИИ-системы Антропика используются в реальном времени для выбора целей в ударах по Ирану
- Трамп запретил использование моделей Антропика в госструктурах, но дал 6 месяцев на переход
- Lockheed Martin и другие оборонные подрядчики уже заменили Claude на конкурентов
- Пентагон использует Claude в связке с системой Палантир Maven для целеуказания
- Министр обороны Хейгсет ещё не ввёл официальный запрет, поэтому юридических барьеров нет
Антропик оказался в неловком положении — его системы помогают выбирать цели для бомбардировок, но при этом компания теряет оборонных клиентов. Как такое возможно и что будет дальше?
ИИ в зоне боевых действий
Ситуация вокруг Антропика напоминает сюжет из чёрной комедии. Компания, которая позиционирует себя как разработчик безопасного ИИ, теперь оказалась в центре военного конфликта. Ирония в том, что запрет Трампа на использование их систем в госструктурах вступил в силу как раз в тот момент, когда США и Израиль начали бомбардировки Тегерана.
Вот как это произошло: 27 февраля Трамп подписал указ, запрещающий федеральным агентствам использовать продукты Антропика. Компании дали шесть месяцев на то, чтобы свернуть контракты с Минобороны. Но на следующий день началась операция против Ирана. В результате модели Антропика используются для принятия решений о выборе целей в реальном времени.
По данным Вашингтон Пост, система работает в связке с платформой Палантир Maven. Она "предлагала сотни целей, выдавала точные координаты и расставляла приоритеты". Иными словами, ИИ помогал решать, кто и что будет бомбить. При этом официального запрета от Пентагона пока нет — Хейгсет только пообещал внести компанию в список рискованных поставщиков.
Это создаёт странную ситуацию: с одной стороны, Антропик теряет оборонных клиентов, которые спешат заменить их системы. С другой — его ИИ всё ещё используется в активных боевых действиях. Компания оказалась заложницей бюрократических проволочек и геополитических событий.
Почему оборонные подрядчики бегут от Антропика
Реакция рынка была молниеносной. Уже через неделю после указа Трампа крупные игроки начали искать замену. Lockheed Martin, один из крупнейших оборонных подрядчиков, начал заменять модели Антропика. По данным Рейтер, другие компании пошли тем же путём.
Интересно, что проблема коснулась не только прямых клиентов Пентагона. Венчурный фонд J2 Ventures сообщил, что 10 компаний из его портфеля "отказались от использования Claude для оборонных задач". Они находятся в процессе перехода на другие решения.
Причины очевидны. Никто не хочет быть замешанным в потенциальном скандале или потерять госзаказы. Даже если юридически запрет ещё не вступил в силу, репутационные риски слишком высоки. Лучше перестраховаться и заранее сменить поставщика.
Это показывает, насколько быстро может измениться ситуация в ИИ-рынке. Компании, которые вчера были в топе, сегодня могут оказаться в изоляции. Конкуренты, вероятно, уже готовы предложить выгодные условия тем, кто захочет перейти.
Что будет дальше
Самый большой вопрос — введёт ли Хейгсет официальный запрет. Если да, то перед Антропиком встанет выбор: либо судиться с правительством, либо полностью уйти с оборонного рынка. В любом случае, компания потеряет значительную часть доходов.
Интересно, что сам ИИ при этом продолжит использоваться. Даже если Антропик будет исключён из списка поставщиков, Пентагон найдёт альтернативы. Вопрос только в том, кто займёт эту нишу.
Эта ситуация также поднимает более широкую проблему. ИИ всё активнее используется в военных целях, но регулирование отстаёт. Компании оказываются в ситуации, когда технологии применяются так, как они не планировали. Это заставляет задуматься об этических рамках и контроле.
Для Антропика это серьёзный урок. Даже если они выиграют суд, репутация будет подпорчена. А если проиграют — придётся полностью пересматривать бизнес-модель. В любом случае, компания, которая хотела сделать ИИ безопасным, теперь оказалась в самом центре военного скандала.
Справка
Антропик — американская компания по разработке ИИ, основанная в 2021 году бывшими сотрудниками OpenAI. Штаб-квартира находится в Сан-Франциско. Компания известна своей моделью Claude и позиционирует себя как разработчик безопасного ИИ. Интересный факт: Антропик был создан как прямой конкурент OpenAI, но с упором на этичность и безопасность.
Палантир — американская компания по разработке программного обеспечения для анализа данных, основанная в 2003 году Питером Тилем и другими партнёрами. Известна своими платформами Gotham и Foundry, используемыми спецслужбами и военными. Компания названа в честве волшебного камня из «Властелина колец».
Lockheed Martin — крупнейшая в мире оборонная компания, основанная в 1995 году в результате слияния Lockheed Corporation и Martin Marietta. Штаб-квартира в Бетесде, штат Мэриленд. Занимается разработкой военной авиации, ракет, космических систем. Известна созданием истребителя F-35.
Питер Хейгсет — американский политик и военный деятель, занимающий пост министра обороны США с 2025 года. Ранее был журналистом и ведущим на телеканале Fox News. Известен своими консервативными взглядами и поддержкой Трампа.
Техническое приложение Maven — проект Пентагона по использованию ИИ для анализа данных с беспилотников. Запущен в 2017 году. Изначально вызвал протесты среди сотрудников Google, которые отказались участвовать. Сейчас работает с данными с беспилотников для выявления целей.
История с Антропиком показывает, как быстро технологии могут оказаться втянутыми в геополитические игры. Компания, которая хотела сделать ИИ безопасным, теперь помогает выбирать цели для бомбардировок. Это напоминание о том, что этические принципы часто сталкиваются с реальностью политики и войны.








