- Ключевые выводы
- Как все началось: $200 миллионов контракта, который рухнул
- OpenAI и xAI: как конкуренты Антропик заняли пустующее место
- Пентагон строит собственные ИИ: "Инженерная работа уже началась"
- Антропик как "риск цепочки поставок": юридическая битва
- Что это значит для будущего ИИ в военных целях
- Справка
- Антропик
- OpenAI
- xAI
- Пентагон
- Claude (языковая модель)
Ключевые выводы
- Пентагон создает собственные LLM для замены технологий Антропик после разрыва контракта
- Конфликт возник из-за разногласий по использованию ИИ для массового надзора и автономного оружия
- OpenAI и xAI подписали новые соглашения с Минобороны, в то время как Антропик подал в суд
- Антропик получил статус "риска цепочки поставок", что запрещает другим компаниям работать с ним
- Минобороны планирует запустить собственные ИИ-системы для оперативного использования в ближайшее время
То, что начиналось как коммерческое соглашение, превратилось в технологическую холодную войну между разработчиками ИИ и военными. Теперь судьба этих технологий может решаться не на рынке, а в судах.
Как все началось: $200 миллионов контракта, который рухнул
Все началось с контракта на $200 миллионов между Антропик и Департаментом обороны США. Компания должна была предоставить свои LLM (большие языковые модели) для военных нужд. Но уже через несколько недель стороны не смогли прийти к соглашению по ключевому вопросу: насколько свободно Пентагон мог бы использовать эту технологию.
Антропик настаивала на включении в контракт специальной оговорки, запрещающей использовать их ИИ для массового надзора за американскими гражданами и для создания оружия, способного стрелять без участия человека. Пентагон, в свою очередь, не хотел ограничивать себя этими рамками. Как вспоминает один из источников, "это был классический конфликт между этическими принципами разработчиков и практическими потребностями военных".
Когда переговоры зашли в тупик, Антропик дала Пентагону ультиматум: либо подписываем контракт с оговорками, либо все. Пентагон выбрал второй вариант. И тут в игру вступила OpenAI.
OpenAI и xAI: как конкуренты Антропик заняли пустующее место
Пока Антропик и Пентагон не могли найти общий язык, OpenAI не упустила шанса. Компания быстро заключила свое собственное соглашение с Минобороны, предложив более гибкие условия использования своих технологий. "Они поняли, что на рынке образовалась ниша, и уверенно в нее вошли", - комментирует ситуацию один из экспертов в области оборонных технологий.
Но это еще не все. Министерство обороны также подписало соглашение с компанией xAI Илона Маска, дав ей доступ к своим классифицированным системам. Теперь Grok от xAI будет работать в секретных военных сетях. Это особенно символично, учитывая, что сама администрация Трампа переименовала Департамент обороны в Департамент Войны.
Для Антропик это было двойным ударом. Не только они потеряли контракт, но и увидели, как их конкуренты занимают их место. "Это как подготовиться к важной встрече, а потом узнать, что ее перенесли, и твой конкурент уже сидит за этим столом", - говорит один из бывших сотрудников компании.
Пентагон строит собственные ИИ: "Инженерная работа уже началась"
Теперь главный вопрос: что будет дальше? По словам Камерона Стэнли, главного цифрового и ИИ-директора Пентагона, ответ очевиден. "Министерство активно работает над несколькими LLM в собственных правительственных средах", - заявил он в недавнем интервью. "Инженерная работа уже началась, и мы ожидаем, что эти системы будут доступны для оперативного использования очень скоро".
Это означает, что Пентагон не просто ищет замену Антропик - он создает собственные ИИ-системы с нуля. И это логично. Если компания не может договориться с поставщиком, самый надежный способ - стать этим поставщиком самому. Особенно когда речь идет о технологиях, критически важных для национальной безопасности.
Но здесь есть подвох. Создание собственных LLM - это не просто вопрос найма программистов. Это огромные вычислительные мощности, доступ к данным, экспертиза в машинном обучении. Пентагону придется либо развивать эти компетенции внутри себя, либо покупать их у частных компаний. И это может оказаться дороже, чем просто подписать контракт с Антропик.
Антропик как "риск цепочки поставок": юридическая битва
Ситуация стала еще сложнее, когда министр обороны Пит Хегсет объявил Антропик "риском цепочки поставок". Это термин обычно используется для иностранных противников - компаний, которые могут представлять угрозу национальной безопасности. Теперь любая компания, работающая с Пентагоном, не может работать и с Антропик.
Это как получить черный список в бизнесе. Представьте, что вы владелец ресторана, и вдруг узнаете, что все ваши поставщики не могут больше работать с вами, потому что вас объявили "риском для пищевой цепочки". Для технологической компании в США это почти приговор.
Антропик не собирается сдаваться. Компания подала в суд на Департамент обороны, оспаривая это обозначение. "Мы считаем, что это необоснованное решение, основанное не на фактах, а на политических соображениях", - заявил представитель компании. Судебная тяжба может затянуться на годы, и пока она будет длиться, Антропик останется в изоляции от основного рынка оборонных технологий.
Что это значит для будущего ИИ в военных целях
Эта история - не просто корпоративный конфликт. Это окно в будущее, где этические принципы разработчиков ИИ сталкиваются с прагматическими потребностями военных. С одной стороны, компании вроде Антропик хотят, чтобы их технологии использовались ответственно. С другой - военные хотят иметь максимальную гибкость в использовании этих инструментов.
Возникает вопрос: могут ли эти две позиции вообще совмещаться? Если компания создает ИИ, который может использоваться для массового надзора или автономного оружия, может ли она реально контролировать, как он будет применяться? Или это иллюзия контроля в мире, где технологии быстро распространяются?
Возможно, ответ кроется в том, что сейчас делает Пентагон: создании собственных систем. Если армия будет разрабатывать ИИ внутри себя, она сможет контролировать каждый аспект - от этических норм до технических характеристик. Но тогда возникает другой вопрос: а стоит ли доверять армии определять эти нормы?
Справка
Антропик
Антропик - американская компания по разработке ИИ, основанная в 2021 году бывшими сотрудниками OpenAI. Штаб-квартира расположена в Сан-Франциско, Калифорния. Компания известна своими усилиями по созданию "безопасного ИИ" и разработала языковую модель Claude. Интересный факт: Антропик была одной из первых компаний, которая публично выступила за регулирование ИИ и установление этических ограничений на его использование.
OpenAI
OpenAI - исследовательская организация и компания по разработке ИИ, основанная в 2015 году Илоном Маском, Сэмом Альтманом и другими. Изначально была некоммерческой, но в 2019 году стала коммерческой. OpenAI создала ChatGPT и GPT-4, которые стали одними из самых популярных языковых моделей в мире. Компания получила $1 миллиард инвестиций от Microsoft в 2019 году.
xAI
xAI - компания по разработке ИИ, основанная Илоном Маском в 2023 году. Основная цель - "понять истинную природу Вселенной". Компания создала языковую модель Grok, которая позиционируется как более "разговорчивая" и менее цензурированная, чем конкуренты. Интересный факт: xAI работает над созданием ИИ, который сможет обрабатывать не только текст, но и изображения, звук и другие типы данных.
Пентагон
Пентагон - штаб-квартира Министерства обороны США, расположенная в Арлингтоне, штат Вирджиния. Здание имеет пятиугольную форму, отсюда и название. Построено в 1943 году, является крупнейшим офисным зданием в мире по площади. Занимает около 23 000 человек ежедневно. Интересный факт: Пентагон имеет собственную почтовую индексацию и даже свой полицейский департамент.
Claude (языковая модель)
Claude - языковая модель, разработанная Антропик. Названа в честь философа Клода Шеннона, "отца теории информации". Модель позиционируется как более безопасная и этически ориентированная, чем конкуренты. Интересный факт: Claude может обрабатывать до 100 000 токенов контекста, что позволяет ему анализировать очень длинные документы или диалоги.
История конфликта между Антропик и Пентагоном - это не просто корпоративный скандал. Это прелюдия к глобальным дебатам о том, кто должен контролировать будущее ИИ: этические разработчики, прагматичные военные или общество в целом. Ответ на этот вопрос определит, каким будет наш мир через 10-20 лет.








