Ключевые выводы
- Amazon объявил о новой партии инвестиций в размере $5 млрд в Anthropic, доведя общую сумму вложений до $13 млрд.
- Anthropic обязуется потратить более $100 млрд на вычислительные ресурсы AWS в течение следующих 10 лет, получив доступ к до 5 ГВт мощности для обучения и эксплуатации модели Claude.
- Сделка включает чипы Trainium 2‑4 и даёт Anthropic опцию покупки будущих процессоров Amazon, усиливая конкуренцию с Nvidia.
Amazon ускоряет свою стратегию в AI, сочетая денежные вложения с доступом к собственным кастомным чипам. Для Anthropic это шанс масштабировать Claude без оглядывания на внешних поставщиков.
Что именно происходит: детали сделки
В понедельник Anthropic официально объявил, что Amazon согласился инвестировать ещё $5 млрд. Это пополнение доводит суммарные вложения Amazon в компанию до $13 млрд. Но деньги – лишь часть соглашения.
Anthropic обязался потратить более $100 млрд на облачные услуги AWS в течение ближайших десяти лет. По плану, Amazon предоставит до 5 ГВт вычислительной мощности, необходимой для обучения и развёртывания их крупной языковой модели Claude.
Техническая сторона сделки сфокусирована на собственных процессорах Amazon – CPU Graviton и AI‑акселераторах Trainium. В рамках нового соглашения Anthropic получит доступ к чипам Trainium 2, Trainium 3 (выпущенным в декабре) и Trainium 4 (пока в разработке). Кроме того, компания получила опцию «купить» будущие поколения процессоров, когда они появятся.
Таким образом, Amazon не просто финансирует стартап, а превращает его в крупного партнёра, который будет использовать почти эксклюзивный набор их облачных и аппаратных решений.
Сравнение с предыдущей инвестицией в OpenAI
Минимум два месяца назад Amazon принял участие в раунде финансирования OpenAI, вложив $50 млрд в общий фонд $110 млрд. Оценка компании‑создателя ChatGPT тогда составила $730 млрд. И там, и здесь, часть сделки была оформлена как покупка облачных ресурсов, а не прямого денежного вознаграждения.
Главное отличие – масштаб. В случае с OpenAI Amazon получил право использовать их инфраструктуру, но не заключил долгосрочного контракта на конкретные мощности. С Anthropic же речь идёт о фиксированном объёме вычислительных ресурсов (5 ГВт) и долгосрочной привязке к чипам Trainium, что указывает на более глубокую интеграцию.
Для рынка это сигнал: крупные облачные провайдеры видят выгоду в прямом участии в развитии больших моделей, а не просто в продаже серверных мощностей. Инвестиции становятся способом закрепить клиентов‑партнёров в своей экосистеме.
Почему всё это важно для индустрии ИИ
Большие языковые модели (LLM) требуют огромных вычислительных ресурсов. По оценкам экспертов, обучение модели уровня Claude 2 может потребовать сотни мегаватт‑часов энергии. Доступ к 5 ГВт через AWS позволяет Anthropic ускорить исследования и вывести новые версии продукта на рынок быстрее, чем если бы они полагались на сторонние облака.
Чипы Trainium также играют ключевую роль. В отличие от традиционных GPU от Nvidia, они оптимизированы под типичные нагрузки LLM: высокопараллельные матричные операции и низкая латентность при инференсе. Это даёт потенциально более выгодный соотношение цены и производительности, что особенно важно, когда речь идёт о масштабных коммерческих проектах.
Более того, Amazon получает стратегический актив – крупного клиента, который будет активно использовать их железо. Это помогает Amazon укреплять позицию в конкуренции с другими облачными гигантами и с Nvidia в сфере AI‑акселераторов.
Возможные сценарии дальнейшего развития
Сейчас ходят слухи, что Anthropic может объявить новый раунд финансирования, оценивающий компанию в $800 млрд и выше. Если это произойдёт, Amazon уже будет иметь «золотой билет» на использование их инфраструктуры, что усилит её привлекательность для инвесторов.
С другой стороны, если Anthropic решит принять внешнее финансирование, вероятно, они потребуют дополнительные привилегии от AWS – например, ускоренный доступ к будущим версиям Trainium или эксклюзивные возможности по кастомизации чипов.
Для конкурентов (Google Cloud, Microsoft Azure) это сигнал к ускоренному развитию собственных AI‑чипов и поиску партнёров, готовых заключать долгосрочные контракты вместо разовых покупок облака.
Справка
Amazon (Amazon.com, Inc.) – американская технологическая корпорация, основанная Джеффом Безосом в 1994 году. Начала как онлайн‑книжный магазин, а сегодня охватывает облачные сервисы (AWS), электронику, логистику и медиа. AWS – крупнейший в мире поставщик облачной инфраструктуры, обслуживающий более 30 % мирового рынка.
Anthropic – стартап в области искусственного интеллекта, основанный бывшими сотрудниками OpenAI в 2020 году. Компания известна моделью Claude, которая конкурирует с ChatGPT по качеству диалогов и безопасности генерации текста.
Claude – семейство больших языковых моделей, разработанных Anthropic. Первоначальная версия была представлена в 2023 году, а дальше последовали Claude 2 и ожидаемая Claude 3, отличающиеся улучшенными способностями к цепочечному рассуждению и меньшим риском токсичного вывода.
Trainium – семейство AI‑акселераторов от Amazon, предназначенных специально для обучения и инференса больших моделей. Выпускались версии Trainium 1, 2, 3 (декабрь 2023) и запланированы Trainium 4, которые обещают ещё большую плотность тензорных ядер.
Graviton – линейка low‑power CPU от Amazon, построенных на архитектуре ARM. Они используются в широком спектре EC2‑инстансов, обеспечивая хорошую энергоэффективность и конкурентоспособные цены по сравнению с x86‑процессорами.
OpenAI – исследовательская организация в области ИИ, основанная в 2015 году Илоной Маск, Сэмом Альтманом и другими. Создала ChatGPT, DALL·E и ряд других популярных моделей, а также привлекла крупные инвестиции, в том числе от Microsoft и Amazon.
Сделка Amazon‑Anthropic показывает, как деньги, облако и собственные процессоры могут работать в одной экосистеме. Для рынка ИИ это новый уровень «вертикальной» интеграции, где облачный провайдер не просто клиент, а полноценный партнёр‑инвестор.







