- Ключевые выводы
- Что такое Mythos и почему она «слишком опасна» для публичного доступа
- NSA: как агентство использует Mythos
- Британия тоже в игре: UK AI Security Institute получает доступ
- Конфликт интересов: почему Pentagon назвал Anthropic «риском цепочки поставок»
- Политический контекст: как меняются отношения Anthropic с администрацией США
- Что это значит для индустрии ИИ и киберзащиты
- Справка
Ключевые выводы
- NSA получила доступ к закрытой модели Mythos, разработанной Anthropic для задач кибербезопасности.
- Mythos ограничен 40‑ти организациям, среди которых — правительственные структуры США и Великобритании.
- Отношения Anthropic с оборонным сектором обострились после того, как компания отказалась предоставить модель Claude для массового наблюдения и автономного оружия.
Недавно вышедшие данные показывают, что правительственные агентства всё активнее используют закрытые ИИ‑модели, а компании‑разработчики пытаются балансировать между коммерческими интересами и национальной безопасностью.
Что такое Mythos и почему она «слишком опасна» для публичного доступа
Anthropic анонсировала модель Mythos в начале этого месяца как «фронтирную» ИИ‑систему, специально обученную для киберзадач: поиск уязвимостей, анализ кода, оценка эксплойтов. По словам создателей, модель способна генерировать детальные сценарии атак, что делает её потенциальным инструментом как защиты, так и нападения.
Именно из‑за этой двойственной природы Anthropic приняла решение не выпускать Mythos в открытый доступ. Вместо этого компания ограничила её использование примерно 40‑ти проверенным клиентам. Пока публично названо лишь десяток организаций – среди них крупные технологические фирмы, академические центры и, как стало известно, агентства национальной безопасности.
Такой подход напоминает «красные команды» в киберразведке: дать доступ тем, кто может быстро оценить угрозы, но не раскрывать инструменты потенциальным злоумышленникам.
NSA: как агентство использует Mythos
Согласно сообщениям, NSA входит в число незарегистрированных получателей Mythos. Основная цель – сканировать свои сети и критически важные инфраструктурные объекты в поисках эксплуатируемых уязвимостей. По сути, модель выступает в роли «умного» сканера, который умеет предсказывать, какие баги могут быть использованы в реальных атаках.
Традиционные инструменты обнаружения уязвимостей часто опираются на статический анализ и базы известных эксплойтов. Mythos, обученная на огромных массивах данных о реальных кибератаках, способна генерировать новые пути проникновения, которые ещё не задокументированы. Это дает NSA возможность «заглянуть вперёд» и закрыть дыры до того, как их обнаружат злоумышленники.
Важно отметить, что в рамках соглашения Anthropic не раскрывает полные возможности модели наружным аудиторам. Поэтому точные детали использования остаются закрытыми, но уже ясно, что это не просто очередной скрипт, а полноценный ИИ‑ассистент, способный вести диалог с аналитиками и предлагать конкретные шаги по исправлению.
Британия тоже в игре: UK AI Security Institute получает доступ
Помимо США, доступ к Mythos получил и британский AI Security Institute (AI‑SI). По сообщениям, институт использует модель для оценки киберрисков в государственных сетях Великобритании. Это свидетельствует о растущем международном сотрудничестве в сфере ИИ‑поддержки национальной безопасности.
Такое сотрудничество поднимает вопросы о стандартах обмена данными, юридических гарантиях и о том, как обеспечить, чтобы мощные ИИ‑инструменты не попали в руки недобросовестных государств.
Конфликт интересов: почему Pentagon назвал Anthropic «риском цепочки поставок»
Отношения Anthropic с Министерством обороны США обострились в марте, когда Pentagon официально классифицировал компанию как «рисковый элемент цепочки поставок». Причина – отказ Anthropic предоставить полные возможности модели Claude для «массового» наблюдения и разработки автономных систем вооружения.
Пентагон, как и многие другие органы, стремится к полной прозрачности и контролю над ИИ‑технологиями, которые могут использоваться в военных целях. Anthropic же, опасаясь репутационных и юридических последствий, поставил условия доступа лишь ограниченному кругу доверенных партнёров.
Эта позиция привела к судебному разбирательству, где компания подала иск, заявив, что маркировка её как «риска» наносит ущерб бизнесу и ставит под угрозу её независимость.
Политический контекст: как меняются отношения Anthropic с администрацией США
С началом 2026 года отношения Anthropic с Белым домом выглядели холодными. Однако в последние недели произошёл заметный «оттепель»: генеральный директор Anthropic Дарио Амодей встретился с руководителями Белого дома – Сьюзи Уайлс (главный сотрудник) и Скоттом Бессентом (секретарь Казначейства). По официальным сообщениям встреча прошла продуктивно.
Хотя детали переговоров не раскрываются, эксперты считают, что компания готова рассмотреть более тесное сотрудничество в обмен на определённые гарантии по использованию ИИ в государственных проектах, в том числе в сфере кибербезопасности.
Что это значит для индустрии ИИ и киберзащиты
Случай с Mythos показывает, что крупные ИИ‑игроки могут стать «ключевыми» поставщиками технологий для национальной безопасности, но при этом столкнуться с давлением со стороны правительств, желающих полный контроль.
Для компаний, разрабатывающих аналогичные модели, важен баланс: достаточно открытый доступ, чтобы заработать репутацию и привлечь клиентов, но достаточно закрытый, чтобы избежать попадания в руки злоумышленников.
Для правительств эта ситуация — приглашение к созданию чётких нормативных рамок, которые позволят использовать мощные ИИ‑инструменты, не ставя под угрозу гражданские свободы и международную стабильность.
Справка
National Security Agency (NSA) – американское агентство, отвечающее за сигнальную разведку и кибербезопасность. Основано в 1952 году, NSA управляет крупнейшей в мире сетью перехвата коммуникаций и активно разрабатывает собственные инструменты защиты.
Anthropic – компания по разработке генеративных ИИ‑моделей, основанная в 2020 году бывшими сотрудниками OpenAI. Руководитель – Дарио Амодей, бывший вице‑президент по исследованиям в OpenAI. Компания известна своей моделью Claude и подходом к «безопасному ИИ».
Mythos – закрытая модель от Anthropic, специально обученная для задач кибербезопасности: поиск уязвимостей, генерация эксплойтов, оценка риска. Доступна лишь ограниченному числу организаций (около 40).
Claude – более широкая языковая модель Anthropic, сравнимая с GPT‑4 по возможностям. Используется в бизнес‑решениях, но не предоставлена для массового военного наблюдения.
AI Security Institute (AI‑SI) – британская организация, объединяющая экспертов по кибербезопасности и ИИ. Цель института – развитие безопасных ИИ‑технологий и их применение в государственных структурах.
Итак, NSA уже использует Mythos, а Anthropic пытается сохранить независимость, балансируя между коммерцией и требованиями государства. Вопрос лишь в том, насколько быстро будет установлен чёткий нормативный режим для таких мощных ИИ‑инструментов.







