Nsa Использует Закрытую Модель Anthropic Mythos Для Поиска Уязвимостей: Что Происходит?

Ключевые выводы

  • NSA получила доступ к закрытой модели Mythos, разработанной Anthropic для задач кибербезопасности.
  • Mythos ограничен 40‑ти организациям, среди которых — правительственные структуры США и Великобритании.
  • Отношения Anthropic с оборонным сектором обострились после того, как компания отказалась предоставить модель Claude для массового наблюдения и автономного оружия.
Недавно вышедшие данные показывают, что правительственные агентства всё активнее используют закрытые ИИ‑модели, а компании‑разработчики пытаются балансировать между коммерческими интересами и национальной безопасностью.

Что такое Mythos и почему она «слишком опасна» для публичного доступа

Anthropic анонсировала модель Mythos в начале этого месяца как «фронтирную» ИИ‑систему, специально обученную для киберзадач: поиск уязвимостей, анализ кода, оценка эксплойтов. По словам создателей, модель способна генерировать детальные сценарии атак, что делает её потенциальным инструментом как защиты, так и нападения.

Именно из‑за этой двойственной природы Anthropic приняла решение не выпускать Mythos в открытый доступ. Вместо этого компания ограничила её использование примерно 40‑ти проверенным клиентам. Пока публично названо лишь десяток организаций – среди них крупные технологические фирмы, академические центры и, как стало известно, агентства национальной безопасности.

Такой подход напоминает «красные команды» в киберразведке: дать доступ тем, кто может быстро оценить угрозы, но не раскрывать инструменты потенциальным злоумышленникам.

NSA: как агентство использует Mythos

Согласно сообщениям, NSA входит в число незарегистрированных получателей Mythos. Основная цель – сканировать свои сети и критически важные инфраструктурные объекты в поисках эксплуатируемых уязвимостей. По сути, модель выступает в роли «умного» сканера, который умеет предсказывать, какие баги могут быть использованы в реальных атаках.

Традиционные инструменты обнаружения уязвимостей часто опираются на статический анализ и базы известных эксплойтов. Mythos, обученная на огромных массивах данных о реальных кибератаках, способна генерировать новые пути проникновения, которые ещё не задокументированы. Это дает NSA возможность «заглянуть вперёд» и закрыть дыры до того, как их обнаружат злоумышленники.

Важно отметить, что в рамках соглашения Anthropic не раскрывает полные возможности модели наружным аудиторам. Поэтому точные детали использования остаются закрытыми, но уже ясно, что это не просто очередной скрипт, а полноценный ИИ‑ассистент, способный вести диалог с аналитиками и предлагать конкретные шаги по исправлению.

Британия тоже в игре: UK AI Security Institute получает доступ

Помимо США, доступ к Mythos получил и британский AI Security Institute (AI‑SI). По сообщениям, институт использует модель для оценки киберрисков в государственных сетях Великобритании. Это свидетельствует о растущем международном сотрудничестве в сфере ИИ‑поддержки национальной безопасности.

Такое сотрудничество поднимает вопросы о стандартах обмена данными, юридических гарантиях и о том, как обеспечить, чтобы мощные ИИ‑инструменты не попали в руки недобросовестных государств.

Конфликт интересов: почему Pentagon назвал Anthropic «риском цепочки поставок»

Отношения Anthropic с Министерством обороны США обострились в марте, когда Pentagon официально классифицировал компанию как «рисковый элемент цепочки поставок». Причина – отказ Anthropic предоставить полные возможности модели Claude для «массового» наблюдения и разработки автономных систем вооружения.

Пентагон, как и многие другие органы, стремится к полной прозрачности и контролю над ИИ‑технологиями, которые могут использоваться в военных целях. Anthropic же, опасаясь репутационных и юридических последствий, поставил условия доступа лишь ограниченному кругу доверенных партнёров.

Эта позиция привела к судебному разбирательству, где компания подала иск, заявив, что маркировка её как «риска» наносит ущерб бизнесу и ставит под угрозу её независимость.

Политический контекст: как меняются отношения Anthropic с администрацией США

С началом 2026 года отношения Anthropic с Белым домом выглядели холодными. Однако в последние недели произошёл заметный «оттепель»: генеральный директор Anthropic Дарио Амодей встретился с руководителями Белого дома – Сьюзи Уайлс (главный сотрудник) и Скоттом Бессентом (секретарь Казначейства). По официальным сообщениям встреча прошла продуктивно.

Хотя детали переговоров не раскрываются, эксперты считают, что компания готова рассмотреть более тесное сотрудничество в обмен на определённые гарантии по использованию ИИ в государственных проектах, в том числе в сфере кибербезопасности.

Что это значит для индустрии ИИ и киберзащиты

Случай с Mythos показывает, что крупные ИИ‑игроки могут стать «ключевыми» поставщиками технологий для национальной безопасности, но при этом столкнуться с давлением со стороны правительств, желающих полный контроль.

Для компаний, разрабатывающих аналогичные модели, важен баланс: достаточно открытый доступ, чтобы заработать репутацию и привлечь клиентов, но достаточно закрытый, чтобы избежать попадания в руки злоумышленников.

Для правительств эта ситуация — приглашение к созданию чётких нормативных рамок, которые позволят использовать мощные ИИ‑инструменты, не ставя под угрозу гражданские свободы и международную стабильность.

Справка

National Security Agency (NSA) – американское агентство, отвечающее за сигнальную разведку и кибербезопасность. Основано в 1952 году, NSA управляет крупнейшей в мире сетью перехвата коммуникаций и активно разрабатывает собственные инструменты защиты.

Anthropic – компания по разработке генеративных ИИ‑моделей, основанная в 2020 году бывшими сотрудниками OpenAI. Руководитель – Дарио Амодей, бывший вице‑президент по исследованиям в OpenAI. Компания известна своей моделью Claude и подходом к «безопасному ИИ».

Mythos – закрытая модель от Anthropic, специально обученная для задач кибербезопасности: поиск уязвимостей, генерация эксплойтов, оценка риска. Доступна лишь ограниченному числу организаций (около 40).

Claude – более широкая языковая модель Anthropic, сравнимая с GPT‑4 по возможностям. Используется в бизнес‑решениях, но не предоставлена для массового военного наблюдения.

AI Security Institute (AI‑SI) – британская организация, объединяющая экспертов по кибербезопасности и ИИ. Цель института – развитие безопасных ИИ‑технологий и их применение в государственных структурах.

Итак, NSA уже использует Mythos, а Anthropic пытается сохранить независимость, балансируя между коммерцией и требованиями государства. Вопрос лишь в том, насколько быстро будет установлен чёткий нормативный режим для таких мощных ИИ‑инструментов.

Интересно почитать :

Live Translate от Google: теперь на iOS и в 12 странах. Как это работает и кому
нужно
Live Translate от Google: теперь на iOS и в 12 странах. Как это работает и кому нужно

Ключевые выводы Функция Live Translate, которая позволяет слышать перевод разговоров прямо в наушниках, теперь доступна на iOS. Ранее она была только для Android. География использования расширилась до 12 стран: США, …

Entire привлекает рекордные $60 млн на управление кодом от ИИ – как новый
инструмент изменит разработку
Entire привлекает рекордные $60 млн на управление кодом от ИИ – как новый инструмент изменит разработку

Ключевые выводы Стартап Entire получил рекордные $60 млн посевного финансирования при оценке в $300 млн Основатель – Томас Домке, экс-CEO GitHub, создавший Copilot Решение помогает контролировать код, сгенерированный ИИ-агентами Первый …

X Тестирует Новый Формат Рекламы: Встроенные Рекомендации под Постами
X Тестирует Новый Формат Рекламы: Встроенные Рекомендации под Постами

Ключевые выводы X тестирует новый формат рекламы, встраивая рекомендации под посты, ссылающиеся на компанию или её продукты Тестовый рекламный блок "Get Starlink" появился под постом о сервисе спутникового интернета Глава …

Google заплатит $68 млн за незаконный сбор данных голосовым ассистентом: детали
скандала
Google заплатит $68 млн за незаконный сбор данных голосовым ассистентом: детали скандала

Вы когда-нибудь шептали другу номер своей карты или обсуждали покупку у холодильника, а потом видели тематическую рекламу? Новое судебное дело против Google Assistant доказывает: эти совпадения могут быть неслучайными. Компания …

10 новых игр для слабых ПК в 2026 году, которые действительно работают
10 новых игр для слабых ПК в 2026 году, которые действительно работают

Кратко: Все 10 игр проходят на видеокарте GTX 1050 или аналогичной. Требования варьируются от 2 ГБ ОЗУ до 4 ГБ, без сложных шейдеров. В таблице — жанр, дата релиза, минимальная …

YouTube TV представляет персонализированные пакеты: до $28 экономии для зрителей
YouTube TV представляет персонализированные пакеты: до $28 экономии для зрителей

Ключевые выводы YouTube TV предлагает 10+ планов дешевле базового ($82.99) — от $54.99 в месяц Самый выгодный вариант — Entertainment: экономия $28 + локальные каналы Новинка решает проблему переплаты за …

ФильтрИзбранноеМеню43750 ₽
Top