Утечка Кода Anthropic: Как «Небрежный» Промах Один Из Самых Осторожных Ai-Стартапов Потянул За Собой Цепь Неловкостей

Ключевые выводы

  • Вторая за неделю ошибка: После утечки 3000 внутренних файлов 27 марта, 1 апреля Anthropic выпустил обновление Claude Code, забыв «снять галочку» и опубликовав ещё ~2000 файлов и 512 000 строк кода.
  • Утекло не ядро модели, а оболочка: В публичный доступ попала архитектура продукта — инструкции по поведению, инструменты, ограничения, но не весовые коэффициенты самой модели Claude. Это blueprint, а not the brain.
  • Почему это больно: Claude Code — серьёзный продукт для разработчиков, который уже заставил OpenAI скорректировать стратегию, свернув Sora для фокуса на enterprise. Утечка даёт конкурентам инструкцию по сборке.
  • Реакция Anthropic — «человеческая ошибка»: Компания назвала инцидент проблемой упаковки релиза, а не взломом. Внутри, вероятно, паника.
  • Практический вывод для индустрии: Инцидент показывает разрыв между риторикой об «ответственном AI» и операционной безопасностью в rapid-release cycles.
Представьте: вы компания, которая строит имидж на осторожности и глубоких исследованиях рисков ИИ. И вот вам — два раза за неделю вы позорно спотыкаетесь из-за забытого чекбокса в системе контроля версий. Гротескная ирония situation. Но за этим лежит фундаментальный вопрос: а готов ли индустрии к степеням свободы, которые она сама создаёт?

Что стряслось: хроника двух промахов

В понедельник 30 марта компания Anthropic, ещё вчерашняя гордость ответственного подхода к ИИ, пережила второй за неделю публичный провал операционной безопасности. Если 27 марта Fortune писала об утечке ~3000 внутренних файлов (включая черновик анонса новой модели), то 31 марта случилось следующее.

При выпуске версии 2.1.88 своего пакета Claude Code — инструмента командной строки для разработчиков, — в публичный npm-репозиторий случайно попали дополнительные файлы. Их обнаружил исследователь по безопасности Chaofan Shou и оперативно сообщил в X (бывший Twitter).

В документировке было около 2000 исходных файлов и более 512 000 строк кода. Это не сама модель Claude (её weights), но и не просто «обёртка around an API». Это архитектурный blueprint: исходный код самой логики Claude Code — то, как он обрабатывает запросы, какие инструменты использует, как определяет границы, как взаимодействует с файловой системой и внешними API. «Пroduction-grade developer experience», как окрестил это один из разработчиков.

Anthropic в своих комментариях для СМИ отреагировало без паники: «Это была ошибка упаковки релиза, вызванная человеческим фактором, а не взлом системы безопасности». Слова правильные, но контекст их обесценивает.

Почему Claude Code — это не какой-нибудь экспериментальный side project

Чтобы понять масштаб, нужно оглянуться на рынок. Claude Code — это CLI-инструмент, который позволяет программистам писать, рефакторить и отлаживать код с помощью ИИ прямо в терминале. Он быстро стал конкурентом не только GitHub Copilot, но и продуктам вроде Cursor или Warp.

Более того, его рост повлиял на стратегию гиганта. Издание The Wall Street Journal сообщало, что OpenAI свернула публичный доступ к своему генератору видео Sora всего через полгода после запуска, чтобы перераспределить ресурсы в сторону разработчиков и корпоративных клиентов. Одна из причин? Именно давление со стороны Claude Code и других инструментов Anthropic на рынке кодирования.

Так что «архитектурный blueprint» одного из ключевых продуктов, атаковавшего рынок, теперь в открытом доступе. Конкуренты могут изучить, как он спроектирован, какие паттерны используются, как организована безопасность (или её отсутствие) в коде.

«Безопасный» AI-стартап и его человеческие ошибки: контраст

Ирония situation состоит в двойственности Anthropic. Имидж компании — «внимательный, осторожный игрок». Они публикуют детальные исследования по безопасности ИИ, нанимают топовых исследователей (включая co-founder Dario Amodei), и最重要的是, они ведут юридическую борьбу с администрацией Трампа против обязательного предоставления моделей Пентагону — буквально сражаются за принцип ответственности.

А теперь — дважды — их «ловят» на операционной небрежности, которая больше похожа на типичные для быстрых стартапов проблемы DevOps. Первый инцидент («утечка мифа AI» с черновиком анонса) и второй (утечка кода) — это не атаки хакеров. Это конфигурационные ошибки, «забытый чекбокс» в build-процессе. Где, интересно, те принципы безопасности, которые декларируются в научных papers?

Возникает вопрос: а что ценнее для безопасности — теоретические исследования alignment risks или безупречные процессы сборки и деплоя? Anthropic пока ставит на первое, но второе даёт сбой.

Что теперь: анализ последствий для рынка

Важно понимать, что утекло. Веса модели Claude (её «мозг») — нет. Утекла «операционная система» вокруг неё. Для разработчиков-конкурентов это как получить чертёж двигателя, а не сам двигатель. Они увидят архитектуру, паттерны, ошибки в коде, который управляет моделью. Это не равенство доступа, но и не пустяк.

В краткосрочной перспективе: Патч-релиз. Команды-конкуренты (OpenAI, Google, Mistral и стартапы вроде cursor.sh) изучат код. Они могут найти уязвимости в логике Claude Code (например, способы обхода системных ограничений) или, наоборот, скопировать удачные архитектурные решения. Для Anthropic — нужно срочно выпустить новый, «чистый» релиз и начать аудит процессов.

В долгосрочной перспективе: Удар по репутации «самого безопасного игрока». Если вы продаёте идею ответственности, ваши внутренние процессы должны быть безупречны. Два подобных инцидента за неделю создают нарратив «о they talk the talk, but can’t walk the walk». Инвесторы и enterprise-клиенты могут начать задавать волнующие вопросы о governance.

Но field движется быстро. Через месяц этот инцидент может забыться, если Anthropic не допустит третьего. А если выпустит сенсационную модель — все утечки сгладятся. Однако для индустрии это сигнал: безопасность — это не только alignment и ethics boards. Это и ваш CI/CD pipeline.

Кто такой Chaofan Shou и почему его роль важна

Исследователь Chaofan Shou (в X — @Fried_rice) — пример white-hat hacker, который стал ключевым звеном в раскрытии. Он не взламывал, а заметил то, что не должно было быть публичным. Его быстрый отклик — это и хорошая практика безопасности (работа реearchers), и печальный показатель: содержимое было в открытом доступе «почти немедленно». Anthropic, как publisher, должен был это проверить до публикации. Ошибка на стороне производителя, не на стороне «злоумышленника».

Что это значит для разработчиков? Практический взгляд

Если вы используете Claude Code или планируете:

  • Проверьте версии. Убедитесь, что вы используете последний, заново опубликованный чистый пакет (версия после 2.1.88).
  • Не взламывайте, не паникуйте. Инцидент не означает, что ваш код теперь в опасности. Утекшая архитектура — это инструкция по работе ИИ-инструмента, а не бэкдор в ваши проекты.
  • Оцените альтернативы. Если вы выбирали Claude Code из-за его «вдумчивости» или уникальных функций, утечка могла сделать его более прозрачным, но и более уязвимым для копирования. Теперь у конкурентов есть чёткое понимание его сильных сторон.

Для DevOps-инженеров и security-специалистов это case study: «почему need to have multi-stage approval for npm publish». Один клик — и код компании в общем доступе.

Справка: ключевые сущности и контекст

Anthropic
Компания-разработчик ИИ-моделей Claude. Основана в 2021 году бывшими сотрудниками OpenAI (включая сестёр-близнецов Amodei). Позиционирует себя как «безопасный и ответственный» AI-исследователь, активно публикует работы по constitutional AI и AI safety. По оценкам, её капитализация превышает $15 млрд. Основной продукт — облачная модель Claude, доступная через API и веб-интерфейс. Claude Code — её инструмент для разработчиков, запущенный в 2024 году.

Claude Code
CLI-инструмент (командная строка), выпущенный Anthropic в 2024 году. Позволяет программистам генерировать, редактировать и объяснять код, работая с файловой системой, запускать команды, искать ошибки. Был воспринят как серьёзный конкурент Copilot, особенно для задач, требующих понимания контекста проекта. Часто комментируется как «более осторожный», но и более «деревянный», чем продукты OpenAI.

Chaofan Shou
Независимый исследователь безопасности, активный в сообществе white-hat hackers. В данном случае сыграл роль discoverer — первым публично обратил внимание на утечку в npm. Его аккаунт в X часто используется для раскрытия подобных инцидентов. Представляет себя как «security enthusiast».

The Wall Street Journal (WSJ)
Крупное american business newspaper, часто публикующая эксклюзивы о технологических компаниях. В контексте — источник информации о стратегическом сдвиге OpenAI из-за конкуренции.

Fortune
American business magazine. Первый сообщил об утечке 3000 внутренних файлов Anthropic 27 марта, что задало тон последующим репортажам.

Dario Amodei
Co-founder и CEO Anthropic. Бывший вице-президент исследований в OpenAI. Ключевая фигура в движении за «конституционный ИИ» (constitutional AI). Его мнения по безопасности ИИ часто цитируются в крупных СМИ.

Так называемый «осторожный» подход к ИИ — это не только пафосные статьи и суды. Это тыщи мелких, ежедневных решений по контролю качества, security review и release management. Anthropic теперь получил болезненный урок: говорить о рисках модели — одно, а управлять рисками deployment-процесса — совсем другое. И рынок смотрит. Второй промах за неделю — уже не случайность, а symptom.

Интересно почитать :

Andreessen Horowitz привлекает $15 млрд: Как крупнейший фонд планирует
распределить средства в ИИ
Andreessen Horowitz привлекает $15 млрд: Как крупнейший фонд планирует распределить средства в ИИ

Ключевые выводы Andreessen Horowitz привлёк рекордные $15 млрд, из которых $1.7 млрд направят на инфраструктуру ИИ Команда Дженнифер Ли курирует инвестиции в ElevenLabs, Fal, Ideogram и OpenAI Основные приоритеты: решение …

Фонд Founders Fund IV собрал $6 млрд: как Питер Тиль продолжает ставить большие
ставки на ИИ и оборону
Фонд Founders Fund IV собрал $6 млрд: как Питер Тиль продолжает ставить большие ставки на ИИ и оборону

Ключевые выводы Founders Fund IV привлек $6 млрд — один из крупнейших ростовых фондов за последнее время. Более $1,5 млрд вложили сами партнеры фонда, что подчеркивает уверенность в стратегии. Фонд …

Космические дата-центры вместо лазеров: как стартап основного создателя
Robinhood ищет $350 млн на новую эру вычиснений
Космические дата-центры вместо лазеров: как стартап основного создателя Robinhood ищет $350 млн на новую эру вычиснений

Ключевые выводы Стартап Aetherflux, основанный соучредителем Robinhood Байджу Бхаттом, в 2024 году pivotнулся с gamble-проекта лазерной передачи энергии с орбиты на Землю на более прагматичный бизнес — строительство дата-центров в …

Авиационный конфликт: Archer Aviation обвиняет Joby в обмане правительства США
Авиационный конфликт: Archer Aviation обвиняет Joby в обмане правительства США

Ключевые выводы Archer Aviation подала встречный иск против Joby Aviation, обвинив конкурента в мошенничестве с федеральными контрактами Компания Joby якобы скрывала китайские связи, неправильно классифицируя импортные комплектующие Конфликт разгорелся на …

Palantir опубликовала 22‑пунктовый «бриф» книги «Технологическая Республика»:
что стоит знать?
Palantir опубликовала 22‑пунктовый «бриф» книги «Технологическая Республика»: что стоит знать?

Ключевые выводы Palantir опубликовала 22‑пунктовый «бриф» к книге «Технологическая Республика», в котором соединяет технологию, моральный долг и национальную безопасность. Краткое содержание стало объектом критики: его считают корпоративным PR, а не …

Netflix снова поднимает цены: новые тарифы 2026, reasons и как это повлияет на
вас
Netflix снова поднимает цены: новые тарифы 2026, reasons и как это повлияет на вас

Ключевые выводы Netflix повысил цены на все тарифы в США: самый дешёвый с рекламой теперь $8.99 (было $7.99), стандартный без рекламы — $19.99 (было $17.99), премиум — $26.99. Дороже стали …

ФильтрИзбранноеМеню43750 ₽
Top