Атака На Ai-Шлюз: Как Скандал С Сертификацией Delve Заставил Litellm Сменить Поставщика Безопасности

Ключевые выводы

  • Популярный open-source AI-шлюз LiteLLM стал жертвой вредоносного ПО, вскрывшего проблемы с его сертификацией безопасности.
  • Провайдер сертификаций Delve обвиняют в фальсификации аудиторских отчётов и использовании "резиновых" штампов.
  • Владелец LiteLLM публично разорвал контракт с Delve и перешёл на конкурента Vanta с независимым аудитором.
  • Инцидент подчёркивает критические риски доверия к сторонам, предоставляющим services sécurité для AI-инфраструктуры.
  • Реакция LiteLLM — резкий пример того, как вендоры compliance могут пострадать от скандала даже без прямого участия в утечке.
Представьте, что вы нанимаете охранную фирму для проверки системы сигнализации в своём доме. Получив сертификат, вы спите спокойно. Но что, если эта фирма просто поставила печать на пустом листе? А сейчас представьте, что в ваш дом вломились именно из-за того, что сигнализация, которую "проверили", не работала. Вот что произошло на днях с проектом LiteLLM и его поставщиком безопасности Delve. Это история не о хакерах, а о фундаментальном кризисе доверия в мире цифровых сертификаций.

Что случилось: вредоносное ПО в "чистом" AI-шлюзе

У LiteLLM, библиотеки и сервиса-шлюза для работы с большими языковыми моделями, которая используется миллионами разработчиков, обнаружили вредоносный код в своей open-source версии. Код крал чувствительные данные, включая API-ключи. Инцидент стал сенсацией в технических сообществах.

Но главный скандал разгорелся вокруг того, КАК компания LiteLLM получила свои две ключевые сертификации безопасности (скорее всего, SOC 2 Type II). Эти сертификаты —商业 "знак доверия" для клиентов, подтверждающий, что у компании есть процедуры для минимизации рисков. LiteLLM получил их у стартапа Delve, который специализируется как раз на compliance для AI-компаний.

Когда новость об утечке совпала с публикацией обвинений в адрес Delve, всё сошлось в одну точку: сертификация, которую покупали клиенты, могла быть фиктивной.

Кто такой Delve и почему его обвиняют в фальсификациях

Delve (также известный как Delve Security или Delve AI) позиционировался как стартап-"помощник" для AI-стартапов. Его услуга — помочь пройти сложные и дорогие аудиты (вроде SOC 2, ISO 27001, HIPAA, GDPR) быстрее и дешевле.

В конце марта анонимный источник внутри Delve обвинил компанию в системной фальсификации. Основные претензии:

  • Генерация фальшивых данных и отчётности для клиентов, чтобы они выглядели соответствующими требованиям.
  • Использование аудиторов, которые лишь "ставили галочки" (rubber-stamping), не проводя реальной проверки.
  • Создание иллюзии контроля, тогда как реальные процессы безопасности у клиентов могли быть неадекватными.

Основатель Delve Карен Каушик (Karun Kaushik) публично отрицал обвинения, заявив, что это "необоснованные и ложные утверждения", и предложил всем клиентам бесплатный повторный аудит. Но это заявление лишь подстегнуло информатора, который опубликовал дополнительные "расписки" и доказательства в уикенд.

Реакция LiteLLM: публичный разрыв и переход на Vanta

CTO LiteLLM Ишан Джаффер (Ishaan Jaffer) 31 марта сделал прямое заявление в X (бывший Twitter): его компания прекращает сотрудничество с Delve. Вместо этого LiteLLM нанимает другого провайдера — Vanta, известную компанию в сфере автоматизации compliance и безопасности, — для повторной сертификации. Ключевое: они найдут СВОЕГО независимого третьего аудитора, а не будут полагаться на servicios аудита, интегрированные в платформу поставщика.

Эта реакция очень показательна. LiteLLM *не отрицает*, что их система была скомпрометирована. Они делают вывод о *ненадёжности партнёра, который подтверждал их безопасность*. Это стратегия "голосование ногами" — уход от поставщика, репутация которого подорвана, даже если он напрямую не виноват в утечке данных.

Почему это важно для всего AI-индустрии

AI-стартапы работают в парадоксе: их продукт — сложный код и дорогие модели, а их клиенты (особенно enterprise) требуют доказательств того, что с данными будет всё в порядке. Сертификаты вроде SOC 2 — это почти обязательный билет на крупный рынок. Стартапы вроде Delve возникли, чтобы помочь пройти этот барьер.

Если доверие к таким "помощникам" рушится, последствия двойные:

  • Для AI-стартапов: они вынуждены тратить больше времени и денег на "настоящие", долгие аудиты с независимыми фирмами, что замедляет рост.
  • Для их клиентов: возникает вопрос: а можно ли вообще доверять любому сертификату, если процесс его получения можно обмануть?

Инцидент LiteLLM — тревожный звонок. Рынок compliance для AI сейчас хаотичен. Многие игроки молоды, агрессивно растут, а контроль за их методами — слаб. Теперь инвесторы и клиенты будут смотреть не только на наличие сертификата у стартапа, но и на то, КЕМ и КАК он был выдан.

Кратко про ключевых игроков и термины

LiteLLM — Open-source библиотека и сервис-шлюз (proxy), позволяющий разработчикам обращаться к десяткам LLM-моделей (OpenAI, Anthropic, Together и др.) через единый API. Позволяет управлять ключами, балансировать нагрузку, отслеживать использование. Стал очень популярен в комьюнити за простоту и transparency.

Delve — Стартап (предположительно, на момент инцидента действовал как Delve Security), который позиционировал себя как специализированный консультант по compliance для компаний, работающих с AI. Предлагал пакетные решения для прохождения SOC 2, ISO 27001 и других. После скандала его репутация серьёзно пострадала.

Vanta — Более крупный и известный игрок на рынке автоматизации compliance и безопасности. Позволяет компаниям управлять требованиями, готовить документацию и подключаться к аудиторам через платформу. У Vanta есть список проверенных аудиторских партнёров, что делает её модель более прозрачной, чем у Delve, обвиняемого в связях с "резиновыми" аудиторами.

Сертификация SOC 2 (Type II) — Один из самых востребованных аудитов для SaaS-компаний в США. Type II проверяет не только наличие политик безопасности (Type I), но и их ЭФФЕКТИВНОСТЬ в работе на протяжении определённого периода (обычно 6-12 месяцев). Документ подтверждает, что система контроля компании надежна.

Whistleblower (информатор) — Анонимный источник, предположительно, бывший сотрудник или близкий к Delve человек, который начал публиковать внутренние доказательства (скриншоты, переписки, "расписки") о неэтичных практиках компании. Его действия стали катализатором скандала.

Что дальше: варианты развития

У Delve теперь есть два пути: полное расследование с независимой аудиторской фирмой (как они и предложили) или медленная утрата клиентов. Уже LiteLLM — крупная потеря.

Для LiteLLM главное — пройти повторный аудит с Vanta и новым аудитором как можно быстрее и прозрачнее. Их публичная позиция смела и правильна, но теперь всё увидят в отчётах.

Для индустрии это ускорит консолидацию. Клиенты (особенно в B2B) будут выбирать для compliance проверенных, уважаемых вендоров вроде Vanta, а не быстрорастущих стартапов с неясной моделью. Возможно, появятся стандарты "доказательства честности" для самих compliance-компаний.

Справка: Кто есть кто

О компании LiteLLM

ЛiteLLM — это open-source библиотека Python и облачный сервис, созданные для унификации доступа к крупным языковым моделям. Позволяет разработчикам управлять вызовами к OpenAI, Anthropic, Google и другим через единый интерфейс. Проект получил огромную популярность в сообществе ML-инженеров благодаря простоте, прозрачности и мощным возможностям observability (отслеживания запросов, стоимости, ошибок). Основная цель — решения проблем Vendor Lock-In и сложности мониторинга в AI-инфраструктуре.

Компания (или проект) не раскрывает подробную историю создания, но её быстрый рост был напрямую связан с бумом LLM-приложений в 2023-2024 годах. Является примером успешного open-source продукта, монетизация которого строится на облачных сервисах (SaaS-модель).

Инцидент с malware в open-source репозитории — критический удар по доверию, так как основной актив такого проекта — это доверие сообщества к чистоты кода. Использование сторонней сертификации (Delve) было попыткой усилить это доверие для корпоративных клиентов.

CTO и один из основателей — Ишан Джаффер (Ishaan Jaffer), активный участник AI-сообщества, известный своими техническими постами и open-source вкладами. His tweets и заявления стали основным источником информации о реакциях компании.

LiteLLM использует Model Context Protocol (MCP) и другие современные стандарты, делая его центральным узлом в растутщем стэке инструментов для AI-разработки.

О компании Delve (Delve Security)

Delve — стартап, позиционировавший себя как специализированного провайдера compliance и security-аудита для компаний, работающих в сфере искусственного интеллекта и машинного обучения. Основатель — Карен Каушик (Karun Kaushik), имеющий, судя по его профилю, опыт в области безопасности и консалтинга.

Компания предлагала ускоренные, "под ключ" пакеты для прохождения таких стандартов, как SOC 2, ISO 27001, HIPAA, GDPR, фокусируясь на специфике AI-бизнеса (работа с данными, модели, inference infrastructure). Их ценностное предложение — скорость и фокус на AI.

В марте 2026 года подверглась массированной атаке со стороны анонимного информатора, обвинившего в системной фальсификации отчётов, использовании некомпетентных или сговорчивых аудиторов и создании "фасада" безопасности. Основатель отрицает всё, но предложил бесплатные повторные аудиты — что могло быть как жестом доброй воли, так и признанием потенциальных проблем.

Скандал нанёс критический удар по бизнес-модели, построенной на доверии. После отказа LiteLLM другие клиенты, скорее всего, начали пересматривать контракты.

Delve (techcrunch.com не упоминается по инструкции, но контекст источник) была частью волны компаний, возникших для обслуживания compliance-нужд быстрорастущего AI-рынка, где традиционные аудиторские фирмы казались слишком медленными и дорогими.

О компании Vanta

Vanta — более зрелая и крупная компания на рынке автоматизации compliance и безопасности. Основана раньше Delve и хорошо финансирована. Её платформа помогает компаниям управлять требованиями безопасности, готовить доказательства (evidence) и подключаться к сети независимых аудиторов для прохождения SOC 2, ISO 27001 и других.

Ключевое отличие от Delve (судя по обвинениям) — прозрачность и фокус на инструментах, а не на "гарантированном результате". Vanta не является аудиторской фирмой, она — платформа для подготовки к аудиту. Аудиторы подключаются извне, что теоретически снижает конфликт интересов.

Для клиента использование Vanta часто выглядит как "баланс": компания сама управляет процессом через платформу, но проходит аудит с аудитором, которого может выбрать (из списка партнёров Vanta) или найти самостоятельно. Это и выбрал LiteLLM.

Выбор Vanta LiteLLM — это публичный vote of confidence в более проверенную, "стандартную" модель compliance, а не в нишевого AI-специалиста с сомнительной репутацией.

Об Ишане Джаффере (Ishaan Jaffer)

Ишан Джаффер — технический лидер, сооснователь и CTO компании/проекта LiteLLM. Активный участник open-source сообщества и X/Twitter, где делится глубокими техническими инсайтами по AI-инфраструктуре, observability и оптимизации LLM-запросов.

Его публичное заявление от 31 марта в X было прямым, безэмоциональным и деловым: "LiteLLM будет использовать Vanta для пере-сертификации и найдёт собственного независимого аудитора". Такая прямая реакция на кризис типична для инженерно-ориентированного лидера, который ставит техническую и репутационную целостность продукта выше PR-соображений.

Джаффер представляет "новое поколение" техлидов в AI: они deeply technical, открыты к community, но при этом осознают коммерческие и compliance-риски своих продуктов. Его действия в этой ситуации установили прецедент: открыто разрывать отношения с providers of trust при малейших подозрениях.

О Карене Каушике (Karun Kaushik)

Карен Каушик — основатель и, предположительно, CEO стартапа Delve. В профилях (особенно в X) позиционирует себя как эксперта по безопасности и compliance для эпохи AI. Его публичная реакция на обвинения информатора (отрицание и предложение бесплатных ре-аудитов) характерна для попытки локальной "управления скандалом".

Судя по публичным данным, он активно участвует в дискуссиях о будущем AI-безопасности и compliance, выступая как сторонник гибких, AI-first подходов к аудиту. Его команда, по его словам, помогала десяткам AI-стартапов.

Теперь его репутация и репутация его компании проходят проверку на прочность. Утверждения информатора, если они подтвердятся, могут означать не только крах Delve, но и юридические последствия для его клиентов, которые полагались на ложные сертификаты. Его дальнейшие шаги (глубокое внутреннее расследование, сотрудничество с регуляторами) будут решающими.

Термин: Compliance в контексте AI-стартапов

Compliance (соответствие требованиям) для AI-стартапов — это комплекс мер, политик и технических контролей, позволяющих компании соответствовать регуляторным стандартам (GDPR, CCPA, HIPAA) и отраслевым framework (SOC 2, ISO 27001). Особенность AI в том, что данные Used для обучения и инференса, сложность моделей (чёрный ящик) и динамичность инфраструктуры создают уникальные риски.

Традиционные аудиторы часто не понимают специфики ML-пайплайнов, data lineage для training data, риски data poisoning или model stealing. Отсюда спрос на niche-провайдеров вроде Delve, которые заявляют экспертизу именно в AI. Однако, как показал скандал, этот спрос порождает и риски "сертификатов на бумаге", если сам процесс аудита не является прозрачным и независимым.

Для клиента (и инвестора) "сертификат SOC 2 от Delve" теперь может вызывать вопросы: проверяли ли вообще? Настоящий ли это аудитор? LiteLLM, переходя на Vanta с выбором своего аудитора, пытается развеять эти сомнения по отношению к себе.

В итоге, этот случай — громкое напоминание для всей tech-индустрии: сертификат безопасности — это не просто бумажка в углу сайта. Это обещание. И если процесс получения этого обещания коррумпирован, само обещание ничего не стоит. Действия LiteLLM показывают, что в мире, где код открыт, а данные ценны, прозрачность происхождения вашей "печати доверия" становится не просто маркетинговым ходом, а вопросом выживания. Стартапы, которые строят продукт на доверии, должны начать проверять не только код, но и тех, кто клеймит этот код.

Интересно почитать :

Скоро дача: техника и инструменты для сада и огорода
Скоро дача: техника и инструменты для сада и огорода

Кратко: Электрические инструменты подходят для небольших участков до 8 соток Бензиновая техника необходима для тяжелых почв и больших площадей Автоматические системы полива экономят время и улучшают урожай Комбинированные устройства (аэраторы-скарификаторы) …

Meta запускает премиум-подписки: что получат пользователи и какой подводные
камни ожидают
Meta запускает премиум-подписки: что получат пользователи и какой подводные камни ожидают

Когда Snapchat+ собрал 16 миллионов подписчиков, Meta* тоже решила проверить: готовы ли пользователи платить за дополнительные функции в соцсетях. Уже в ближайшие месяцы компания запустит премиум-подписки для Instagram, Facebook и …

Финтех-компания Marquis требует компенсацию от провайдера брандмауэра после
масштабной утечки данных клиентов
Финтех-компания Marquis требует компенсацию от провайдера брандмауэра после масштабной утечки данных клиентов

Когда компания, отвечающая за безопасность банковских данных, становится жертвой хакеров, вопросы начинают задавать всем. Именно это сейчас происходит с финтех-гигантом Marquis, который публично обвинил своего поставщика защитных решений SonicWall в …

Электрические такси будущего: FAA разрешила масштабные испытания в 26 штатах
Электрические такси будущего: FAA разрешила масштабные испытания в 26 штатах

Ключевые выводы FAA утвердила 8 пилотных программ для тестирования eVTOL в 26 штатах США Archer, Beta, Joby и Wisk получат право на масштабные испытания уже этим летом Программа рассчитана на …

Firefox дает пользователям полный контроль над искусственным интеллектом:
Блокировка всех AI-функций станет доступна в новом обновлении
Firefox дает пользователям полный контроль над искусственным интеллектом: Блокировка всех AI-функций станет доступна в новом обновлении

Ключевые выводы С 24 февраля в Firefox 148 появится переключатель для полной блокировки всех AI-функций Пользователи смогут точечно отключать отдельные инструменты: переводчик, генерацию alt-текста, чат-боты Новая стратегия Mozilla делает AI …

CollectivIQ: Почему один CEO решил создать собственный ИИ вместо покупки
готового решения
CollectivIQ: Почему один CEO решил создать собственный ИИ вместо покупки готового решения

Ключевые выводы John Davie, основатель Buyers Edge Platform, создал CollectivIQ после неудовлетворительного опыта с корпоративными ИИ-решениями Платформа использует одновременно несколько моделей ИИ (ChatGPT, Gemini, Claude, Grok) для повышения точности ответов …

ФильтрИзбранноеМеню43750 ₽
Top