- Ключевые выводы
- Финансовый кризис в AI-индустрии: почему это важно
- Multiverse Computing: компания, меняющая парадигму
- CompactifAI: AI на вашем устройстве
- API-портал: настоящая цель компании
- Соревнование маленьких моделей: Mistral Small 4 и Forge
- HyperNova 60B 2602: доказательство концепции
- Практическое применение: где это действительно важно
- Финансовые перспективы: оценка в €1.5 млрд
- Будущее AI: децентрализация и эффективность
- Справка
Ключевые выводы
- Высокие дефолты в частном кредитовании (9,2%) заставляют компании искать альтернативы облачным вычислениям
- Multiverse Computing предлагает сжатые модели, работающие локально на устройствах пользователей
- Компания запустила приложение CompactifAI и API-портал для разработчиков
- Маленькие модели обеспечивают приватность и экономию затрат, но требуют достаточной производительности устройств
- HyperNova 60B 2602 показывает лучшие результаты по сравнению с оригинальными моделями при меньших затратах
Сегодня мы сталкиваемся с интересной дилеммой: с одной стороны, финансовая нестабильность заставляет пересмотреть зависимость от облачных вычислений, с другой — технологии позволяют запускать мощные модели прямо на наших устройствах. Именно здесь начинается настоящая революция.
Финансовый кризис в AI-индустрии: почему это важно
Ставки дефолтов по частным кредитам достигли 9,2% — самого высокого уровня за последние годы. Это означает, что компании, полагающиеся на AI-инфраструктуру, сталкиваются с растущим риском. Венчурная фирма Lux Capital уже советует своим портфельным компаниям получать письменные подтверждения о compute-емкости, поскольку устные договорённости уже не гарантируют надёжность.
Проблема в том, что AI-индустрия построена на сложной цепочке поставок, где каждый звенья зависит от другого. Если один участник обанкротится, вся цепочка может разрушиться. Это особенно критично для стартапов и малых компаний, которые не могут позволить себе долгосрочные контракты с облачными провайдерами.
Но есть фундаментальное решение: зачем вообще полагаться на внешнюю инфраструктуру, если модели могут работать прямо на вашем устройстве? Это не просто теория — это уже реальность, которую предлагает испанский стартап Multiverse Computing.
Multiverse Computing: компания, меняющая парадигму
Multiverse Computing — испанский стартап, который до недавнего времени работал в тени более известных игроков. Однако ситуация меняется: после успешной компрессии моделей от OpenAI, Meta*, DeepSeek и Mistral AI, компания выходит на передний край технологического прогресса.
Их подход прост и гениален одновременно: вместо того чтобы создавать всё более гигантские модели, требующие дата-центров и огромных затрат энергии, они сжимают существующие модели до размеров, позволяющих запускать их локально. Это как взять мощный компьютер и уместить его в смартфон.
Компания уже обслуживает более 100 глобальных клиентов, включая Bank of Canada, Bosch и Iberdrola. Это серьёзный показатель доверия к их технологиям. А в июне 2025 года они привлекли $215 млн в рамках Series B, что подтверждает интерес инвесторов к их подходу.
CompactifAI: AI на вашем устройстве
CompactifAI — это не просто приложение, это демонстрация того, что возможно сегодня. Приложение работает как ChatGPT или Le Chat от Mistral, но с ключевым отличием: в нём используется модель Gilda, настолько компактная, что может работать локально и без подключения к интернету.
Для конечных пользователей это означает полный контроль над данными — ничего не покидает ваше устройство. Это особенно важно для тех, кто работает с конфиденциальной информацией или просто ценит приватность. Но есть нюанс: ваше устройство должно иметь достаточно оперативной памяти и места на диске.
Если ваш iPhone слишком старый, приложение автоматически переключается на облачные модели через API. Этот переход управляется системой под названием Ash Nazg (имя отсылает к «Властелину колец» — фанатам Толкина будет приятно). Проблема в том, что при переходе в облако вы теряете главное преимущество — приватность.
По данным Sensor Tower, приложение скачали менее 5000 раз за последний месяц. Это может показаться маленьким числом, но на самом деле оно говорит о том, что приложение не позиционируется как массовый продукт для потребителей.
API-портал: настоящая цель компании
Сегодня Multiverse запускает self-serve API-портал, который даёт разработчикам и предприятиям прямой доступ к сжатым моделям без необходимости проходить через AWS Marketplace. Это важно по нескольким причинам.
Во-первых, это даёт прозрачность и контроль — вы точно знаете, что происходит с вашими данными и как работают модели. Во-вторых, это позволяет интегрировать AI в существующие системы без необходимости переписывать архитектуру. И, наконец, это даёт возможность тестировать и экспериментировать без значительных начальных вложений.
Один из ключевых фич API — мониторинг использования в реальном времени. Это не случайно: наряду с преимуществами развёртывания на краю сети, снижение вычислительных затрат — одна из главных причин, почему предприятия рассматривают маленькие модели как альтернативу большим языковым моделям (LLMs).
Соревнование маленьких моделей: Mistral Small 4 и Forge
Multiverse Computing не одинока в своём стремлении сделать AI более доступным. Недавно Mistral обновила свою линейку маленьких моделей, выпустив Mistral Small 4. Компания заявляет, что модель оптимизирована одновременно для общего чата, программирования, агентских задач и рассуждений.
Но Mistral пошла дальше: они выпустили Forge — систему, которая позволяет предприятиям создавать собственные модели, включая маленькие модели, где можно выбрать компромиссы, которые лучше всего подходят для конкретных задач.
Это показывает, что рынок движется в сторону диверсификации: вместо одной универсальной модели, мы получаем набор специализированных инструментов, каждый из которых оптимизирован под определённые задачи.
HyperNova 60B 2602: доказательство концепции
Последняя сжатая модель Multiverse, HyperNova 60B 2602, построена на основе gpt-oss-120b — модели OpenAI, код которой доступен публично. Компания утверждает, что теперь она обеспечивает более быстрые ответы при меньших затратах, чем оригинал, с которого она была получена.
Это особенно важно для агентских кодировочных рабочих процессов, где AI автономно выполняет сложные многошаговые программистские задачи. Скорость и экономичность становятся критическими факторами.
Сравнение с оригинальной моделью показывает, что разрыв между большими и маленькими моделями сокращается. Раньше маленькие модели означали значительные компромиссы в качестве, но теперь ситуация меняется.
Практическое применение: где это действительно важно
Сделать модели достаточно маленькими для работы на мобильных устройствах, сохранив при этом полезность — огромная задача. Apple Intelligence обошла эту проблему, комбинируя on-device модель и облачную модель. Но подход Multiverse отличается: их цель — показать, что локальные модели вроде Gilda имеют преимущества, выходящие за рамки экономии средств.
Для работников в критических сферах модель, работающая локально без подключения к облаку, обеспечивает большую приватность и устойчивость. Но настоящая ценность — в бизнес-приложениях, которые это может разблокировать: встраивание AI в дроны, спутники и другие сценарии, где подключение нельзя принимать как должное.
Представьте дрон для поиска и спасения, который может анализировать изображения и принимать решения на лету, не дожидаясь ответа из облака. Или спутник, который может обрабатывать данные о Земле в реальном времени, не тратя драгоценную пропускную способность на передачу необработанных данных.
Финансовые перспективы: оценка в €1.5 млрд
После привлечения $215 млн в рамках Series B в июне 2025 года, Multiverse Computing сейчас находится на этапе привлечения нового раунда финансирования. По данным Bloomberg, компания ведёт переговоры о привлечении €500 млн при оценке более €1.5 млрд.
Это впечатляющий рост для компании, которая ещё несколько лет назад работала в тени. Это также подтверждает, что инвесторы видят большой потенциал в подходе к сжатию моделей и их развёртыванию на краю сети.
Если компания сможет расширить свою клиентскую базу и доказать масштабируемость своей технологии, она может стать одним из ключевых игроков в следующей фазе развития AI-индустрии.
Будущее AI: децентрализация и эффективность
Мы стоим на пороге фундаментального изменения в том, как работает AI. Вместо централизованных дата-центров и зависимости от крупных облачных провайдеров, мы движемся к децентрализованной модели, где интеллект распределён по миллионам устройств.
Это имеет глубокие последствия не только для бизнеса, но и для общества в целом. Это означает большую устойчивость к сбоям, лучшую приватность, меньшие затраты энергии и более быстрые ответы. Это также означает, что AI становится доступным для тех, кто раньше не мог себе этого позволить.
Вопрос уже не в том, произойдёт ли этот переход, а в том, насколько быстро он произойдёт и кто станет его лидерами. Multiverse Computing делает ставку на то, что будущее — за маленькими, эффективными моделями, работающими там, где они нужны больше всего.
Справка
Multiverse Computing — испанский технологический стартап, основанный в 2018 году. Компания специализируется на квантовых вычислениях и сжатии AI-моделей. Штаб-квартира находится в Сан-Себастьяне, Испания. Основатели — Энрике Лизасо (CEO), Эрнесто Лоренте и Самюэль Гонсалес. Компания привлекла $215 млн в июне 2025 года и сейчас оценивается более чем в €1.5 млрд.
Gilda — компактная языковая модель, разработанная Multiverse Computing. Модель настолько мала, что может работать полностью на мобильных устройствах без подключения к интернету. Gilda оптимизирована для задач общего назначения и демонстрирует баланс между производительностью и размером.
HyperNova 60B 2602 — последняя сжатая модель Multiverse Computing, основанная на gpt-oss-120b от OpenAI. Компания утверждает, что модель обеспечивает более быстрые ответы при меньших затратах по сравнению с оригиналом. Модель оптимизирована для агентских кодировочных рабочих процессов.
CompactifAI — приложение от Multiverse Computing, демонстрирующее возможности локальных AI-моделей. Приложение включает в себя AI-чат с поддержкой модели Gilda и автоматическим переходом на облачные модели при необходимости. Приложение доступно для iOS и Android.
Ash Nazg — внутренняя система Multiverse Computing, управляющая переходом между локальными и облачными моделями в приложении CompactifAI. Название отсылает к «Властелину колец» Толкина, где Аш Назг — «кольцо власти» на черном языке.
Enrique Lizaso — CEO и сооснователь Multiverse Computing. Имеет опыт в квантовых вычислениях и AI. Под его руководством компания привлекла $215 млн финансирования и расширила клиентскую базу до более чем 100 компаний по всему миру.
Bank of Canada — центральный банк Канады, один из первых крупных клиентов Multiverse Computing. Банк использует сжатые модели для анализа экономических данных и прогнозирования финансовых трендов.
Bosch — немецкая инжиниринговая и технологическая компания, клиент Multiverse Computing. Bosch интегрирует сжатые AI-модели в свои промышленные системы для оптимизации производственных процессов.
Iberdrola — испанская энергетическая компания, использующая технологии Multiverse Computing для оптимизации энергосетей и прогнозирования спроса на электроэнергию.
Sensor Tower — платформа для анализа мобильных приложений, предоставившая данные о количестве загрузок CompactifAI. Согласно их данным, приложение скачали менее 5000 раз за последний месяц.
GPT-OSS-120B — открытая версия модели GPT от OpenAI с 120 миллиардами параметров. Multiverse Computing использовала эту модель в качестве основы для создания HyperNova 60B 2602.
История с Multiverse Computing — это не просто история о технологической компании. Это история о том, как финансовые кризисы могут стать катализаторами инноваций. Когда традиционные подходы становятся слишком дорогими или рискованными, появляются альтернативы, которые не только решают проблемы, но и открывают новые возможности. Маленькие модели, работающие на краю сети, могут стать ключом к следующей волне AI-революции, сделав интеллект доступным, приватным и эффективным для всех.







