- Ключевые выводы
- Что такое "пост-обучение" ИИ и почему это целая индустрия
- Deccan AI: подход "всё в одной стране" ради качества
- Клиенты, деньги и жёсткие условия работы
- Индия: хаб талантов, но не разработки моделей
- Будущее: от текста к "world models" и робототехнике
- Справка
- Deccan AI
- Rukesh Reddy
- Post-training / Fine-tuning
- Reinforcement Learning from Human Feedback (RLHF)
- Scale AI и Surge AI
Ключевые выводы
- Новый тренд: Мировые AI-лаборатории (OpenAI, Anthropic, DeepMind) всё активнее аутсорсят сложный этап пост-обучения моделей — от генерации экспертных данных до reinforcement learning.
- Starтап Deccan AI закрыл раунд Series A на $25 млн, работая с клиентами вроде Google DeepMind и Snowflake. Его особенность — концентрация экспертов в Индии для контроля качества.
- Проблема качества: На этапе пост-обучения ошибки недопустимы, так как они напрямую влияют на работу модели у пользователя. Это требует высокоточных, узкоспециализированных данных, которые сложно масштабировать.
- Индия как хаб: Страна становится основным поставщиком талантов и данных для глобального AI-цепочки создания стоимости, но пока остаётся на уровне "исполнителя", а не "создателя" frontier-моделей.
- Деньги: Доход Deccan AI — двузначные миллионы долларов годовых, 80% выручки приходится на 5 крупнейших клиентов. Платформа варьирует выплаты контрибьюторам от $10 до $700 в час.
Пока все говорят о создании новой модели ИИ, гонка за качеством реального применения уже идёт. И её выигрывают те, кто может сделать модель надёжной, безопасной и полезной в конкретных задачах. Это не про алгоритмы, а про бесчисленные часы человеческой экспертизы, правильно organised. Именно здесь и работает компания Deccan AI, и именно поэтому она теперь оценивается в десятки миллионов.
Что такое "пост-обучение" ИИ и почему это целая индустрия
Когда речь заходит об ИИ, все думают о фундаментальных моделях — GPT, Claude, Gemini. Но чтобы эти модели хоть как-то работали в реальном мире, их нужно "доб sharpen". Этот процесс называется пост-обучением (post-training) или настройкой (fine-tuning). И он превратился в огромный бизнес.
Аутсорсинг пост-обучения — это не просто "пометить картинку кошкой". Это сложные задачи: генерация expert feedback для reinforcement learning (RLHF), оценка безопасности ответов модели, обучение взаимодействию с внешними инструментами (API, софт), создание окружений для RL. Frontier-лаборатории вроде OpenAI делают саму модель, но "приучать" её к реальности всё чаще доверяют внешним подрядчикам. Спрос на такие услуги взлетел вместе с популярностью больших языковых моделей.
Почему так? Потому что пост-обучение — это работа на стыке данных и предметной области. Нужны узкие специалисты: программисты для оценки кода, юристы для проверки юридических ответов, врачи для медицинских сценариев. Найти, массово привлечь и контролировать качество такой работы — отдельная головная боль, которую не все хотят решать сами.
Deccan AI: подход "всё в одной стране" ради качества
Стартап Deccan AI, основанный в октябре 2024-го, выбрал для этого Контакт-центр в Hyderabad, Индия. У компании около 125 штатных сотрудников и сеть из более чем 1 миллиона "контрибьюторов" (студентов, PhD, отраслевых экспертов). В месяц активно работает 5-10 тысяч из них.
Основатель Rukesh Reddy объясняет стратегию: "Многие наши конкуренты работают в 100+ странах. Если твои операции только в одной стране, поддерживать качество гораздо проще". На первый взгляд, это кажется ограничением. Но для задач, где ошибка "close to zero" — как в пост-обучении, — централизация управления ключевая.
Компания позиционирует себя как "born GenAI" — созданную для задач генеративного ИИ изначально, в отличие от старых фирм по разметке данных для компьютерного зрения. Their suite Helix и платформа автоматизации операций — это продукты для корпоративных клиентов, а работы с frontier-лабораториями идут напрямую.
Клиенты, деньги и жёсткие условия работы
Среди клиентов Deccan AI названы Google DeepMind и Snowflake. Компания ведёт около двух десятков активных проектов одновременно и привлекла 10 клиентов с момента основания. Выручка выросла в 10 раз за год и теперь находится на уровне двузначных миллионов долларов в год. При этом 80% выручки дают всего 5 клиентов — типичная картина для нишевого B2B-сектора, обслуживающего топовых игроков.
Рынок конкуренции здесь жёсткий. Рядом с Deccan AI работают гиганты вроде Scale AI (с инвестициями Meta*) и Surge AI, а также стартапы Turing (оценка $2.2 млрд, клиенты OpenAI) и Mercor (в разговорах о оценке $10 млрд). Все борются за одних и тех же экспертов и клиентов.
Условия высокого давления. AI-лаборатории иногда запрашивают огромные объёмы качественных данных за считанные дни. Нужно совмещать скорость с точностью. Ошибки на этом этапе не просто снижают эффективность — они могут сломать модель в продакшене. Потому и платят лучше: по словам Reddy, на платформе DeccanAI доходы варьируются от $10 до $700 в час, а топовые контрибьюторы могут зарабатывать до $7000 в месяц. Для сравнения: в индийском ИИ-гиге player pool средние ставки могут быть существенно ниже, а критика условий труда в этой индустрии — постоянная тема.
Индия: хаб талантов, но не разработки моделей
Концентрация работы в Индии — это не только вопрос контроля качества. Это отражение глобального разделения труда в сфере ИИ. Страна стала крупнейшим поставщиком талантов и размеченных/оцененных данных для мировых AI-компаний, но сама практически не создаёт frontier-моделей. Эта ниша остаётся за US-лабораториями (OpenAI, Anthropic, DeepMind) и небольшим числом игроков в Китае.
Deccan AI сознательно играет роль "исполнителя" в этой цепочке. Для узких задач (геопространственные данные, проектирование полупроводников) компания уже начала привлекать экспертов из США, но ядро остаётся индийским. Это выглядит прагматичным выбором: дешёвые (относительно) высококвалифицированные кадры + единая культурная и управленческая среда.
Однако эта модель имеет потолок. Пока индийские компании не начнут создавать собственные фундаментальные модели, их роль в глобальной AI-революции будет второстепенной — важной, но эксплуатационной. Deccan AI на этом фоне выглядит успешным примером монетизации именно этой "исполнительской" ниши.
Будущее: от текста к "world models" и робототехнике
Работа Deccan AI эволюционирует вместе с моделями. Если раньше фокус был на текстовых интерфейсах и API, то теперь к задачам добавляются "world models" — модели, понимающие физический мир, робототехнику, компьютерное зрение. Это значит, что нужны эксперты с совсем другим бэкграундом: инженеры, специалисты по компьютерной графике, физики.
Спрос на post-training services, судя по всему, будет только расти. Пока модели не станут настолько универсальными, чтобы обучаться исключительно на автоматических циклах, человеческое вмешательство на этапе оценки, коррекции и reinforcement learning будет критичным. И компании вроде Deccan AI, которые могут обеспечить этот процесс масштабно и с качеством, получают стратегическое преимущество.
Справка
Deccan AI
История: Стартап основан в октябре 2024 года, штаб-квартира в Сан-Франциско, основные операционные мощности — в Хайдарабаде (Индия). Основатель и CEO — Рукеш Редди (Rukesh Reddy).
Бизнес-модель: Продажа услуг пост-обучения (генерация данных, оценка, создание сред для RL) frontier-лабораториям и корпоративным клиентам через SaaS-продукты (Helix, платформа автоматизации).
Финансы: Привлёк $25 млн в Series A от A91 Partners, Susquehanna International Group и Prosus Ventures. Выручка — двузначные миллионы долларов, высокая доля выручки от топ-5 клиентов.
Конкуренты: Scale AI, Surge AI, Turing, Mercor.
Уникальность: Фокус на пост-обучении GenAI-моделей с самого начала и стратегическая концентрация экспертов в одной стране (Индия) для контроля качества.
Rukesh Reddy
Роль: Сооснователь и генеральный директор (CEO) Deccan AI.
Контекст: Под его руководством стартап за первый год вырос в 10 раз и привлёк крупные инвестиции. В интервью подчёркивает критическую важность качества в post-training и выгоды единой операционной базы (Индия) для его обеспечения.
Позиция: Сторонник модели "born GenAI" (стартапы, созданные под задачи генеративного ИИ), а не адаптации старых бизнесов по разметке данных.
Post-training / Fine-tuning
Определение: Этап обучения ИИ-модели после базового pre-training на огромных текстах. На этом этапе модель настраивается на конкретные задачи, получает обратную связь от людей (RLHF), учится работать с инструментами и проходит строгую оценку.
Важность: Именно пост-обучение делает модель полезной, безопасной и надёжной в продакшене. Ошибки здесь напрямую влияют на пользовательский опыт.
Вызовы: Требует дорогих узких экспертов, сложного управления качеством и скорости, так как клиенты (лаборатории) работают в ускоренных темпах.
Reinforcement Learning from Human Feedback (RLHF)
Суть: Ключевая техника пост-обучения, где модель получает награды или штрафы от "оценивающих" (часто экспертов) за свои ответы. Это учит модель порождать более полезные, точные и безопасные ответы.
В контексте Deccan AI: Генерация expert feedback и создание сред для RL — одна из основных услуг компании для frontier-лабораторий.
Сложность: Качество RLHF напрямую зависит от консистентности и экспертизы人間-оценивателей, что требует тщательного отбора и управления.
Scale AI и Surge AI
Scale AI: Крупнейший игрок рынка данных для ИИ. Начал с разметки для компьютерного зрения, теперь мощно Presence в пост-обучении и RL. В июне 2025 подтвердил крупную инвестицию от Meta*. Основатель Александр Ванг (Alexandr Wang) считается молодым миллиардером.
Surge AI: Главный конкурент Scale AI, специализируется на сложных текстовых задачах и RL. В июле 2025 Bloomberg сообщал о переговорах о финансировании при оценке $2.5 млрд.
Значение: Эти компании представляют верхний эшелон индустрии аутсорсинга ИИ-данных. Их борьба задаёт стандарты качества и ценообразования для меньших игроков, таких как Deccan AI.
История Deccan AI — это в миниатюре про то, как глобальная AI-индустрия уже организована. Создатели моделей в Штатах, а "учителя" и "экзаменаторы" — в Индии. Система эффективна, но looks fragile. Качество всего цепочки зависит от мотивации и экспертизы сотен тысяч контрибьюторов. И пока эта система работают, стартапы, которые умеют ею управлять, будут получать деньги. Вопрос в том, сколько эта модель продержится, когда начнётся следующая волна автоматизации самих процессов оценки.







