Openai Против Anthropic: Кто Использует «Страшный» Маркетинг В Ai‑Безопасности?

Ключевые выводы

  • Сэм Альтман критиковал «страшный» PR‑ход Anthropic по модели Mythos, назвав его попыткой удержать ИИ в руках элиты.
  • Anthropic заявила, что ограничивает доступ к Mythos из страха перед злоупотреблениями киберпреступников, но эксперты считают это преувеличением.
  • Террор‑маркетинг стал обычным приёмом в индустрии ИИ, и компании используют его как способ повысить спрос и регулирующее давление.
Искусственный интеллект перестал быть лишь технологией — он теперь часть борь­бы за внимание, где компании часто прибегают к драматическому языку, чтобы выделиться.

Что случилось? Конфликт на подкасте «Core Memory»

В начале этой недели Сэм Альтман, генеральный директор OpenAI, появился в подкасте «Core Memory». Во время разговора он упомянул о новой кибербезопасностной модели Anthropic — Mythos, назвав её «страшным» маркетингом.

Anthropic только что дала ограниченный доступ к Mythos нескольким крупным клиентам. По её словам, модель слишком мощна, чтобы её выпускать в открытый доступ: существует риск, что кибермошенники применят её для создания более изощрённого вредоносного кода.

Альтман отреагировал, сказав, что такие речи помогают удерживать ИИ в руках небольшой группы людей, а не в обществе в целом. «Можно оправдывать это разными способами, но в итоге это просто отличный рекламный приём», — подчеркнул он.

Эта дискуссия быстро разрослась в онлайн‑дебаты о том, насколько реально угроза от «мощных» ИИ‑моделей, и кто действительно отвечает за их распространение.

Модель Mythos: реальная угроза или PR‑ход?

Mythos позиционируется как система, способная анализировать коды, находить уязвимости и предсказывать потенциальные атаки. Anthropic утверждает, что без надёжных ограничений такие возможности могут стать «бомбой», которой легко воспользоваться.

Критики считают, что тревога завышена. По их мнению, большинство киберпреступников используют более простые инструменты, а сложные модели ИИ пока остаются в лабораториях. Они указывают, что подобные заявления часто служат для создания ажиотажа и конкурентного давления.

Сравнивая Mythos с аналогичными продуктами OpenAI, видно, что обе компании уже предлагают инструменты для обнаружения уязвимостей. Разница в публичном доступе: OpenAI делает свои модели шире доступными, а Anthropic — более закрытой.

И всё же, даже если реальная опасность невелика, важно помнить, что возможность автогенерации кода уже меняет правила игры в кибербезопасности.

Стратегия «страшного» маркетинга в AI‑индустрии

Использовать угрозу в качестве рекламного приёма — не новость. За последние годы многие стартапы и крупные игроки подчеркивали потенциальные «апокалипсические» сценарии, чтобы привлечь инвесторы и регуляторов.

Примером может служить публичные заявления о том, что ИИ может «запустить ядерную войну» или «полностью заменить людей». Такие гиперболы заставляют аудиторию обратить внимание, но часто размывают реальное понимание угроз.

Сэм Альтман сам неоднократно говорил о рисках ИИ, одновременно продвигая технологии OpenAI. Это создает двойственный образ — одновременно «спаситель» и «маркетолог» опасений.

Для потребителей важно отделять реальные технические ограничения от PR‑медийных эффектов. Иначе доля правды в обсуждениях быстро теряется.

Последствия для рынка и пользователей

Если компании продолжают держать свои «мощные» модели за закрытыми стенами, это может усилить консолидацию ресурсов в руках небольшого круга игроков. Малые фирмы и стартапы останутся без доступа к передовым инструментам.

С другой стороны, открытый доступ к ИИ‑моделям повышает прозрачность, ускоряет развитие защиты и позволяет независимым исследователям проверять безопасность технологий.

В конечном счёте, выбор между закрытостью и открытостью будет определяться не только этикой, но и экономической выгодой, а также давлением со стороны регуляторов.

Пользователям стоит следить за тем, как меняются условия лицензий, и проверять, действительно ли заявленные ограничения необходимы, или это лишь способ удержать рынок под контролем.

Справка

OpenAI — американская исследовательская компания в сфере искусственного интеллекта, основанная в 2015 году Илоной Маск, Сэмом Альтманом и другими. Наиболее известна благодаря GPT‑моделям, которые применяются в чат‑ботах, генерации текста и коде. Компания активно участвует в публичных дискуссиях о рисках ИИ.

Anthropic — стартап в области ИИ, основанный в 2021 году бывшими сотрудниками OpenAI Дэйвом Фриманом и Другими. Специализируется на «безопасных» языковых моделях и ставит в центр внимание контроль за непреднамеренными последствиями.

Sam Altman — генеральный директор OpenAI, ранее сооснователь Y Combinator. Известен своими выступлениями о потенциале и угрозах ИИ, а также инвестированием в множество технологических стартапов.

Mythos — кибербезопасностная модель от Anthropic, ориентированная на обнаружение уязвимостей в коде. Пока доступна только ограниченному кругу корпоративных клиентов, а публичный релиз откладывается из‑за опасений злоупотребления.

Core Memory — подкаст, где обсуждаются технологические новости, интервью с лидерами индустрии и аналитика. Эпизод 67 стал площадкой для открытой критики между представителями OpenAI и Anthropic.

В итоге, игра словами и страхом — это лишь одна из сторон битвы за контроль над будущим ИИ. Реальные угрозы существуют, но важно отделять их от громкого PR, чтобы принимать взвешенные решения.

Интересно почитать :

Массовая атака на плагины WordPress: почему 30 популярных расширений стали
источником вредоносного кода
Массовая атака на плагины WordPress: почему 30 популярных расширений стали источником вредоносного кода

Ключевые выводы 30 популярных плагинов WordPress были заражены бекдором после покупки компании Essential Plugin. Бекдор активировался в этом месяце и начал распространать вредоносный код на более чем 20 000 сайтов. …

Как выбрать корпус для ПК: полное руководство для новичков и геймеров
Как выбрать корпус для ПК: полное руководство для новичков и геймеров

Кратко: Форм-фактор определяет, какие компоненты можно установить Совместимость материнской платы, видеокарты и кулера — ключевой критерий Система охлаждения влияет на производительность и долговечность Цена и внешний вид — вопросы личных …

ИИ-бум заставляет IT-гигантов строить газовые электростанции: как FOMO меняет
энергорынок
ИИ-бум заставляет IT-гигантов строить газовые электростанции: как FOMO меняет энергорынок

Ключевые выводы Страх упустить выгоду (FOMO) заставляет Microsoft, Google и Meta массово инвестировать в газовую генерацию для своих ИИ-дата-центров, строя объекты общей мощностью свыше 13 ГВт. Правительственные и частные прогнозы …

Арена: как студенческий проект стал главным бенчмарком ИИ-моделей
Арена: как студенческий проект стал главным бенчмарком ИИ-моделей

Ключевые выводы Арена - это дефакто публичный лидерборд для frontier LLM-моделей, созданный в UC Berkeley Платформа оценивает модели через прямые сравнения, а не статические тесты Структурная нейтральность означает, что Арена …

Sycamore привлек $65 млн на создание «Slack для ИИ-агентов». Почему это важно и
кому это нужно
Sycamore привлек $65 млн на создание «Slack для ИИ-агентов». Почему это важно и кому это нужно

Ключевые выводы Стартап Sycamore, работающий над единой платформой для ИИ-агентов в больших компаниях, привлек $65 млн на seed-раунде. Это один из крупнейших подобных раундов на ранней стадии. Главное отличие — …

Factory — стартап, который привлёк $150 млн и оценён в $1,5 млрд: как AI‑агенты
меняют кодинг в крупных компаниях
Factory — стартап, который привлёк $150 млн и оценён в $1,5 млрд: как AI‑агенты меняют кодинг в крупных компаниях

Ключевые выводы Factory привлекла $150 млн от Khosla Ventures, Sequoia Capital, Insight Partners и Blackstone, оценка компании составила $1,5 млрд. Главное конкурентное преимущество — возможность переключаться между различными фундаментальными моделями …

ФильтрИзбранноеМеню43750 ₽
Top