Война За Ии: Anthropic Vs Openai — Этика Против Прибыли В Гонке За Оборонные Контракты

Ключевые выводы

  • Anthropic отказался от оборонного контракта из-за опасений использования ИИ для массового наблюдения и автономного оружия
  • OpenAI заключила сделку с Министерством обороны США, вызвав волну негативной реакции пользователей
  • Удаления ChatGPT увеличились на 295% после объявления оборонного контракта
  • Dario Amodei обвинил Сэма Альтмана в "безопасностном театре" и лживом пиаре
  • Конфликт отражает более широкие противоречия между этическими принципами и коммерческими интересами в ИИ-индустрии
Война между двумя гигантами ИИ — это не просто корпоративная ссора, это столкновение фундаментальных ценностей: этические принципы Anthropic против прагматичного подхода OpenAI. Последствия этой битвы определят будущее ИИ в военной сфере и за ее пределами.

Этический разлом в ИИ-индустрии

Конфликт между Anthropic и OpenAI вышел за рамки обычной конкуренции и превратился в публичную битву за душу искусственного интеллекта. В центре спора — принципиально разные подходы к работе с военными структурами и этическим ограничениям в использовании технологий.

Dario Amodei, основатель и CEO Anthropic, открыто обвинил Сэма Альтмана из OpenAI в "безопасностном театре" — когда компания заявляет о соблюдении этических норм, но на практике идет на компромиссы ради прибыли. По словам Амдеи, OpenAI приняло контракт с Министерством обороны США, потому что "заботилось о том, чтобы угодить сотрудникам", в то время как Anthropic "на самом деле заботился о предотвращении злоупотреблений".

Суть конфликта заключается в том, что Anthropic уже имел контракт на $200 млн с военными, но отказался расширять его без четких гарантий. Компания настаивала на том, чтобы Министерство обороны подтвердило, что не будет использовать их ИИ для массового внутреннего наблюдения или автономного оружия. Когда военные отказались давать такие гарантии, Anthropic ушел из переговоров.

OpenAI пошел другим путем

В то время как Anthropic стоял на своем, OpenAI заключила сделку с Министерством обороны, известным при администрации Трампа как "Министерство войны". Сэм Альтман заявил, что новый оборонный контракт включает защитные меры против тех же "красных линий", которые настаивала Anthropic.

Однако Амдеи назвал это "прямыми ложью" и обвинил Альтмана в том, что тот "представляет себя миротворцем и дипломатом". В письме сотрудникам он написал, что OpenAI пытается "продать газлайтинг" общественности, представляя сделку как ответственное решение, в то время как на самом деле просто идет на поводу у военных.

Публичная реакция подтвердила опасения критиков. После объявления оборонного контракта удаления приложения ChatGPT увеличились на 295%, что указывает на серьезное недоверие пользователей к намерениям OpenAI. Интересно, что Anthropic в этот момент поднялся на второе место в App Store, что может свидетельствовать о том, что пользователи голосуют рублем за этические принципы.

Технические детали спора

Основной технический спор касается формулировки "любое законное использование" (any lawful use). Anthropic настаивал на более жестких ограничениях, опасаясь, что "законное использование" может включать в себя массовое наблюдение или другие сомнительные практики, которые сейчас легальны, но могут стать незаконными в будущем.

OpenAI, в свою очередь, заявила, что их контракт явно указывает, что массовое внутреннее наблюдение не покрывается "законным использованием". Компания утверждает, что обеспечила явное исключение таких практик из контракта. Однако критики указывают, что закон может измениться, и то, что сейчас незаконно, может стать разрешенным.

Интересно, что Амдеи признал, что "это работает на некоторых Twitter-идиотов, что не имеет значения", но его главная забота — как убедить сотрудников OpenAI, что они работают на компанию, которая пошла на компромисс с этическими принципами.

Исторический контекст и последствия

Этот конфликт — не изолированный случай, а часть более широкой дискуссии об этике ИИ в военной сфере. Многие технологические компании сталкиваются с дилеммой: отказаться от прибыльных оборонных контрактов или рискнуть своей репутацией, сотрудничая с военными.

Для Anthropic этот конфликт может стать определяющим моментом, который укрепит их позицию как "этического" игрока на рынке ИИ. Для OpenAI же это может означать краткосрочную прибыль за счет долгосрочной репутации.

Более широкий вопрос заключается в том, кто должен регулировать использование ИИ в военной сфере. Должны ли компании сами устанавливать этические ограничения, или это задача правительств и международных организаций?

Справка

Anthropic — американская компания по разработке ИИ, основанная в 2021 году бывшими сотрудниками OpenAI. Компания позиционирует себя как лидера в области безопасного и этичного ИИ. Их флагманский продукт — языковая модель Claude. Anthropic известна своей приверженностью принципам AI safety и отказом от сомнительных контрактов.

OpenAI — компания, основанная в 2015 году с миссией обеспечить безопасное развитие ИИ. Изначально работала как некоммерческая организация, но в 2019 году создала коммерческое подразделение. Известна созданием ChatGPT и GPT-4. В 2023 году подписала партнерское соглашение с Microsoft на $10 млрд.

Dario Amodei — CEO Anthropic, ранее работал в OpenAI над проектами вроде GPT-2 и GPT-3. Имеет докторскую степень по физике от Принстонского университета. Амдеи известен своей позицией по AI safety и критикой компромиссов в ИИ-индустрии.

Sam Altman — CEO OpenAI, предприниматель и инвестор. Ранее был президентом стартап-акселератора Y Combinator. Известен своей видением будущего ИИ и способностью привлекать инвестиции. Под его руководством OpenAI превратилась из некоммерческой лаборатории в коммерческого гиганта.

Министерство обороны США — федеральное ведомство, отвечающее за национальную оборону. В 2025 году при администрации Трампа было переименовано в "Министерство войны". Ведомство активно инвестирует в новые технологии, включая ИИ, для военных целей.

Конфликт между Anthropic и OpenAI — это не просто корпоративная ссора, а отражение фундаментального выбора, стоящего перед ИИ-индустрией. Этические принципы или прибыль? Долгосрочная репутация или краткосрочные выгоды? Ответ на эти вопросы определит не только будущее этих компаний, но и всю экосистему искусственного интеллекта в целом.

Интересно почитать :

Alan — единственный европейский единорог, который не потерял статус
«миллиардера»
Alan — единственный европейский единорог, который не потерял статус «миллиардера»

Ключевые выводы Alan стала единственным европейским единорогом, сохранившим статус «миллиардера» в условиях массового снижения оценок. Компания привлекла $116 млн в раунде, возглавляемом Index Ventures, и выросла в оценке до €5 …

Kofi Ampadu покидает a16z: закрытие программы поддержки стартапов для меньшинств
Kofi Ampadu покидает a16z: закрытие программы поддержки стартапов для меньшинств

Ключевые выводы Руководитель TxO Кори Ампаду покидает a16z через восемь месяцев после заморозки программы Фонд поддерживал стартапы из underserved сообществ через нетрадиционную model донорских фондов Приостановка TxO происходит на фоне …

Питер Аттия покидает David Protein на фоне связей с Эпштейном: последствия для
индустрии долголетия
Питер Аттия покидает David Protein на фоне связей с Эпштейном: последствия для индустрии долголетия

Ключевые выводы Питер Аттия покинул пост в David Protein через 48 часов после утечки 1700 документов с его перепиской с Эпштейном Стартап Biograph, сооснователем которого является Аттия, удаляет упоминания о …

OpenAI запускает приложение Codex для MacOS: как ИИ меняет разработку ПО
OpenAI запускает приложение Codex для MacOS: как ИИ меняет разработку ПО

Ключевые выводы OpenAI выпустил десктопное приложение Codex для MacOS с поддержкой параллельной работы ИИ-агентов Новый GPT-5.2-Codex показывает лучшие результаты в TerminalBench, но конкуренты догоняют Разработчики получают гибкие настройки: от расписания …

Фермеры Кентукки отказались от 26 миллионов долларов за землю под дата-центр.
Вот почему
Фермеры Кентукки отказались от 26 миллионов долларов за землю под дата-центр. Вот почему

Ключевые выводы Семья Хаддлстонов из Кентукки отказалась от предложения в $26 млн от AI-компании за часть своей 1200-акровой фермы. Причина отказа — опасения по поводу экологических последствий (вода, загрязнение) и …

Uber и Rivian объявляют о партнерстве на $1,25 млрд для создания автономных
роботакси
Uber и Rivian объявляют о партнерстве на $1,25 млрд для создания автономных роботакси

Ключевые выводы Uber инвестирует $300 млн в Rivian и планирует купить 10 000 автономных R2 роботакси Сделка потенциально может вырасти до $1,25 млрд при покупке до 40 000 дополнительных SUV …

ФильтрИзбранноеМеню43750 ₽
Top