Война За Ии: Anthropic Vs Openai — Этика Против Прибыли В Гонке За Оборонные Контракты

Ключевые выводы

  • Anthropic отказался от оборонного контракта из-за опасений использования ИИ для массового наблюдения и автономного оружия
  • OpenAI заключила сделку с Министерством обороны США, вызвав волну негативной реакции пользователей
  • Удаления ChatGPT увеличились на 295% после объявления оборонного контракта
  • Dario Amodei обвинил Сэма Альтмана в "безопасностном театре" и лживом пиаре
  • Конфликт отражает более широкие противоречия между этическими принципами и коммерческими интересами в ИИ-индустрии
Война между двумя гигантами ИИ — это не просто корпоративная ссора, это столкновение фундаментальных ценностей: этические принципы Anthropic против прагматичного подхода OpenAI. Последствия этой битвы определят будущее ИИ в военной сфере и за ее пределами.

Этический разлом в ИИ-индустрии

Конфликт между Anthropic и OpenAI вышел за рамки обычной конкуренции и превратился в публичную битву за душу искусственного интеллекта. В центре спора — принципиально разные подходы к работе с военными структурами и этическим ограничениям в использовании технологий.

Dario Amodei, основатель и CEO Anthropic, открыто обвинил Сэма Альтмана из OpenAI в "безопасностном театре" — когда компания заявляет о соблюдении этических норм, но на практике идет на компромиссы ради прибыли. По словам Амдеи, OpenAI приняло контракт с Министерством обороны США, потому что "заботилось о том, чтобы угодить сотрудникам", в то время как Anthropic "на самом деле заботился о предотвращении злоупотреблений".

Суть конфликта заключается в том, что Anthropic уже имел контракт на $200 млн с военными, но отказался расширять его без четких гарантий. Компания настаивала на том, чтобы Министерство обороны подтвердило, что не будет использовать их ИИ для массового внутреннего наблюдения или автономного оружия. Когда военные отказались давать такие гарантии, Anthropic ушел из переговоров.

OpenAI пошел другим путем

В то время как Anthropic стоял на своем, OpenAI заключила сделку с Министерством обороны, известным при администрации Трампа как "Министерство войны". Сэм Альтман заявил, что новый оборонный контракт включает защитные меры против тех же "красных линий", которые настаивала Anthropic.

Однако Амдеи назвал это "прямыми ложью" и обвинил Альтмана в том, что тот "представляет себя миротворцем и дипломатом". В письме сотрудникам он написал, что OpenAI пытается "продать газлайтинг" общественности, представляя сделку как ответственное решение, в то время как на самом деле просто идет на поводу у военных.

Публичная реакция подтвердила опасения критиков. После объявления оборонного контракта удаления приложения ChatGPT увеличились на 295%, что указывает на серьезное недоверие пользователей к намерениям OpenAI. Интересно, что Anthropic в этот момент поднялся на второе место в App Store, что может свидетельствовать о том, что пользователи голосуют рублем за этические принципы.

Технические детали спора

Основной технический спор касается формулировки "любое законное использование" (any lawful use). Anthropic настаивал на более жестких ограничениях, опасаясь, что "законное использование" может включать в себя массовое наблюдение или другие сомнительные практики, которые сейчас легальны, но могут стать незаконными в будущем.

OpenAI, в свою очередь, заявила, что их контракт явно указывает, что массовое внутреннее наблюдение не покрывается "законным использованием". Компания утверждает, что обеспечила явное исключение таких практик из контракта. Однако критики указывают, что закон может измениться, и то, что сейчас незаконно, может стать разрешенным.

Интересно, что Амдеи признал, что "это работает на некоторых Twitter-идиотов, что не имеет значения", но его главная забота — как убедить сотрудников OpenAI, что они работают на компанию, которая пошла на компромисс с этическими принципами.

Исторический контекст и последствия

Этот конфликт — не изолированный случай, а часть более широкой дискуссии об этике ИИ в военной сфере. Многие технологические компании сталкиваются с дилеммой: отказаться от прибыльных оборонных контрактов или рискнуть своей репутацией, сотрудничая с военными.

Для Anthropic этот конфликт может стать определяющим моментом, который укрепит их позицию как "этического" игрока на рынке ИИ. Для OpenAI же это может означать краткосрочную прибыль за счет долгосрочной репутации.

Более широкий вопрос заключается в том, кто должен регулировать использование ИИ в военной сфере. Должны ли компании сами устанавливать этические ограничения, или это задача правительств и международных организаций?

Справка

Anthropic — американская компания по разработке ИИ, основанная в 2021 году бывшими сотрудниками OpenAI. Компания позиционирует себя как лидера в области безопасного и этичного ИИ. Их флагманский продукт — языковая модель Claude. Anthropic известна своей приверженностью принципам AI safety и отказом от сомнительных контрактов.

OpenAI — компания, основанная в 2015 году с миссией обеспечить безопасное развитие ИИ. Изначально работала как некоммерческая организация, но в 2019 году создала коммерческое подразделение. Известна созданием ChatGPT и GPT-4. В 2023 году подписала партнерское соглашение с Microsoft на $10 млрд.

Dario Amodei — CEO Anthropic, ранее работал в OpenAI над проектами вроде GPT-2 и GPT-3. Имеет докторскую степень по физике от Принстонского университета. Амдеи известен своей позицией по AI safety и критикой компромиссов в ИИ-индустрии.

Sam Altman — CEO OpenAI, предприниматель и инвестор. Ранее был президентом стартап-акселератора Y Combinator. Известен своей видением будущего ИИ и способностью привлекать инвестиции. Под его руководством OpenAI превратилась из некоммерческой лаборатории в коммерческого гиганта.

Министерство обороны США — федеральное ведомство, отвечающее за национальную оборону. В 2025 году при администрации Трампа было переименовано в "Министерство войны". Ведомство активно инвестирует в новые технологии, включая ИИ, для военных целей.

Конфликт между Anthropic и OpenAI — это не просто корпоративная ссора, а отражение фундаментального выбора, стоящего перед ИИ-индустрией. Этические принципы или прибыль? Долгосрочная репутация или краткосрочные выгоды? Ответ на эти вопросы определит не только будущее этих компаний, но и всю экосистему искусственного интеллекта в целом.

Интересно почитать :

Snap сокращает около 16 % сотрудников: почему компания ставит ставку на ИИ и
прибыльный рост
Snap сокращает около 16 % сотрудников: почему компания ставит ставку на ИИ и прибыльный рост

Ключевые выводы Snap уволит примерно 1 000 человек, что составляет около 16 % глобального штата. Компания объясняет сокращения ускоренным развитием искусственного интеллекта, который позволяет автоматизировать рутинные задачи. Сокращения должны сократить …

Дэвид Барнетт и PopSockets: как простая идея превратилась в феномен
Дэвид Барнетт и PopSockets: как простая идея превратилась в феномен

Ключевые выводы PopSockets появился из простой потребности держать наушники, а не как запланированный продукт Барнетт стартовал без опыта в бизнесе, но с настойчивостью и готовностью учиться Успех пришел после нескольких …

Physical Intelligence собирает $1 млрд: "ChatGPT для роботов" оценили в $11 млрд
Physical Intelligence собирает $1 млрд: "ChatGPT для роботов" оценили в $11 млрд

Ключевые выводы Финансовый взлёт: Стартап Physical Intelligence ведёт переговоры о привлечении около $1 млрд, что может увеличить его оценку до $11 млрд — практически вдвое за четыре месяца. Кто инвестирует: …

Meta Reality Labs: $19 млрд убытков и стратегический поворот к VR-очкам
Meta Reality Labs: $19 млрд убытков и стратегический поворот к VR-очкам

Через пять лет после громкого старта проекта метавселенной, Reality Labs — подразделение Meta по виртуальной реальности — сталкивается с беспрецедентными убытками. При этом компания сокращает сотрудников и меняет стратегию, делая …

Fizz выходит на мировой рынок: как анонимная соцсеть для студентов стала номером
один в Саудовской Аравии
Fizz выходит на мировой рынок: как анонимная соцсеть для студентов стала номером один в Саудовской Аравии

Ключевые выводы Анонимное приложение Fizz, созданное для университетских кампусов, стало №1 в App Store Саудовской Аравии через 48 часов после тихого запуска в марте 2025 года. Успех в регионе связан …

Sycamore привлек $65 млн на создание «Slack для ИИ-агентов». Почему это важно и
кому это нужно
Sycamore привлек $65 млн на создание «Slack для ИИ-агентов». Почему это важно и кому это нужно

Ключевые выводы Стартап Sycamore, работающий над единой платформой для ИИ-агентов в больших компаниях, привлек $65 млн на seed-раунде. Это один из крупнейших подобных раундов на ранней стадии. Главное отличие — …

ФильтрИзбранноеМеню43750 ₽
Top