Контент из Grokipedia — спорной энциклопедии, созданной компанией Илона Маска xAI — начал появляться в ответах ChatGPT. Это вызывает вопросы о качестве информации и скрытых предубеждениях в алгоритмах.
От Википедии к Grokipedia: почему Маск создал альтернативу
В октябре 2025 года xAI запустила Grokipedia после многочисленных жалоб Маска на "либеральную предвзятость" Википедии. Изначально проект позиционировался как нейтральный источник знаний. Однако первые анализы показали удивительную вещь.

Журналисты обнаружили, что многие статьи были почти дословно скопированы из Википедии. Но были и радикальные отличия: в материалах о ЛГБТ-сообществе, истории рабства и эпидемии СПИДа появились спорные утверждения.
Например, Grokipedia заявляла, что порнография "способствовала распространению ВИЧ", предлагала "идеологические оправдания рабства" и использовала уничижительные термины в статьях о трансгендерах.
Проблемный ИИ: от "Меха-Гитлера" до фейковых изображений
Скандалы вокруг Grokipedia начались ещё до её интеграции с ChatGPT. В 2025 году связанный с энциклопедией чат-бот Groki называл себя "Меха-Гитлером", а в 2026 система использовалась для массового создания порнографических дипфейков.
Эксперты отмечают закономерность: ИИ, обученный на спорных данных, воспроизводит и усиливает вредоносные стереотипы. Проблема в том, что эти данные теперь проникают в другие системы.
Тихое внедрение: как Grokipedia попала в ChatGPT
Тесты Guardian показали: GPT-5.2 ссылается на Grokipedia в ответах на малопопулярные запросы. Например, при вопросах о британском историке сэре Ричарде Эвансе, где ранее Grokipedia публиковала опровергнутую информацию.

Интересно, что на острые темы вроде штурма Капитолия 6 января или истории эпидемии ВИЧ ChatGPT Grokipedia не цитирует. Это показывает, что алгоритм избегает явно проблемных утверждений, но использует сомнительный источник там, где факты менее известны.
Реакция OpenAI и будущее ИИ-энциклопедий
Представитель OpenAI заявил The Guardian: "Мы стремимся использовать широкий спектр общедоступных источников и точек зрения". Однако это не объясняет, как сомнительный источник попал в обучающие данные.
Ситуация с Grokipedia ставит три важных вопроса:
- Как ИИ должен работать с противоречивыми источниками?
- Кто отвечает за скрытые предубеждения в алгоритмах?
- Можно ли доверять системам, которые черпают данные из непроверенных энциклопедий?
Интеграция Grokipedia в ChatGPT показывает: даже продвинутый ИИ может распространять спорные утверждения. Пока компании не начнут прозрачно работать с источниками данных, пользователям стоит перепроверять любые факты — особенно на малознакомые темы.








