Ключевые выводы
- Сэм Альтман признал, что OpenAI не сообщил полиции о подозрительном аккаунте ChatGPT, связанном с массовой стрельбой в Тумблер‑Ридж.
- Компания уже блокировала аккаунт Джесси ван Роотселаара в июне 2025 года после того, как пользователь описывал сценарии с применением оружия.
- OpenAI объявила о планах ужесточить протоколы безопасности, включая более гибкие критерии передачи данных властям и прямой контакт с канадскими правоохранителями.
В небольшом канадском городке Тумблер‑Ридж пожилая община столкнулась с трагедией, а за ней — вопрос о том, как технологии могут (и должны) помогать в предотвращении насилия. Давайте разберём, что произошло, почему OpenAI извинился и какие шаги предпринимает компания, чтобы такие ошибки не повторялись.
Что случилось: трагедия в Тумблер‑Ридж
18‑летний Джесси ван Роотселаар был арестован как подозреваемый в массовой стрельбе, унесшей жизни восьми человек. Преступление встряхнуло небольшое сообщество в провинции Британская Колумбия, а также привлекло внимание к тому, как ИИ‑сервисы могут использоваться для планирования насилия.
В июне 2025 года сотрудники OpenAI обнаружили, что аккаунт пользователя обсуждал детали, связанные с огнестрельным оружием, и решили его заблокировать. По словам внутренних источников, внутри компании шёл спор: стоит ли сразу передавать информацию в полицию.
В итоге решение было отложено, а лишь после самого теракта OpenAI связалась с канадскими правоохранителями. Об этом пишет Wall Street Journal и локальное издание TumblerLines.
Сам Сэм Альтман, глава OpenAI, в открытом письме жителям Тумблер‑Ридж выразил глубокие извинения, отметив, что «слова никогда не заменят потерянных жизней», но считаются необходимыми для признания вины.
Почему OpenAI не уведомила полицию сразу
Согласно внутренним обсуждениям, которые раскрыты в репортаже, сотрудники придерживались принципа «не раскрывать без явного согласия», опасаясь нарушить конфиденциальность пользователя и создать прецедент для массовой передачи данных.
Тем не менее, в случае ван Роотселаара компания столкнулась с двойным дилинком: с одной стороны — обязательство по защите пользователей, с другой — моральная ответственность перед обществом.
После инцидента руководство признало, что текущие «критерии передачи данных» были слишком жёсткими и не позволяли быстро реагировать на реальные угрозы.
Новые протоколы безопасности OpenAI
В ответ на критику OpenAI объявила о ряде изменений:
- Внедрение более гибкой шкалы риска, позволяющей передавать информацию в правоохранительные органы уже на этапе предварительных обсуждений оружия.
- Создание прямой линии связи с канадскими и другими международными полицией, чтобы упростить процесс обмена данными.
- Регулярный аудит внутренней политики конфиденциальности совместно с независимыми экспертами по этике ИИ.
- Обучение сотрудников более чуткому распознаванию потенциальных угроз, а также разработка рекомендаций для пользователей о том, как формулировать запросы безопасно.
Эти меры направлены на то, чтобы «ничто подобное не повторилось», как подчеркивает Альтман в своём письме.
Реакция общественности и политиков
Премьер Британской Колумбии Дэвид Эби в ответ на письмо Альтмана заявил, что извинения «не достаточны», учитывая масштаб страданий семей погибших. Он также напомнил, что канадское правительство рассматривает новые законы, регулирующие использование ИИ, но пока решения официально не приняты.
Мэр Тумблер‑Ридж Даррил Краквка поддержал необходимость публичного извинения, но подчеркнул, что время для скорби должно идти рука об руку с действиями, направленными на профилактику.
Как эта ситуация может изменить регулирование ИИ в Канаде
Инцидент стал одним из катализаторов для обсуждения национального законодательства об ИИ. Предлагаемые проекты законов включают обязательный мониторинг высокорисковых запросов и требование от компаний предоставлять отчёты о передаче информации властям.
Если такие нормы будут приняты, компании, подобные OpenAI, столкнутся с необходимостью публичных реестров запросов, которые могут быть переданы в случае угрозы безопасности.
С другой стороны, критики опасаются, что чрезмерный контроль может подорвать свободу слова и инновации в сфере ИИ.
Что это значит для пользователей ChatGPT
Для большинства людей, использующих ChatGPT в повседневных задачах, изменения почти не почувствуются. Однако в случае обсуждения тем, связанных с насилием, система теперь будет более активно распознавать риск и, при необходимости, передавать информацию в соответствующие органы.
OpenAI обещает сохранять баланс между конфиденциальностью и общественной безопасностью, но точные детали новых алгоритмов пока держатся в секрете.
Справка
OpenAI – американская компания, основанная в 2015 году группой предпринимателей, включая Илонa Маска и Сэма Альтмана. Она известна разработкой ChatGPT, крупного языкового модели, используемой в тысячах приложений по всему миру.
Сэм Альтман – генеральный директор OpenAI с 2019 года, ранее сооснователь Y Combinator. Он стал публичной фигурой в области искусственного интеллекта и часто выступает в защиту этического использования технологий.
Jesse Van Rootselaar – 18‑летний канадский житель, арестованный как подозреваемый в совершении массовой стрельбы в Тумблер‑Ридж, где погибли восемь человек. Его аккаунт в ChatGPT был заблокирован в июне 2025 года за обсуждение сценариев насилия.
Тумблер‑Ридж – небольшой город в провинции Британская Колумбия, Канада, с населением около 2 500 человек. Трагедия в 2026 году привлекла международное внимание к вопросам безопасности ИИ.
Премьер Дэвид Эби – глава правительства Британской Колумбии, активно продвигает законопроекты по регулированию искусственного интеллекта и кибербезопасности.
Итог ясен: технологии могут спасать, но и усложнять жизнь, если их держать в вакууме. OpenAI признала ошибку, поправила правила и обещала более тесно работать с правоохранителями. Остаётся надеяться, что новые протоколы действительно помогут предотвратить аналогичные трагедии.








