Ключевые выводы
- Барри Диллер считает Сэма Альтмана честным человеком, но подчеркивает, что главная проблема ИИ — неизвестные последствия, а не личные качества лидеров.
- По мнению Диллера, вопрос доверия к ИИ выходит за рамки моральных оценок: без надёжных «охранных барьеров» может возникнуть неконтролируемая AGI.
- Эксперт предупреждает, что если люди сами не установят ограничения, их может установить сама система ИИ, и тогда отступить будет почти невозможно.
На конференции «Future of Everything» Барри Диллер прямо сказал, что проблема ИИ — это не «доверять» или «не доверять» отдельным людям, а научиться управлять тем, чего мы ещё не можем предсказать.
Что сказал Барри Диллер о Сэме Альтмане?
Во время панельной дискуссии в рамках конференции «Future of Everything», организованной The Wall Street Journal, медиамагнат Барри Диллер отвечал на вопрос о том, стоит ли верить Сэму Альтману, CEO OpenAI. Диллер откровенно признал, что Альтман — «честный человек с хорошими ценностями», но отметил, что личные качества лидера не решают главной задачи.
Он указал, что в текущих дебатах о рисках ИИ часто фокусируются на характере его создателей. По мнению Диллера, это «не тот уровень», на котором нужно останавливаться. Главное — понять, какие неизвестные последствия может принести развитие ИИ.
Сам Диллер подчеркнул, что «доверие» в традиционном смысле может оказаться неактуальным: «вещи, которые происходят, удивляют даже тех, кто их создал». Именно поэтому необходимо думать о будущих сценариях, а не только о мотивах людей.
Отметим, что Диллер сам не инвестирует в ИИ‑проекты, но признает, что развитие «будет происходить независимо от нашей воли». Эта позиция звучит как вспышка реализма в мире, где инвесторы бросаются в гонку за технологией.
Почему доверие к ИИ выходит за рамки человеческого фактора
Диллер сравнил вопрос доверия к Альтману с более глобальной проблемой: как гарантировать, что искусственный интеллект будет действовать в интересах человечества, когда мы сами пока не знаем, что именно он может сделать. Он назвал это «большим неизвестным».
В его понимании, даже самые честные руководители могут столкнуться с тем, что их технологии превзойдут текущие представления о контроле. Поэтому важно построить «охранные барьеры» (guardrails) уже сейчас, пока AGI (Artificial General Intelligence) находится в стадии разработки.
Если такие ограничения не будут созданы людьми, Диллер опасается, что «сила AGI» сама возьмёт на себя роль «регулятора», и тогда отозвать её будет уже невозможно.
Эти слова перекликаются с мнением многих экспертов, которые подчеркивают, что регулирование ИИ должно начинаться задолго до того, как технология станет повсеместной.
Что такое AGI и почему она пугает даже тех, кто её создал
AGI (Artificial General Intelligence) — гипотетический тип ИИ, способный выполнять любые интеллектуальные задачи на уровне или выше человеческого. В отличие от узкоспециализированных систем (например, чат‑ботов), AGI может «перепрыгнуть» в новые области без дополнительного обучения.
По мнению Диллера, мы уже приближаемся к пороговым точкам, где различие между узкоспециализированным ИИ и AGI стирается. Он отметил, что скорость прогресса ускоряется: «чем ближе мы к AGI, тем быстрее она может появиться».
Эта динамика создает двойственный эффект: с одной стороны, открываются невероятные возможности, с другой — растёт риск непредвиденных последствий, которые могут выйти за рамки текущих правовых и этических норм.
Поэтому, по его словам, «необходимо думать о guardrails», то есть о технических и юридических ограничениях, которые бы гарантировали безопасное развитие ИИ.
Каковы потенциальные «охранные барьеры», и кто их устанавливает?
Сейчас обсуждаются разные подходы: от внутреннего тестирования моделей до международных договоров о лимитах вычислительных мощностей. Диллер считает, что ответственность должна лежать на самом сообществе создателей ИИ, но при этом необходимо привлекать государственные органы.
Примером может быть открытая «Этическая панель» OpenAI, в которой участвуют эксперты по праву, социологии и безопасности. Однако Диллер предостерегает, что без конкретных правовых механизмов такие инициативы остаются лишь красивыми заявлениями.
Ключевое — создать прозрачный процесс, где каждый участник (от стартапа до крупного корпората) будет обязан демонстрировать, как его система управляется и какие ограничения в неё встроены.
В противном случае, как отметил Диллер, «AGI» может сама «взять на себя» роль регулятора, а тогда откат будет почти невозможен.
Что это значит для инвесторов и широкой публики
Если доверять словам Диллера, то текущие инвестиции в ИИ — это не просто шанс заработать, а сделка с неизвестным. Инвесторы, желающие поддержать OpenAI или аналогичные проекты, должны учитывать риск «неуправляемой AGI».
Для обычных пользователей важнее понять, что «доверие» к конкретным лидерам компании (как Альтман) не гарантирует безопасность продукта. Нужно требовать открытой информации о тестах, ограничениях и планах по безопасности.
И, конечно, следить за тем, какие «правила» принимаются на уровне отраслевых ассоциаций и правительств. Это поможет минимизировать риски и обеспечить, что ИИ будет работать в пользу общества, а не наоборот.
Справка
Барри Диллер — американский медиа‑магнат, сооснователь Fox Broadcasting, председатель совета директоров IAC и Expedia Group. На протяжении десятилетий формирует медиарынок США, инвестируя в онлайн‑сервисы и технологии.
Сэм Альтман — предприниматель, бывший президент Y Combinator, сооснователь и нынешний CEO OpenAI. Известен как один из главных фигур в развитии генеративного ИИ.
OpenAI — исследовательская лаборатория в сфере искусственного интеллекта, создатель моделей GPT, DALL·E и других систем, ориентированных на «общедоступный» ИИ.
Artificial General Intelligence (AGI) — гипотетический тип ИИ, способный к универсальному решению задач, сравнимому с человеческим интеллектом. На сегодняшний день остаётся концепцией.
Guardrails (охранные барьеры) — совокупность технических, этических и правовых мер, направленных на ограничение непредсказуемого поведения ИИ и обеспечение его безопасного использования.
The Wall Street Journal — международное деловое издание, регулярно проводящее конференции и форумы по будущим технологиям, включая «Future of Everything».
Если мы хотим, чтобы ИИ стал помощником, а не угрозой, нам пришлось бы сейчас задать четкие рамки. Иначе нам скажут: «Мы уже слишком далеко», а отвести время назад уже не получится.







