Барри Диллер Защищает Сэма Альтмана: Почему Доверять Лидеру Ии‑Индустрии — Это Вопрос Не Только Морали, А И Неизвестных Последствий

Ключевые выводы

  • Барри Диллер считает Сэма Альтмана честным человеком, но подчеркивает, что главная проблема ИИ — неизвестные последствия, а не личные качества лидеров.
  • По мнению Диллера, вопрос доверия к ИИ выходит за рамки моральных оценок: без надёжных «охранных барьеров» может возникнуть неконтролируемая AGI.
  • Эксперт предупреждает, что если люди сами не установят ограничения, их может установить сама система ИИ, и тогда отступить будет почти невозможно.
На конференции «Future of Everything» Барри Диллер прямо сказал, что проблема ИИ — это не «доверять» или «не доверять» отдельным людям, а научиться управлять тем, чего мы ещё не можем предсказать.

Что сказал Барри Диллер о Сэме Альтмане?

Во время панельной дискуссии в рамках конференции «Future of Everything», организованной The Wall Street Journal, медиамагнат Барри Диллер отвечал на вопрос о том, стоит ли верить Сэму Альтману, CEO OpenAI. Диллер откровенно признал, что Альтман — «честный человек с хорошими ценностями», но отметил, что личные качества лидера не решают главной задачи.

Он указал, что в текущих дебатах о рисках ИИ часто фокусируются на характере его создателей. По мнению Диллера, это «не тот уровень», на котором нужно останавливаться. Главное — понять, какие неизвестные последствия может принести развитие ИИ.

Сам Диллер подчеркнул, что «доверие» в традиционном смысле может оказаться неактуальным: «вещи, которые происходят, удивляют даже тех, кто их создал». Именно поэтому необходимо думать о будущих сценариях, а не только о мотивах людей.

Отметим, что Диллер сам не инвестирует в ИИ‑проекты, но признает, что развитие «будет происходить независимо от нашей воли». Эта позиция звучит как вспышка реализма в мире, где инвесторы бросаются в гонку за технологией.

Почему доверие к ИИ выходит за рамки человеческого фактора

Диллер сравнил вопрос доверия к Альтману с более глобальной проблемой: как гарантировать, что искусственный интеллект будет действовать в интересах человечества, когда мы сами пока не знаем, что именно он может сделать. Он назвал это «большим неизвестным».

В его понимании, даже самые честные руководители могут столкнуться с тем, что их технологии превзойдут текущие представления о контроле. Поэтому важно построить «охранные барьеры» (guardrails) уже сейчас, пока AGI (Artificial General Intelligence) находится в стадии разработки.

Если такие ограничения не будут созданы людьми, Диллер опасается, что «сила AGI» сама возьмёт на себя роль «регулятора», и тогда отозвать её будет уже невозможно.

Эти слова перекликаются с мнением многих экспертов, которые подчеркивают, что регулирование ИИ должно начинаться задолго до того, как технология станет повсеместной.

Что такое AGI и почему она пугает даже тех, кто её создал

AGI (Artificial General Intelligence) — гипотетический тип ИИ, способный выполнять любые интеллектуальные задачи на уровне или выше человеческого. В отличие от узкоспециализированных систем (например, чат‑ботов), AGI может «перепрыгнуть» в новые области без дополнительного обучения.

По мнению Диллера, мы уже приближаемся к пороговым точкам, где различие между узкоспециализированным ИИ и AGI стирается. Он отметил, что скорость прогресса ускоряется: «чем ближе мы к AGI, тем быстрее она может появиться».

Эта динамика создает двойственный эффект: с одной стороны, открываются невероятные возможности, с другой — растёт риск непредвиденных последствий, которые могут выйти за рамки текущих правовых и этических норм.

Поэтому, по его словам, «необходимо думать о guardrails», то есть о технических и юридических ограничениях, которые бы гарантировали безопасное развитие ИИ.

Каковы потенциальные «охранные барьеры», и кто их устанавливает?

Сейчас обсуждаются разные подходы: от внутреннего тестирования моделей до международных договоров о лимитах вычислительных мощностей. Диллер считает, что ответственность должна лежать на самом сообществе создателей ИИ, но при этом необходимо привлекать государственные органы.

Примером может быть открытая «Этическая панель» OpenAI, в которой участвуют эксперты по праву, социологии и безопасности. Однако Диллер предостерегает, что без конкретных правовых механизмов такие инициативы остаются лишь красивыми заявлениями.

Ключевое — создать прозрачный процесс, где каждый участник (от стартапа до крупного корпората) будет обязан демонстрировать, как его система управляется и какие ограничения в неё встроены.

В противном случае, как отметил Диллер, «AGI» может сама «взять на себя» роль регулятора, а тогда откат будет почти невозможен.

Что это значит для инвесторов и широкой публики

Если доверять словам Диллера, то текущие инвестиции в ИИ — это не просто шанс заработать, а сделка с неизвестным. Инвесторы, желающие поддержать OpenAI или аналогичные проекты, должны учитывать риск «неуправляемой AGI».

Для обычных пользователей важнее понять, что «доверие» к конкретным лидерам компании (как Альтман) не гарантирует безопасность продукта. Нужно требовать открытой информации о тестах, ограничениях и планах по безопасности.

И, конечно, следить за тем, какие «правила» принимаются на уровне отраслевых ассоциаций и правительств. Это поможет минимизировать риски и обеспечить, что ИИ будет работать в пользу общества, а не наоборот.

Справка

Барри Диллер — американский медиа‑магнат, сооснователь Fox Broadcasting, председатель совета директоров IAC и Expedia Group. На протяжении десятилетий формирует медиарынок США, инвестируя в онлайн‑сервисы и технологии.

Сэм Альтман — предприниматель, бывший президент Y Combinator, сооснователь и нынешний CEO OpenAI. Известен как один из главных фигур в развитии генеративного ИИ.

OpenAI — исследовательская лаборатория в сфере искусственного интеллекта, создатель моделей GPT, DALL·E и других систем, ориентированных на «общедоступный» ИИ.

Artificial General Intelligence (AGI) — гипотетический тип ИИ, способный к универсальному решению задач, сравнимому с человеческим интеллектом. На сегодняшний день остаётся концепцией.

Guardrails (охранные барьеры) — совокупность технических, этических и правовых мер, направленных на ограничение непредсказуемого поведения ИИ и обеспечение его безопасного использования.

The Wall Street Journal — международное деловое издание, регулярно проводящее конференции и форумы по будущим технологиям, включая «Future of Everything».

Если мы хотим, чтобы ИИ стал помощником, а не угрозой, нам пришлось бы сейчас задать четкие рамки. Иначе нам скажут: «Мы уже слишком далеко», а отвести время назад уже не получится.

Интересно почитать :

Уязвимость на сайте Express: как обнаружили и исправили утечку личных данных
покупателей
Уязвимость на сайте Express: как обнаружили и исправили утечку личных данных покупателей

Ключевые выводы На сайте Express была обнаружена уязвимость, позволяющая просматривать подтверждения заказов других покупателей. Уязвимость раскрывала имена, телефоны, email, адреса и часть данных банковских карт. Проблема была быстро устранена после …

World — новый уровень проверки личности: от Orb до Tinder и концертных билетов
World — новый уровень проверки личности: от Orb до Tinder и концертных билетов

Ключевые выводы World представил три уровня верификации: Orb‑сканирование радужки, проверка государственных ID и «Selfie Check». Технология будет интегрирована в Tinder, Zoom, Docusign и концертные системы Ticketmaster и Eventbrite. Компания расширяет …

Whoop представляет инновационные инструменты для женского здоровья: анализ крови
и прогнозирование цикла
Whoop представляет инновационные инструменты для женского здоровья: анализ крови и прогнозирование цикла

Ключевые выводы Whoop запускает новую панель для женского здоровья с 11 биомаркерами крови Компания добавила функцию прогнозирования гормональных изменений в менструальном цикле Анализ включает показатели AMH, прогестерона, витамина B12 и …

Starbase создает собственную полицию: как город SpaceX берет безопасность в свои
руки
Starbase создает собственную полицию: как город SpaceX берет безопасность в свои руки

Ключевые выводы Город Starbase одобрил создание муниципальной полиции из 8 офицеров для защиты объектов SpaceX Решение принято после провала контракта с шерифом округа Кэмерон на $3.5 млн Изолированный город с …

Подробное руководство по Streamlabs OBS — подготовка и запуск прямого эфира
Подробное руководство по Streamlabs OBS — подготовка и запуск прямого эфира

Кратко: Streamlabs OBS — это мощный инструмент для стриминга с множеством встроенных функций. Правильная настройка битрейта и разрешения обеспечивает стабильную трансляцию. Добавление сцен и виджетов делает ваш стрим более профессиональным. …

Платформа VITL закрывает главный технический пробел в cash-pay медицине
Платформа VITL закрывает главный технический пробел в cash-pay медицине

Ключевые выводы Количество клиник с прямой оплатой (med-spa, weight loss, concierge) стремительно растёт, но их IT-инструменты отстают от потребностей. Главная боль таких практик — ручная, неэффективная работа с рецептами на …

ФильтрИзбранноеМеню43750 ₽
Top