За «лже-скандалом» OpenAI: классический пример институционального провала

Написано: Центр исследований Web 4

Самая большая философская проблема — не «можно ли доверять кому-то», а «как спроектировать систему, в которой доверие становится излишним». Иначе мы используем управленческую структуру XIX века для борьбы с самой мощной игрой власти XXI века.

01 Взрывное расследование в Кремниевой долине

6 апреля 2026 года «Нью-Йорк Таймс» опубликовала глубокое расследование, завершённое за 18 месяцев, раскрывающее события внутри OpenAI, которые до сих пор вызывают тревогу у многих инсайдеров.

Основной материал этого расследования — внутренний меморандум из семидесяти страниц, собранный бывшим главным учёным OpenAI Ilya Sutskever осенью 2023 года, а также более двухсот страниц личных заметок соучредителя Anthropic Dario Amodei. После публикации все доказательства указывали на один вывод: руководитель OpenAI, Сам Альтман, демонстрирует «последовательную модель лжи».

Это не обычная технологическая сплетня. Это системное сомнение в доверии к одному из самых мощных технологических гигантов в истории человечества и его высшему руководству.

02 Это не только проблема Альтмана

Если воспринимать это только с этой стороны, вы упустите действительно важный вопрос.

Мейнстримовые СМИ задаются вопросом: заслуживает ли Альтман доверия?

Но по-настоящему важный вопрос — когда технология, способная изменить цивилизацию, доверена системе «на основе самосознания», кризис не является случайностью, а закономерен.

Мы назвали это явление: структурный сбой в управлении ИИ.

Это не только проблема Альтмана. Это общая болезнь всей индустрии ИИ.

Доверие — одно из самых часто употребляемых слов в области ИИ. Почти каждая компания говорит: «Доверьтесь нам, мы ставим безопасность превыше всего, наши технологии принесут пользу человечеству». Но расследование «Нью-Йорк Таймс» показывает жестокую правду: OpenAI никогда не создавала системы, делающие доверие излишним.

Ключевые решения этой организации принимаются одним человеком или максимум несколькими. Нет внешнего контроля. Нет обязательных прозрачных механизмов. Обещания — это инструменты, а не ограничения.

Камю в «Мифе о Сизифе» писал: «Определение ценности жизни — это ответ на главный философский вопрос». Аналогично в сфере ИИ: когда технология способна изменить цивилизацию, а система слаба, как построить систему, не зависящую от личной честности?

03 Список предательств обещаний

Расследование «Нью-Йорк Таймс» составило полный «список предательств обещаний».

Первое — переговоры с Microsoft в 2019 году. Тогда OpenAI переходила от некоммерческой организации к «ограниченно прибыльной» структуре, и соучредитель Anthropic Dario Amodei выдвинул ключевой пункт безопасности — «слияние и содействие»: если другая компания приблизится к AGI в безопасности, OpenAI должна прекратить конкуренцию и присоединиться к ней. Это было его минимальным условием. После подписания договора Amodei обнаружил, что у Microsoft есть право вето на слияние, и условие стало фикцией. Когда он лично спросил об этом Альтмана, тот сначала отрицал наличие пункта, пока Amodei не пригласил коллег подтвердить, и тогда Альтман признался, оправдываясь «не помню». В личных заметках Amodei написал: «80% устава преданы».

Второе — обещание вычислительных мощностей в 2023 году. OpenAI громко объявила о создании «супервыравнивающей команды», пообещав выделить 20% своих ресурсов на неё. Но инсайдеры сообщили, что команда фактически получила только 1-2%, и использовала самые старые и худшие чипы. Когда руководитель Jan Leike протестовал, ему ответили холодно: «Это обещание никогда не было реальным». Обратите внимание на избирательность памяти: обещали 20%, дали 1-2%, и при этом заявляют, что «обещание нереально». Это не отклонение от выполнения, а системное забвение.

Это не вопрос честности. Это неизбежное проявление системного сбоя. Когда власть сосредоточена в руках одного человека, и этот человек инстинктивно слабее воспринимает обязательства, обещания систематически забываются, переосмысливаются и оправдываются. Это не только недостаток Альтмана — это общая черта любой централизованной системы.

04 Почему доносчики всегда терпят неудачу

Ilya Sutskever в меморандуме для совета директоров писал: любой, кто пытается создать технологию, способную изменить цивилизацию, несёт невиданные ранее ответственности, но в конечном итоге те, кто занимает эти позиции, — это те, кто заинтересован в власти.

Здесь есть глубокий парадокс: те, кого нужно больше всего ограничивать, — это те, кто жаждет власти. А существующие системы не защищают от этого парадокса.

Когда Ilya решил предупредить извне, он не сообщил внешним регуляторам, потому что в индустрии почти нет внешнего контроля; он не организовал коллективных действий сотрудников, потому что он — учёный, а не активист. Его единственный козырь — документ и возможное моральное осуждение в совете.

Результат известен: в ноябре 2023 года совет действительно уволил Альтмана, но через пять дней, под давлением капитала, общественного мнения и сотрудников, совет распался, и Альтман вернулся. А Илья, пытавшийся предупредить, был отстранён от власти.

Это не просто история о том, что Альтман слишком силён. Это история о системе: в организации с высокой централизацией механизм доноса — структурный сбой, а не случайность. Причина проста — доносчик рискует своей репутацией и карьерой, которая зависит от согласия работодателя. Когда организация отвергает, откладывает и маргинализирует, человеку почти невозможно сопротивляться. Суть централизованной системы — это система, в которой внутренний голос трудно услышать, а внешний — трудно услышать.

Такая же история произошла с Dario Amodei. Когда он понял, что не может изменить культуру безопасности внутри OpenAI, он выбрал другой путь: ушёл, создал Anthropic, реализуя свои ценности через собственную организацию. Это достойная отставка, но не системная победа — ведь всё зависит от личных убеждений основателя, а не от системы.

Ключевая проблема управления ИИ — не «как воспитать больше честных лидеров», а «как создать систему, которая продолжит работать даже при отсутствии честных лидеров».

05 Блокчейн — не панацея, но недостающий кусок пазла

Я выскажу неожиданное для неподготовленного читателя мнение: основная ценность блокчейна — не выпуск токенов, не спекуляции Web 3, а инновация в парадигме управления — внешняя доверенность.

Что значит «внешняя доверенность»? Традиционные системы опираются на «доверие к институту или человеку». В блокчейне всё иначе: доверие переносится с человека на правила и код. Нет необходимости в доверенной третьей стороне — есть прозрачные правила и проверяемые доказательства.

Недостаток управления ИИ — в полном отсутствии такой внешней системы доверия. Обещания OpenAI оценивает сама OpenAI. Это не контроль, а самопроверка. Внешний мир не может независимо проверить, действительно ли они выделили 20% ресурсов на безопасность, или их процессы одобрения моделей прошли проверку безопасностной комиссией. Прозрачность — это опция, а не структурное требование.

Блокчейн предлагает возможный путь решения. Не в том, чтобы просто «записать модели ИИ в цепочку», — технологии не решают системные проблемы, а в том, чтобы создать прозрачную и проверяемую систему учёта. Например, журнал решений ИИ на базе блокчейна может фиксировать каждое важное обновление модели, каждое распределение ресурсов — и делать это неизменяемым. Это не сделает ИИ идеальным, но усложнит системное забывание обещаний.

Конечно, это лишь направление, а не панацея. Технологии не заменяют управление. Но в эпоху, когда управление ИИ практически отсутствует, любые решения, повышающие прозрачность власти и её баланс, заслуживают серьёзного обсуждения.

06 Глубокий вопрос

Истинный урок кризиса OpenAI — не в том, каким человеком является Альтман.

А в том, что когда технология, способная изменить цивилизацию, попадает в систему «на основе самосознания», риск не в выходе из-под контроля, а в системных сбоях.

История человечества показывает, что каждое крупное технологическое революционное событие сопровождается развитием новых управленческих моделей. Атомная энергия — МАГАТЭ и системы нераспространения. Интернет — законы о защите данных и кибербезопасности. Каждая технология, способная изменить власть, требует новых системных рамок для её регулирования.

AGI — первая технология, которая может изменить цивилизацию, ещё не имея эффективных управленческих структур. Эти структуры не должны зависеть от личных качеств основателей или обещаний компаний. Они должны быть структурированными, сдерживающими и не зависеть от самосознания отдельных лиц.

А у нас пока их нет.

Что касается той семидесятистраничной записки Ilya Sutskever, расследование «Нью-Йорк Таймс» восстановило её суть: Ilya ясно выразил совету, что он считает, что Альтман не должен быть тем, кто управляет кнопкой запуска AGI.

Этот документ стал искрой глобального шока — события внутри OpenAI, которое потрясло весь мир. Совет действительно уволил Альтмана, но через пять дней, под давлением капитала, общественного мнения и сотрудников, структура власти разрушилась, и Альтман вернулся. А Ilya, пытавшийся предупредить, — был отстранён.

Это не история о добром и злом. Это история о системе. В хорошо устроенной системе поведение Альтмана могло бы быть ограничено; в системе с отказами — даже самый добросовестный доносчик рискует быть подавленным.

Человечество вступает в эпоху, когда AGI может изменить цивилизацию. А системы управления этим эпохальным событием всё ещё остаются в XIX веке.

Это не ошибка одного человека. Это классический пример системного провала.

И главный урок — не «не доверяйте Альтману», а «создайте систему, в которой любой может быть поставлен под сомнение, сдержан и подчинён прозрачным ограничениям».

Доверие — необходимо. Но в эпоху ИИ доверия недостаточно. Нам нужна система, делающая доверие излишним.

(Статья основана на расследовании «Нью-Йорк Таймс» от 6 апреля 2026 года, официальных заявлениях OpenAI и открытых источниках. Данные актуальны по состоянию на апрель 2026 года.)

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
Добавить комментарий
Добавить комментарий
Нет комментариев
  • Горячее на Gate Fun

    Подробнее
  • РК:$2.23KДержатели:1
    0.00%
  • РК:$2.22KДержатели:1
    0.00%
  • РК:$2.22KДержатели:1
    0.00%
  • РК:$2.23KДержатели:1
    0.00%
  • РК:$0.1Держатели:0
    0.00%
  • Закрепить