Фьючерсы
Доступ к сотням фьючерсов
TradFi
Золото
Одна платформа мировых активов
Опционы
Hot
Торги опционами Vanilla в европейском стиле
Единый счет
Увеличьте эффективность вашего капитала
Демо-торговля
Введение в торговлю фьючерсами
Подготовьтесь к торговле фьючерсами
Фьючерсные события
Получайте награды в событиях
Демо-торговля
Используйте виртуальные средства для торговли без риска
Запуск
CandyDrop
Собирайте конфеты, чтобы заработать аирдропы
Launchpool
Быстрый стейкинг, заработайте потенциальные новые токены
HODLer Airdrop
Удерживайте GT и получайте огромные аирдропы бесплатно
Pre-IPOs
Откройте полный доступ к глобальным IPO акций
Alpha Points
Торгуйте и получайте аирдропы
Фьючерсные баллы
Зарабатывайте баллы и получайте награды аирдропа
Инвестиции
Simple Earn
Зарабатывайте проценты с помощью неиспользуемых токенов
Автоинвест.
Автоинвестиции на регулярной основе.
Бивалютные инвестиции
Доход от волатильности рынка
Мягкий стейкинг
Получайте вознаграждения с помощью гибкого стейкинга
Криптозаймы
0 Fees
Заложите одну криптовалюту, чтобы занять другую
Центр кредитования
Единый центр кредитования
Рекламные акции
AI
Gate AI
Ваш универсальный AI-ассистент для любых задач
Gate AI Bot
Используйте Gate AI прямо в вашем социальном приложении
GateClaw
Gate Синий Лобстер — готов к использованию
Gate for AI Agent
AI-инфраструктура: Gate MCP, Skills и CLI
Gate Skills Hub
Более 10 тыс навыков
От офиса до трейдинга: единая база навыков для эффективного использования ИИ
GateRouter
Умный выбор из более чем 30 моделей ИИ, без дополнительных затрат (0%)
Заметил интересную закономерность в Силиконовой долине — там постоянно появляются новые «пророки», которые рассказывают нам об апокалипсисе и одновременно продают нам спасение. Сэм Альтман — просто самая удачная модель этого конвейера.
Вернёмся в 2016 год. The New Yorker написала о нём статью, когда ему было 31. Уже тогда он был президентом Y Combinator и при этом запасался оружием, золотом, йодистым калием для защиты от ядерного излучения. У него было два чемодана для эвакуации и земельный участок в Биг-Суре, куда можно было быстро улететь на самолёте. Через десять лет он стал тем, кто больше всех кричит об опасности ИИ для человечества — и одновременно тем, кто её ускоряет.
Вот в чём суть его бизнес-модели: представить всё как священную войну за выживание человечества. Он это отточил ещё в YC, превратив небольшую мастерскую в огромную империю. Потом перенёс эту тактику в OpenAI. Рассказывает об «экстинкционных рисках» ИИ, сравнивает их с ядерной войной, говорит в Сенате, что люди должны бояться — и каждое его слово становится заголовком. Бесплатная реклама через управляемый страх.
А потом предлагает решение: Worldcoin. Серебряный шар, сканирующий радужную оболочку глаз, чтобы раздавать деньги в эпоху ИИ. Звучит спасительно, но практика быстро вызвала настороженность — больше десяти стран приостановили проект из-за вопросов конфиденциальности. Но для Альтмана это не главное. Главное — он позиционировал себя как единственный, кто имеет ответ.
Что касается регулирования — он мастер переворота. В 2023 году выступил в конгрессе и сказал: «Пожалуйста, регулируйте нас». Предложил систему лицензирования, которая отсекла бы конкурентов. Но когда Google и Anthropic нагнали в технологиях, его позиция изменилась. Теперь он говорит, что строгое регулирование подавляет инновации. Когда был впереди — призывал к правилам. Когда потерял преимущество — призывал к свободе.
За этим стояла трансформация OpenAI. Основана как некоммерческая организация с миссией «безопасно обеспечить AGI». К 2024 году слово «безопасно» из миссии тихо удалили. Доходы взлетели с десятков миллионов в 2022 до более чем 10 млрд в 2024. Оценка компании выросла со 29 млрд до 100 млрд.
Помните ноябрь 2023? Его уволили из совета директоров за «недобросовестное общение». Оказалось, он скрывал контроль над венчурным фондом, врал о процессах безопасности, даже о запуске ChatGPT совет узнал из Twitter. Любое из этих нарушений должно было стоить ему места. Но нет. 95% сотрудников подписали петицию, Microsoft встала на его сторону, и он вернулся с ещё большей властью. Уволил почти весь совет.
Почему? Потому что он не обычный генеральный директор — он «харизматичный лидер» в понимании Макса Вебера. Его последователи верят не в процедуры, а в него. Когда его оспаривают, они защищают его. После его возвращения команда безопасности OpenAI была распущена. Главный научный сотрудник, инициировавший его увольнение, ушёл. В мае 2024 руководитель безопасности написал в твиттере: «Культура безопасности принесена в жертву ради блестящих продуктов».
Но он не одинок. Маск говорит об опасности ИИ, но Tesla — крупнейшая робототехническая компания. Цукерберг потратил 90 млрд на метавселенную, потом развернулся на AGI. Питер Тиль инвестирует в компании о сингулярности и одновременно строит убежища в Новой Зеландии. Palantir, его компания, была «мозгом» операций против Ирана в начале 2026, интегрируя данные со спутников и дронов через Claude.
Каждый играет двойную роль — предупреждает об апокалипсисе и его создаёт. Это не расщепление личности, это бизнес-модель.
Теперь о его состоянии. Он всегда говорил, что не имеет акций OpenAI и работает из любви. Но Bloomberg посчитал: его личное состояние около 2 млрд долларов. Это из инвестиций — Stripe принесла ему сотни миллионов, Reddit тоже. Он инвестировал в Helion, компанию по термоядерному синтезу, говорил, что будущее ИИ зависит от энергетики, и потом OpenAI подписала с Helion крупный контракт на электроэнергию.
У него нет прямых акций OpenAI, но он построил вокруг неё огромную инвестиционную империю. Каждая его проповедь о будущем человечества добавляет ценность этой империи. Sam Altman net worth растёт не от зарплаты, а от этой архитектуры интересов.
Вернёмся к аварийному рюкзаку с оружием, золотом, антибиотиками и земле в Биг-Суре. Он никогда это не скрывал. Эвакуационный набор реален, бункер реален, одержимость апокалипсисом реальна. Но он же тот, кто ускоряет апокалипсис. Это не противоречие — в его логике апокалипсис не нужно останавливать, нужно просто занять выгодную позицию заранее.
В феврале 2026 он объявил красную линию — не использовать ИИ в войне. И сразу подписал контракт с Пентагоном. Это не лицемерие, это внутренняя необходимость его модели. Моральные позиции — часть продукта, контракты — источник прибыли.
Он должен одновременно быть милосердным спасителем и безжалостным пророком апокалипсиса. Только так его история продолжается, только так его «судьба» становится очевидной.
Самая настоящая опасность — не ИИ, а те, кто считает себя вправе определять судьбу человечества.