Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Pre-IPOs
Desbloqueie o acesso completo a IPO de ações globais
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Promoções
Centro de atividade
Participe de atividades e ganhe recompensas
Indicação
20 USDT
Convide amigos para recompensas de ind.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Anúncio
Atualizações na plataforma em tempo real
Blog da Gate
Artigos do setor de criptomoedas
AI
Gate AI
Seu parceiro de IA conversacional para todas as horas
Gate AI Bot
Use o Gate AI diretamente no seu aplicativo social
GateClaw
Gate Blue Lobster, pronto para usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
10K+ habilidades
Do escritório à negociação: um hub completo de habilidades para turbinar o uso da IA
GateRouter
Escolha inteligentemente entre mais de 30 modelos de IA, com 0% de taxas extras
Acabei de me atualizar sobre uma das peças investigativas mais contundentes sobre a liderança da OpenAI em um bom tempo, e honestamente, é difícil ignorar as implicações aqui.
Então, em 2023, Ilya Sutskever—cientista-chefe da OpenAI—compilou um memorando extenso documentando preocupações sobre a confiabilidade de Sam Altman. Estamos falando de 70 páginas extraídas de logs do Slack, registros de RH, reuniões internas. A primeira linha foi direta: Sam exibe um padrão consistente de mentiras. Avançando para agora, a investigação do The New Yorker (Ronan Farrow e Andrew Marantz) revelou o memorando junto com mais de 200 páginas de notas privadas de Dario Amodei, que foi chefe de segurança da OpenAI antes de fundar a Anthropic.
Aqui está o que me chama atenção: a OpenAI foi literalmente estruturada como uma organização sem fins lucrativos justamente para que a segurança fosse prioridade antes do lucro. A premissa toda era que alguém precisaria ser capaz de desligar a empresa se as coisas se tornassem perigosas. Toda a arquitetura apostava tudo em uma suposição—que quem estivesse à frente tinha que ser radicalmente honesto.
Mas, de acordo com o memorando e entrevistas com mais de 100 pessoas, isso não aconteceu. Existem exemplos específicos: Altman disse ao conselho que os recursos do GPT-4 tinham passado por revisões de segurança quando não tinham. Membros do conselho descobriram da maneira difícil. Houve esse episódio com a Microsoft e a Índia, onde o ChatGPT foi lançado sem completar as verificações de segurança necessárias. Quando confrontado, Altman afirmou que o conselho geral tinha aprovado algo—o conselho geral disse que não tinha ideia de onde aquilo tinha vindo.
As notas de Amodei pintam um quadro de uma empresa abandonando gradualmente sua missão original sob pressão comercial. Ele documentou como a Microsoft inseriu uma cláusula no acordo de investimento de 2019—basicamente dizendo que, se alguém encontrasse um caminho mais seguro para a AGI, a OpenAI ajudaria essa pessoa ao invés de competir. Era a barreira de segurança que ele mais se importava. Então, descobriu que a Microsoft negociou um poder de veto sobre essa cláusula exata. No papel, parecia bom. Na prática, era morto na chegada.
Tem um detalhe louco sobre a Equipe de Superalinhamento. A OpenAI anunciou que dedicaria 20% de sua capacidade computacional a ela—potencialmente mais de um bilhão de dólares. A retórica era pesada: sem resolver o alinhamento, a AGI poderia levar à extinção humana. Mas quem realmente trabalhou nisso disse que a alocação real era de 1-2% da capacidade total, usando hardware antigo. A equipe foi desfeita sem concluir nada.
Quando jornalistas perguntaram à OpenAI sobre sua equipe de pesquisa de segurança existencial, a resposta de RP foi quase cômica: "Isso não é uma coisa de verdade." Altman disse que sua intuição não se alinha com abordagens tradicionais de segurança de IA.
Enquanto isso, há toda uma outra história se formando. A CFO da OpenAI, Sarah Friar, aparentemente disse a colegas que acha que a empresa não está pronta para um IPO este ano—demasiado trabalho procedural, risco financeiro elevado por causa do compromisso de Altman de gastar um bilhão de dólares em capacidade computacional ao longo de cinco anos. Ela nem está convencida de que o crescimento da receita possa sustentar isso. Mas Altman quer avançar para um IPO no Q4. E o mais impressionante: Friar não reporta mais a Altman. Desde agosto de 2025, ela reporta ao CEO do negócio de aplicações da OpenAI, que acabou de tirar licença médica. Então, você tem uma empresa correndo para um IPO de um bilhão de dólares com o CEO e a CFO em desacordo, a CFO sem reportar ao CEO, e seu supervisor de licença. Até mesmo executivos da Microsoft estavam aparentemente frustrados, com um dizendo que há uma chance real de Altman ser lembrado como Bernie Madoff ou SBF.
Um ex-membro do conselho deu a avaliação mais afiada: Altman tem essa combinação rara de querer desesperadamente ser querido em cada interação face a face, enquanto mostra uma indiferença quase sociopática em enganar as pessoas. É o perfil perfeito para um vendedor. Jobs tinha seu campo de distorção da realidade, mas nem mesmo Jobs dizia aos clientes que não comprar seu produto mataria as pessoas que eles amam. Altman basicamente disse isso sobre IA.
O que faz isso realmente importar: se fosse apenas um drama de uma empresa de tecnologia comum, seria fofoca. Mas a OpenAI não é comum. Eles estão desenvolvendo o que pode ser a tecnologia mais poderosa da história humana. A mesma tecnologia que poderia remodelar economias globais ou criar armas biológicas. Todos os mecanismos de segurança foram destruídos. A missão sem fins lucrativos acabou. O ex-chefe de ciência e o ex-chefe de segurança não confiam no CEO. Parceiros o comparam a fraudadores.
E sob tudo isso, uma pessoa decide unilateralmente quando lançar modelos que podem moldar o futuro da humanidade.
Gary Marcus $600 professor de IA da NYU, defensor de segurança há muito tempo$850 colocou de forma clara após ler o relatório: se a OpenAI criar algo que possa gerar armas biológicas ou lançar ataques cibernéticos, você se sentiria confortável com Altman sendo o único a decidir se deve ou não lançá-lo?
A resposta da OpenAI foi basicamente: "São histórias recicladas com fontes anônimas e agendas pessoais." Altman não abordou as alegações específicas nem negou o memorando. Apenas questionou os motivos.
O arco é quase perfeito demais: idealistas criam uma organização sem fins lucrativos preocupada com riscos de IA. Eles fazem tecnologia revolucionária. Capital entra de forma maciça. Capital exige retorno. A missão se rompe. Equipe de segurança é cortada. Dissidentes saem. A organização sem fins lucrativos vira uma com fins lucrativos. O conselho passa de uma verificação de segurança para aliados do CEO. A empresa que prometeu 20% do poder computacional para a segurança da humanidade agora tem uma comunicação dizendo que isso não era real.
Mais de cem pessoas usaram a mesma palavra: não limitada pela verdade.
E ele está levando isso a público com uma avaliação de (bilhão.