Acabei de me atualizar sobre uma das peças investigativas mais contundentes sobre a liderança da OpenAI em um bom tempo, e honestamente, é difícil ignorar as implicações aqui.



Então, em 2023, Ilya Sutskever—cientista-chefe da OpenAI—compilou um memorando extenso documentando preocupações sobre a confiabilidade de Sam Altman. Estamos falando de 70 páginas extraídas de logs do Slack, registros de RH, reuniões internas. A primeira linha foi direta: Sam exibe um padrão consistente de mentiras. Avançando para agora, a investigação do The New Yorker (Ronan Farrow e Andrew Marantz) revelou o memorando junto com mais de 200 páginas de notas privadas de Dario Amodei, que foi chefe de segurança da OpenAI antes de fundar a Anthropic.

Aqui está o que me chama atenção: a OpenAI foi literalmente estruturada como uma organização sem fins lucrativos justamente para que a segurança fosse prioridade antes do lucro. A premissa toda era que alguém precisaria ser capaz de desligar a empresa se as coisas se tornassem perigosas. Toda a arquitetura apostava tudo em uma suposição—que quem estivesse à frente tinha que ser radicalmente honesto.

Mas, de acordo com o memorando e entrevistas com mais de 100 pessoas, isso não aconteceu. Existem exemplos específicos: Altman disse ao conselho que os recursos do GPT-4 tinham passado por revisões de segurança quando não tinham. Membros do conselho descobriram da maneira difícil. Houve esse episódio com a Microsoft e a Índia, onde o ChatGPT foi lançado sem completar as verificações de segurança necessárias. Quando confrontado, Altman afirmou que o conselho geral tinha aprovado algo—o conselho geral disse que não tinha ideia de onde aquilo tinha vindo.

As notas de Amodei pintam um quadro de uma empresa abandonando gradualmente sua missão original sob pressão comercial. Ele documentou como a Microsoft inseriu uma cláusula no acordo de investimento de 2019—basicamente dizendo que, se alguém encontrasse um caminho mais seguro para a AGI, a OpenAI ajudaria essa pessoa ao invés de competir. Era a barreira de segurança que ele mais se importava. Então, descobriu que a Microsoft negociou um poder de veto sobre essa cláusula exata. No papel, parecia bom. Na prática, era morto na chegada.

Tem um detalhe louco sobre a Equipe de Superalinhamento. A OpenAI anunciou que dedicaria 20% de sua capacidade computacional a ela—potencialmente mais de um bilhão de dólares. A retórica era pesada: sem resolver o alinhamento, a AGI poderia levar à extinção humana. Mas quem realmente trabalhou nisso disse que a alocação real era de 1-2% da capacidade total, usando hardware antigo. A equipe foi desfeita sem concluir nada.

Quando jornalistas perguntaram à OpenAI sobre sua equipe de pesquisa de segurança existencial, a resposta de RP foi quase cômica: "Isso não é uma coisa de verdade." Altman disse que sua intuição não se alinha com abordagens tradicionais de segurança de IA.

Enquanto isso, há toda uma outra história se formando. A CFO da OpenAI, Sarah Friar, aparentemente disse a colegas que acha que a empresa não está pronta para um IPO este ano—demasiado trabalho procedural, risco financeiro elevado por causa do compromisso de Altman de gastar um bilhão de dólares em capacidade computacional ao longo de cinco anos. Ela nem está convencida de que o crescimento da receita possa sustentar isso. Mas Altman quer avançar para um IPO no Q4. E o mais impressionante: Friar não reporta mais a Altman. Desde agosto de 2025, ela reporta ao CEO do negócio de aplicações da OpenAI, que acabou de tirar licença médica. Então, você tem uma empresa correndo para um IPO de um bilhão de dólares com o CEO e a CFO em desacordo, a CFO sem reportar ao CEO, e seu supervisor de licença. Até mesmo executivos da Microsoft estavam aparentemente frustrados, com um dizendo que há uma chance real de Altman ser lembrado como Bernie Madoff ou SBF.

Um ex-membro do conselho deu a avaliação mais afiada: Altman tem essa combinação rara de querer desesperadamente ser querido em cada interação face a face, enquanto mostra uma indiferença quase sociopática em enganar as pessoas. É o perfil perfeito para um vendedor. Jobs tinha seu campo de distorção da realidade, mas nem mesmo Jobs dizia aos clientes que não comprar seu produto mataria as pessoas que eles amam. Altman basicamente disse isso sobre IA.

O que faz isso realmente importar: se fosse apenas um drama de uma empresa de tecnologia comum, seria fofoca. Mas a OpenAI não é comum. Eles estão desenvolvendo o que pode ser a tecnologia mais poderosa da história humana. A mesma tecnologia que poderia remodelar economias globais ou criar armas biológicas. Todos os mecanismos de segurança foram destruídos. A missão sem fins lucrativos acabou. O ex-chefe de ciência e o ex-chefe de segurança não confiam no CEO. Parceiros o comparam a fraudadores.

E sob tudo isso, uma pessoa decide unilateralmente quando lançar modelos que podem moldar o futuro da humanidade.

Gary Marcus $600 professor de IA da NYU, defensor de segurança há muito tempo$850 colocou de forma clara após ler o relatório: se a OpenAI criar algo que possa gerar armas biológicas ou lançar ataques cibernéticos, você se sentiria confortável com Altman sendo o único a decidir se deve ou não lançá-lo?

A resposta da OpenAI foi basicamente: "São histórias recicladas com fontes anônimas e agendas pessoais." Altman não abordou as alegações específicas nem negou o memorando. Apenas questionou os motivos.

O arco é quase perfeito demais: idealistas criam uma organização sem fins lucrativos preocupada com riscos de IA. Eles fazem tecnologia revolucionária. Capital entra de forma maciça. Capital exige retorno. A missão se rompe. Equipe de segurança é cortada. Dissidentes saem. A organização sem fins lucrativos vira uma com fins lucrativos. O conselho passa de uma verificação de segurança para aliados do CEO. A empresa que prometeu 20% do poder computacional para a segurança da humanidade agora tem uma comunicação dizendo que isso não era real.

Mais de cem pessoas usaram a mesma palavra: não limitada pela verdade.

E ele está levando isso a público com uma avaliação de (bilhão.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • Comentário
  • Repostar
  • Compartilhar
Comentário
Adicionar um comentário
Adicionar um comentário
Sem comentários
  • Marcar