Je viens de lire une enquête publiée hier dans The New Yorker qui a choqué beaucoup de gens. Ronan Farrow et Andrew Marantz ont interviewé plus de 100 personnes, obtenu des mémorandums internes jamais divulgués et même plus de 200 pages de notes personnelles de Dario Amodei (fondateur d'Anthropic, qui a quitté OpenAI). Le résultat est essentiellement une bombe.



Tout commence avec un document de 70 pages que Ilya Sutskever, le scientifique en chef d'OpenAI, a compilé à l'automne 2023. Il a rassemblé des messages Slack, des communications avec les RH, des comptes rendus de réunions. Objectif ? Répondre à une question simple : Sam Altman, qui contrôle possiblement la technologie la plus dangereuse de l'histoire, peut-il être digne de confiance ? La réponse de Sutskever dès la première ligne : Sam montre un schéma cohérent de... mensonges.

Les exemples sont très précis. En décembre 2022, Altman a assuré au conseil que les fonctionnalités de GPT-4 avaient déjà passé une revue de sécurité. Lorsqu'ils ont demandé les documents d'approbation, ils ont découvert que deux des plus controversés (ajustement personnalisé et déploiement d'assistant personnel) n'avaient jamais été approuvés. Ensuite, il y a eu le cas de l'Inde, où Microsoft a lancé ChatGPT avant la fin des revues de sécurité. Sutskever a aussi noté qu'Altman aurait dit à la CTO Mira Murati que le processus de sécurité n'était pas si important parce que le conseiller juridique avait déjà approuvé. Quand Murati a vérifié avec le conseiller juridique ? Il a répondu : "Je n'ai aucune idée d'où Sam a tiré ça".

Mais ce qui est encore plus glaçant, c'est l'équipe de "superalignement". Mi-2023, Altman a contacté un étudiant de Berkeley travaillant sur l'alignement de l'IA, très préoccupé par le problème, parlant d'un prix de recherche d'un milliard de dollars. Le gars a quitté l'université, rejoint OpenAI. Puis Altman change d'avis : il crée une équipe interne au lieu de faire des prix, et annonce publiquement qu'il va consacrer 20 % de la capacité de calcul de l'entreprise (potentiel de plus d'un milliard). Un langage extrêmement sérieux, parlant d'"extinction humaine" si l'alignement n'était pas résolu.

En réalité ? Quatre personnes qui y ont travaillé disent que seulement 1-2 % de la capacité totale ont été alloués, avec du matériel ancien. L'équipe a été démantelée sans rien finir. Quand des journalistes ont demandé à interviewer les responsables de la recherche sur la "sécurité existentielle", la réponse du service de presse a été : "Ce n'est pas vraiment quelque chose qui existe".

Et il y a encore plus. Sarah Friar, la directrice financière d'OpenAI, a sérieusement contesté Altman concernant l'IPO. Elle pense que ce n'est pas encore prêt — beaucoup de bureaucratie en suspens et le risque que la promesse d'Altman de dépenser 600 milliards en capacité de calcul est trop élevé. Mais Altman veut accélérer pour le Q4 de cette année. L'absurde ? Friar ne rend plus compte directement à Altman. Depuis août 2025, elle rapporte à Fidji Simo, PDG des applications. Et Simo est en congé médical depuis la semaine dernière.

Un ancien membre du conseil a décrit Altman ainsi : il a un désir extrême de plaire en face à face, mais en même temps une indifférence presque sociopathique aux conséquences de mentir. Rare cette combinaison. Mais pour un vendeur ? C'est le don parfait. Même des cadres de Microsoft n'en peuvent plus, disant qu'Altman "a déformé les faits, brisé des promesses et constamment révoqué des accords". L'un d'eux a même comparé cela à Bernie Madoff ou SBF.

Mais pourquoi cela est-il si important ? Parce qu'OpenAI n'est pas une entreprise technologique ordinaire. Elle développe une technologie capable de restructurer l'économie mondiale, de créer des armes biochimiques à grande échelle ou de lancer des attaques cybernétiques. Tous les mécanismes de sécurité sont désormais essentiellement formels. La mission à but non lucratif est devenue une course vers l'IPO. L'ancien scientifique en chef considère Altman comme peu fiable. La personne responsable de la sécurité a quitté et a fondé Anthropic en raison de divergences fondamentales sur la façon dont l'IA devrait être développée.

Gary Marcus, professeur d'IA à NYU, a écrit par la suite : si un futur modèle d'OpenAI parvient à créer des armes biochimiques ou des attaques cybernétiques catastrophiques, vous vous sentez vraiment en sécurité en laissant Altman décider seul de la libération ou non ?

La réponse d'OpenAI ? Elle a essentiellement ignoré les accusations spécifiques, n'a pas nié les mémorandums, a seulement questionné les motifs des sources. Altman n'a pas répondu directement.

Dix ans d'OpenAI en un paragraphe : un groupe d'idéalistes crée une ONG préoccupée par les risques de l'IA, réalise des avancées remarquables, attire un capital massif, ce capital exige un retour, la mission cède du terrain, l'équipe de sécurité est démantelée, des dissidents sont expulsés, la structure sans but lucratif devient une entité lucrative, le conseil qui pouvait fermer l'entreprise est maintenant rempli d'alliés du PDG. Plus de cent témoins ont utilisé la même étiquette pour le protagoniste : "n'est pas limité par la vérité". Et maintenant, elle se prépare pour l'IPO avec une valorisation supérieure à 850 milliards.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler