Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Pre-IPOs
Accédez à l'intégralité des introductions en bourse mondiales
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Promotions
Centre d'activités
Participez et gagnez des récompenses
Parrainage
20 USDT
Invitez des amis et gagnez des récompenses
Programme d'affiliation
Obtenez des commissions exclusives
Gate Booster
Développez votre influence et gagnez des airdrops
Annoncement
Mises à jour en temps réel
Blog Gate
Articles sur le secteur de la crypto
AI
Gate AI
Votre assistant IA polyvalent pour toutes vos conversations
Gate AI Bot
Utilisez Gate AI directement dans votre application sociale
GateClaw
Gate Blue Lobster, prêt à l’emploi
Gate for AI Agent
Infrastructure IA, Gate MCP, Skills et CLI
Gate Skills Hub
+10K compétences
De la bureautique au trading, une bibliothèque de compétences tout-en-un pour exploiter pleinement l’IA
GateRouter
Choisissez intelligemment parmi plus de 30 modèles d’IA, avec 0 % de frais supplémentaires
Je viens de lire une enquête publiée hier dans The New Yorker qui a choqué beaucoup de gens. Ronan Farrow et Andrew Marantz ont interviewé plus de 100 personnes, obtenu des mémorandums internes jamais divulgués et même plus de 200 pages de notes personnelles de Dario Amodei (fondateur d'Anthropic, qui a quitté OpenAI). Le résultat est essentiellement une bombe.
Tout commence avec un document de 70 pages que Ilya Sutskever, le scientifique en chef d'OpenAI, a compilé à l'automne 2023. Il a rassemblé des messages Slack, des communications avec les RH, des comptes rendus de réunions. Objectif ? Répondre à une question simple : Sam Altman, qui contrôle possiblement la technologie la plus dangereuse de l'histoire, peut-il être digne de confiance ? La réponse de Sutskever dès la première ligne : Sam montre un schéma cohérent de... mensonges.
Les exemples sont très précis. En décembre 2022, Altman a assuré au conseil que les fonctionnalités de GPT-4 avaient déjà passé une revue de sécurité. Lorsqu'ils ont demandé les documents d'approbation, ils ont découvert que deux des plus controversés (ajustement personnalisé et déploiement d'assistant personnel) n'avaient jamais été approuvés. Ensuite, il y a eu le cas de l'Inde, où Microsoft a lancé ChatGPT avant la fin des revues de sécurité. Sutskever a aussi noté qu'Altman aurait dit à la CTO Mira Murati que le processus de sécurité n'était pas si important parce que le conseiller juridique avait déjà approuvé. Quand Murati a vérifié avec le conseiller juridique ? Il a répondu : "Je n'ai aucune idée d'où Sam a tiré ça".
Mais ce qui est encore plus glaçant, c'est l'équipe de "superalignement". Mi-2023, Altman a contacté un étudiant de Berkeley travaillant sur l'alignement de l'IA, très préoccupé par le problème, parlant d'un prix de recherche d'un milliard de dollars. Le gars a quitté l'université, rejoint OpenAI. Puis Altman change d'avis : il crée une équipe interne au lieu de faire des prix, et annonce publiquement qu'il va consacrer 20 % de la capacité de calcul de l'entreprise (potentiel de plus d'un milliard). Un langage extrêmement sérieux, parlant d'"extinction humaine" si l'alignement n'était pas résolu.
En réalité ? Quatre personnes qui y ont travaillé disent que seulement 1-2 % de la capacité totale ont été alloués, avec du matériel ancien. L'équipe a été démantelée sans rien finir. Quand des journalistes ont demandé à interviewer les responsables de la recherche sur la "sécurité existentielle", la réponse du service de presse a été : "Ce n'est pas vraiment quelque chose qui existe".
Et il y a encore plus. Sarah Friar, la directrice financière d'OpenAI, a sérieusement contesté Altman concernant l'IPO. Elle pense que ce n'est pas encore prêt — beaucoup de bureaucratie en suspens et le risque que la promesse d'Altman de dépenser 600 milliards en capacité de calcul est trop élevé. Mais Altman veut accélérer pour le Q4 de cette année. L'absurde ? Friar ne rend plus compte directement à Altman. Depuis août 2025, elle rapporte à Fidji Simo, PDG des applications. Et Simo est en congé médical depuis la semaine dernière.
Un ancien membre du conseil a décrit Altman ainsi : il a un désir extrême de plaire en face à face, mais en même temps une indifférence presque sociopathique aux conséquences de mentir. Rare cette combinaison. Mais pour un vendeur ? C'est le don parfait. Même des cadres de Microsoft n'en peuvent plus, disant qu'Altman "a déformé les faits, brisé des promesses et constamment révoqué des accords". L'un d'eux a même comparé cela à Bernie Madoff ou SBF.
Mais pourquoi cela est-il si important ? Parce qu'OpenAI n'est pas une entreprise technologique ordinaire. Elle développe une technologie capable de restructurer l'économie mondiale, de créer des armes biochimiques à grande échelle ou de lancer des attaques cybernétiques. Tous les mécanismes de sécurité sont désormais essentiellement formels. La mission à but non lucratif est devenue une course vers l'IPO. L'ancien scientifique en chef considère Altman comme peu fiable. La personne responsable de la sécurité a quitté et a fondé Anthropic en raison de divergences fondamentales sur la façon dont l'IA devrait être développée.
Gary Marcus, professeur d'IA à NYU, a écrit par la suite : si un futur modèle d'OpenAI parvient à créer des armes biochimiques ou des attaques cybernétiques catastrophiques, vous vous sentez vraiment en sécurité en laissant Altman décider seul de la libération ou non ?
La réponse d'OpenAI ? Elle a essentiellement ignoré les accusations spécifiques, n'a pas nié les mémorandums, a seulement questionné les motifs des sources. Altman n'a pas répondu directement.
Dix ans d'OpenAI en un paragraphe : un groupe d'idéalistes crée une ONG préoccupée par les risques de l'IA, réalise des avancées remarquables, attire un capital massif, ce capital exige un retour, la mission cède du terrain, l'équipe de sécurité est démantelée, des dissidents sont expulsés, la structure sans but lucratif devient une entité lucrative, le conseil qui pouvait fermer l'entreprise est maintenant rempli d'alliés du PDG. Plus de cent témoins ont utilisé la même étiquette pour le protagoniste : "n'est pas limité par la vérité". Et maintenant, elle se prépare pour l'IPO avec une valorisation supérieure à 850 milliards.