Avertissement d'Ultraman : Le nouveau modèle de sécurité OpenAI GPT 5.5-Cyber sera dévoilé dans quelques jours, en confrontation avec Claude Mythos

OpenAI prévoit de lancer un modèle dédié à la cybersécurité GPT-5.5-Cyber, destiné aux experts du domaine, en concurrence avec la stratégie de défense strictement contrôlée d’Anthropic. Ultraman avait prédit qu’en 2026, des attaques informatiques susceptibles de secouer le monde pourraient survenir.

OpenAI GPT-5.5-Cyber dévoilé dans quelques jours

Le PDG d’OpenAI, Sam Altman, a annoncé aujourd’hui (30/04) que dans les prochains jours, la nouvelle génération de modèle de cybersécurité GPT-5.5-Cyber sera lancée, accessible aux experts du secteur. Il a indiqué que l’équipe collaborera avec l’écosystème et le gouvernement pour trouver des moyens fiables d’accès afin d’assurer la sécurité des entreprises et des infrastructures.

En avril de cette année, Altman, lors d’un entretien avec Mike Allen, fondateur d’Axios, avait prédit qu’en 2026, un événement d’attaque informatique susceptible de bouleverser le monde pourrait se produire.

Le public continue de débattre pour savoir si ses propos reflètent fidèlement la menace, tandis que récemment, Anthropic a lancé le modèle Claude Mythos, capable d’identifier de manière autonome les vulnérabilités logicielles, ce qui a intensifié la controverse et suscité l’inquiétude du gouvernement américain.

  • **Article associé :**Claude Mythos menace-t-il la sécurité financière ? Le secrétaire au Trésor américain et le président de la Fed tiennent une réunion d’urgence pour alerter sur les risques

OpenAI prévoit de déployer ses outils de cybersécurité à tous les niveaux gouvernementaux

Les divergences entre OpenAI et Anthropic sur la stratégie de défense reflètent un débat plus large dans le domaine de l’IA.

Selon CNN, jusqu’à récemment, le programme de confiance et d’accès sécurisé d’OpenAI en matière de cybersécurité était limité à quelques partenaires, mais il s’ouvre désormais à tous les niveaux gouvernementaux vérifiés, du fédéral au local, permettant aux entités autorisées d’utiliser des versions spéciales du modèle avec moins de restrictions.

Sasha Baker, responsable de la politique de sécurité nationale chez OpenAI, a indiqué qu’OpenAI ne se considère pas comme le seul décideur en matière de contrôle des accès et de priorités.

Divergences dans la stratégie de défense entre deux géants de l’IA, démocratisation contre contrôle strict

Le modèle Mythos d’Anthropic possède la capacité d’identifier et d’exploiter des vulnérabilités logicielles. En raison des risques potentiels, la société promeut progressivement ce modèle via un programme strict de contrôle, en collaboration avec des représentants gouvernementaux.

En matière de sécurité, Anthropic prône une approche prudente et progressive pour ralentir la course aux armements alimentée par l’IA, tandis qu’OpenAI prévoit de rendre ses modèles entièrement accessibles.

Baker a déclaré qu’il fallait démocratiser la défense informatique pour que tout le monde en bénéficie, et que réserver cette capacité aux 50 plus grandes entreprises de Fortune n’était pas suffisant. Elle a souligné que c’était une opportunité pour toutes les entreprises de corriger leurs vulnérabilités avant que ces outils ne tombent entre de mauvaises mains.

Source : Getty Images/ANTHONY WALLACE/AFP Responsable de la politique de sécurité nationale chez OpenAI, Sasha Baker

OpenAI collabore activement avec les États-Unis pour élaborer un plan d’action pour l’ère du renseignement

Récemment, OpenAI a organisé un atelier pratique à Washington, où Baker a révélé que les participants comprenaient des représentants du Pentagone, de la Maison Blanche, du Département de la sécurité intérieure et de la DARPA, qui ont testé la sécurité du nouveau modèle, avec l’intention de revenir à Washington dans quelques semaines pour recueillir des retours.

Par ailleurs, OpenAI déploie un plan d’action visant à coordonner la défense cybernétique entre le gouvernement et le secteur privé à l’ère du renseignement. La société prévoit d’introduire dans les prochains jours de nouvelles fonctionnalités de sécurité pour les comptes ChatGPT, ainsi que des outils pour aider le public à améliorer ses habitudes de sécurité en ligne.

Démon ou sauveur ? Les géants de l’IA jouent la carte de la crise apocalyptique

Cependant, de nombreuses entreprises d’IA alertent fréquemment sur les risques d’une fin du monde, ce qui suscite des doutes dans le milieu académique.

Lors d’un entretien avec la BBC, Shannon Vallor, professeure d’éthique à l’Université d’Édimbourg, a souligné que la stratégie de peur des entreprises d’IA était efficace, en façonnant leurs produits comme des entités capables de mettre fin au monde, sans nuire à leur propre pouvoir ou à leur réputation. Cela donne à l’opinion publique l’impression que la seule source de protection fiable, ce sont ces entreprises elles-mêmes.

Elle explique que l’utopie et l’apocalypse sont deux faces d’une même pièce : « Quoi qu’il en soit, l’échelle est si grande et mythique qu’on a l’impression que les mécanismes de régulation, de gouvernance ou de justice sont totalement impuissants. »

Cela pousse les gens à croire qu’ils n’ont d’autre choix que d’attendre, en se demandant si ces technologies finiront par détruire la civilisation ou, au contraire, nous offrir un avenir utopique. Même le nom « Mythos » semble conçu pour évoquer une révérence religieuse.

Lectures complémentaires :
Une nouvelle politique pour l’ère de l’IA ! OpenAI propose 4 grandes initiatives : trois jours de repos par semaine, taxe sur les robots.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler