Futures
Accédez à des centaines de contrats perpétuels
TradFi
Or
Une plateforme pour les actifs mondiaux
Options
Hot
Tradez des options classiques de style européen
Compte unifié
Maximiser l'efficacité de votre capital
Trading démo
Introduction au trading futures
Préparez-vous à trader des contrats futurs
Événements futures
Participez aux événements et gagnez
Demo Trading
Utiliser des fonds virtuels pour faire l'expérience du trading sans risque
Lancer
CandyDrop
Collecte des candies pour obtenir des airdrops
Launchpool
Staking rapide, Gagnez de potentiels nouveaux jetons
HODLer Airdrop
Conservez des GT et recevez d'énormes airdrops gratuitement
Launchpad
Soyez les premiers à participer au prochain grand projet de jetons
Points Alpha
Tradez on-chain et gagnez des airdrops
Points Futures
Gagnez des points Futures et réclamez vos récompenses d’airdrop.
Investissement
Simple Earn
Gagner des intérêts avec des jetons inutilisés
Investissement automatique
Auto-invest régulier
Double investissement
Profitez de la volatilité du marché
Staking souple
Gagnez des récompenses grâce au staking flexible
Prêt Crypto
0 Fees
Mettre en gage un crypto pour en emprunter une autre
Centre de prêts
Centre de prêts intégré
Les actifs conformes à l'IA, Quantum est en train de « réévaluer »
Rédigé par : Zhang Feng
À l’heure actuelle, l’intelligence artificielle s’est intégrée à un niveau sans précédent à la production et à la vie sociales. Sa sécurité et son système de gouvernance constituent les fondations de l’ère numérique. Cependant, une révolution de la puissance de calcul fondée sur les principes de la physique — l’informatique quantique — s’approche discrètement. Sa puissance potentiellement perturbatrice soumet les dispositifs de sécurité existants et les cadres de gouvernance à un interrogatoire sévère. L’informatique quantique va-t-elle renverser les systèmes de sécurité et de gouvernance de l’IA existants ? Ce n’est pas seulement un problème technique, c’est un défi global qui touche à l’ordre futur de la société numérique. Lorsque des bonds de puissance de calcul se heurtent à un décalage des règles, comment préparer dès maintenant le « Q-Day » ?
I. Comment l’informatique quantique menace-t-elle les algorithmes de chiffrement asymétriques largement utilisés actuellement ?
La sécurité des systèmes d’IA actuels dépend fortement, de la transmission du modèle au stockage des données, jusqu’à l’authentification d’identité, des algorithmes de chiffrement asymétriques, représentés notamment par RSA et ECC (chiffrement à courbes elliptiques). La sécurité de ces algorithmes repose sur la « complexité de calcul » de problèmes mathématiques difficiles, tels que la « factorisation de grands entiers » ou le « logarithme discret », qui sont insolubles pour les ordinateurs classiques dans un délai acceptable.
Cependant, l’informatique quantique entraîne un changement de paradigme fondamental. Les algorithmes quantiques, représentés par l’algorithme de Shor, peuvent en théorie faire passer le temps de résolution de ces problèmes d’un ordre exponentiel à un ordre polynomial. Une étude critique a souligné que, parmi les derniers algorithmes quantiques, y compris l’algorithme de Regev et ses extensions, l’efficacité de rupture du chiffrement asymétrique est continuellement optimisée. Cela signifie qu’une fois qu’un ordinateur quantique universel de taille suffisante (généralement des millions de qubits stables) verra le jour, les « verrous » protégeant actuellement la communication Internet, les signatures numériques et les données chiffrées pourraient être ouverts instantanément.
Cette menace n’est pas lointaine. Les recherches de la communauté ZhiYuan avertissent qu’il s’agit d’une menace « en cours » : les attaquants peuvent dès maintenant intercepter et stocker des données de communication chiffrées (y compris les données d’entraînement de l’IA, les paramètres de modèle, etc.), puis attendre que les ordinateurs quantiques deviennent matures pour les déchiffrer. Cette stratégie « intercepter d’abord, déchiffrer ensuite » fait que toutes les informations de grande valeur devant rester secrètes sur le long terme, y compris les secrets d’État, les brevets commerciaux et les données de confidentialité personnelles, se retrouvent exposées à un risque futur. Par conséquent, la menace de l’informatique quantique contre le chiffrement asymétrique est à la fois fondamentale et systémique : elle ébranle directement les fondations du système de sécurité actuel de l’IA, voire de l’ensemble du monde numérique.
II. Face à l’informatique quantique, quels nouveaux défis la formation des modèles d’IA et la protection de la confidentialité des données doivent-ils relever ?
Le développement de l’IA repose sur l’alimentation de quantités massives de données et l’entraînement de modèles complexes. Ce processus même est déjà semé d’embûches en matière de confidentialité et de sécurité. L’intervention de l’informatique quantique rend ces défis encore plus aigus et plus complexes.
Tout d’abord, l’exigence de confidentialité durable du cycle de vie des données échoue. Comme indiqué ci-dessus, les ensembles de données d’entraînement de l’IA chiffrés stockés dans le cloud ou pendant la transmission peuvent être totalement exposés à cause du déchiffrement quantique futur. Le livre blanc de la stratégie mondiale de migration anti-quantique de l’Université Xi’an Jiaotong-Liverpool indique clairement que, à l’échelle mondiale, les adversaires mettent en œuvre de manière organisée cette stratégie de « récolte de données », en attendant patiemment l’arrivée du « Q-Day » (le jour de la mise en pratique des ordinateurs quantiques). Cela constitue une menace à la source pour les modèles d’IA qui dépendent de données sensibles (telles que dossiers médicaux, informations financières, données biométriques).
Ensuite, les technologies de calcul de la confidentialité comme l’apprentissage fédéré font face à de nouvelles épreuves. L’apprentissage fédéré protège les données brutes en entraînant le modèle localement et en n’échangeant que des mises à jour des paramètres du modèle. Toutefois, les informations d’échange — qu’il s’agisse des gradients ou des mises à jour de paramètres — sont elles-mêmes transmises de manière chiffrée. Si le chiffrement sous-jacent est cassé par l’informatique quantique, les attaquants peuvent en déduire en retour des caractéristiques des données d’origine des parties impliquées, rendant la protection de la confidentialité quasiment inutile.
Enfin, le vol de modèles et la protection de la propriété intellectuelle deviennent beaucoup plus difficiles. Les modèles d’IA entraînés et arrivés à maturité constituent l’actif central des entreprises. Actuellement, les poids et l’architecture des modèles sont généralement distribués et déployés via des méthodes de chiffrement. L’informatique quantique pourrait rendre ces mesures inefficaces, entraînant une copie facile des modèles, de l’ingénierie inverse ou des altérations, ce qui provoquera de graves atteintes à la propriété intellectuelle et des failles de sécurité. Dans son « Blue Book sur la gouvernance de l’intelligence artificielle », l’Institut de recherche sur les communications et l’information de Chine souligne que la gouvernance de l’intelligence artificielle doit prendre en compte des risques tels que l’utilisation abusive des technologies et la sécurité des données ; et l’informatique quantique amplifie sans aucun doute la capacité de nuisance de ces risques.
III. Comment le développement de l’apprentissage automatique quantique va-t-il influencer les cadres de sécurité de l’IA et d’examen éthique ?
La combinaison de l’informatique quantique et de l’IA — l’apprentissage automatique quantique (QML) — annonce une nouvelle percée d’efficacité. Mais en même temps, elle apporte aussi des problèmes de sécurité et d’éthique sans précédent, venant heurter les cadres d’examen existants.
Sur le plan de la sécurité, le QML pourrait engendrer des outils d’attaque plus puissants. Par exemple, des algorithmes quantiques pourraient accélérer considérablement la génération d’échantillons adverses, créant des attaques plus discrètes et plus destructrices, rendant ainsi rapidement obsolètes les systèmes de défense à base de calcul classique de l’IA (tels que l’entraînement contradictoire, la détection d’anomalies). Des analyses qualifient le « quantique + IA » comme le prochain champ de bataille ultime pour la cybersécurité et indiquent qu’il faut compléter, de manière prospective, les cadres de réglementation concernés.
Sur le plan éthique, la caractéristique de « boîte noire » du QML pourrait être encore plus insondable que celle de l’IA classique. Son processus décisionnel repose sur la superposition quantique et les états intriqués, ce qui pourrait le rendre plus difficile à expliquer, à auditer et à rendre responsable. Les débats et risques éthiques apportés par le QML, notamment concernant l’équité algorithmique, la définition des responsabilités et la maîtrise technique, ont déjà fait l’objet de nombreuses discussions. Comment concrétiser, à l’échelle quantique, les principes éthiques existants de l’IA (tels que la transparence, l’équité et la responsabilisation) ? Comment les autorités de régulation peuvent-elles auditer un modèle décisionnel basé sur des circuits quantiques, susceptible de se trouver dans plusieurs états superposés ? Ce sont là des questions auxquelles les cadres actuels d’examen éthique ne sont pas encore préparés. Les modes de gouvernance doivent passer d’une simple conformité technique à une compréhension plus profonde de la nature des caractéristiques quantiques et de leurs impacts sociaux.
IV. Les réglementations actuelles de gouvernance de l’IA (par exemple le GDPR) peuvent-elles faire face aux changements de sécurité induits par l’informatique quantique ?
Les réglementations de gouvernance actuelles de l’IA et des données, représentées par le Règlement général sur la protection des données de l’Union européenne (GDPR), conservent, au niveau des principes, une valeur directrice : par exemple « protection dès la conception et protection par défaut », « minimisation des données », « limitation de la conservation » ainsi que « intégrité et confidentialité ». Toutefois, au niveau des mises en œuvre techniques spécifiques et des exigences de conformité, elles se heurtent à un « fossé de conformité » provoqué par l’informatique quantique.
Le GDPR exige des responsables du traitement des données qu’ils prennent des mesures techniques et organisationnelles appropriées pour assurer la sécurité des données. Mais dans le contexte des menaces quantiques, quelles sont les mesures de chiffrement « appropriées » ? Continuer à utiliser des algorithmes qui se sont révélés non sûrs vis-à-vis du quantique pourrait, à l’avenir, être reconnu comme un manquement aux obligations de sécurité. Quant aux exigences de délai prévues dans la réglementation concernant la notification en cas de fuite de données, comment les exécuter efficacement face à des attaques avancées capables d’exploiter l’informatique quantique et pouvant être achevées en un instant, sans laisser de traces ?
À l’échelle mondiale, les législateurs ont déjà pris conscience de la nécessité de changements. Le « Rapport annuel mondial 2025 sur la gouvernance de l’intelligence artificielle » montre que les pays accélèrent l’élaboration de lois spécifiques sur la gouvernance de l’IA, en créant des organismes de coordination de haut niveau. La Chine, dans son « Rapport sur le développement de la Chine numérique (2024) », souligne la nécessité de « accélérer l’amélioration du système de base des données », et de poursuivre les actions « Intelligence artificielle + ». Ces tendances indiquent que le système de gouvernance s’ajuste activement. Mais, à l’heure actuelle, il reste presque un vide en matière de réglementation ciblant spécifiquement le domaine transversal « informatique quantique + IA ». Les réglementations existantes manquent de dispositions concrètes sur le calendrier de migration vers le chiffrement post-quantique, les normes d’audit des modèles de QML, ainsi que la classification du niveau de sécurité des données à l’ère quantique ; il devient donc difficile de répondre efficacement aux changements de sécurité à venir.
V. Quelles sont les perspectives d’application du chiffrement post-quantique dans les systèmes d’IA et les difficultés de mise en œuvre ?
La solution technique la plus directe pour faire face aux menaces quantiques est le chiffrement post-quantique (PQC). Le PQC désigne des algorithmes cryptographiques capables de résister aux attaques d’ordinateurs quantiques ; il ne repose pas sur des principes quantiques, mais sur de nouveaux problèmes mathématiques (tels que les treillis, les codes, les variables multiples, etc.) que l’on croit difficiles à résoudre rapidement même pour des ordinateurs quantiques.
Les perspectives d’application du PQC dans les systèmes d’IA sont à la fois larges et urgentes. Le PQC peut être utilisé pour protéger chaque étape du flux de travail de l’IA : chiffrer les données d’entraînement et les fichiers de modèle avec des algorithmes PQC ; utiliser des signatures numériques PQC pour vérifier l’intégrité et l’authenticité de la source des modèles ; établir des canaux de communication sécurisée PQC entre les nœuds de calcul d’IA distribués. Fortinet indique que le PQC n’est pas une notion lointaine : c’est une solution pratique et urgente pour protéger les systèmes numériques contre les menaces quantiques potentielles.
Cependant, une mise en œuvre complète du PQC comporte des difficultés notables :
Défis de performance et de compatibilité : de nombreux algorithmes PQC présentent des tailles de clés, des longueurs de signature ou des coûts de calcul bien supérieurs à ceux des algorithmes existants. Leur intégration aux processus d’entraînement et d’inférence de l’IA sensibles à l’efficacité de calcul et à la latence pourrait créer des goulots de performance. En outre, il est nécessaire de mettre à niveau l’ensemble du matériel, des logiciels et des piles de protocoles concernés afin d’assurer la compatibilité.
Complexité des normes et de la migration : bien que des organismes comme le NIST américain fassent avancer le processus de standardisation du PQC, la détermination du standard final et l’unification mondiale demandent encore du temps. Les « Tendances du front de la cryptographie commerciale » publiées par la Commission municipale de gestion des réseaux de données de Pékin montrent que l’industrie met activement en open source des implémentations des algorithmes candidats du NIST afin de permettre aux différents secteurs de faire face aux menaces. L’ensemble du processus de migration est un vaste et complexe projet systémique, impliquant l’évaluation des risques, la sélection des algorithmes, le déploiement hybride, les tests et le remplacement intégral ; c’est particulièrement vrai pour des écosystèmes d’IA dont la structure est complexe.
Nouveaux risques de sécurité : les algorithmes PQC sont un domaine de recherche relativement récent ; leur sécurité à long terme n’a pas encore subi des épreuves d’analyse cryptographique en situation réelle sur des dizaines d’années, comme l’a fait RSA. Déployer précipitamment, dans des systèmes d’IA, des algorithmes PQC présentant des vulnérabilités inconnues constitue en soi un risque.
VI. Face à cette transformation, attendre passivement le « Q-Day » est dangereux
L’impact de l’informatique quantique sur la sécurité et la gouvernance de l’IA existantes est réel et imminent. Ce n’est pas une abolition totale du système actuel, mais une rupture de ses fondations cryptographiques, une amplification des risques de données, une complexification de ses questions éthiques et une mise en évidence de son retard réglementaire, forçant ainsi l’ensemble du système à entreprendre une mise à niveau profonde et prospective.
Face à cette transformation, attendre passivement le « Q-Day » est dangereux. Nous recommandons d’adopter les parcours d’actions exécutables suivants :
Lancer une évaluation des risques de sécurité quantique et établir une liste : procéder immédiatement à une évaluation des menaces quantiques sur les actifs clés de l’IA (en particulier les modèles et données impliquant des données sensibles sur le long terme), identifier les maillons les plus vulnérables, et établir une liste de priorités de migration.
Élaborer et mettre en œuvre une feuille de route de migration vers le PQC : suivre les progrès des organismes de normalisation comme le NIST, et commencer à planifier l’intégration du PQC dans le développement et l’exploitation des systèmes d’IA. Prioriser l’adoption d’une conception de « flexibilité de chiffrement » dans les systèmes nouvellement construits et les systèmes critiques afin de faciliter un remplacement transparent futur des algorithmes cryptographiques. Envisager, pour la transition, un mode de chiffrement hybride « classique + PQC » avec celui actuellement en vigueur.
Promouvoir une mise à jour adaptative des cadres de gouvernance : des organisations professionnelles, des organismes de normalisation et des autorités de régulation doivent coopérer pour étudier et intégrer les exigences de résistance au quantique dans les normes de sécurité de l’IA, les réglementations de protection des données et les systèmes de certification des produits. Mettre en place à l’avance des cadres de recherche et des lignes directrices pour l’examen éthique du QML.
Renforcer la formation et la recherche de talents interdisciplinaire : former des talents polyvalents maîtrisant à la fois l’IA et l’informatique quantique ainsi que la cryptographie ; encourager l’intégration de modèles de menaces quantiques dans la recherche sur la sécurité de l’IA ; financer la R&D de technologies de sécurité de l’IA résistantes au quantique.
Les défis apportés par l’informatique quantique sont immenses, mais elle nous offre aussi l’occasion de repenser et de renforcer les fondations du monde numérique. Grâce à une planification proactive, à l’innovation coordonnée et à une gouvernance agile, nous pouvons tout à fait construire un avenir de l’IA plus robuste : capable d’accueillir les bénéfices de la puissance de calcul quantique, tout en résistant à ses risques de sécurité.