La dernière puce d'ordinateur quantique de Google, « Willow, »a attiré une attention significative de la communauté technologique mondiale. Ce développement révolutionnaire met en avant non seulement les dernières réalisations en matière d'informatique quantique, mais suscite également des discussions critiques sur son impact potentiel sur la sécurité de la blockchain. La sécurité de la blockchain repose sur des défis cryptographiques complexes et les avancées en informatique quantique pourraient constituer une menace pour cette base. Cet article se penche sur les implications potentielles de la puce "Willow" de Google sur la sécurité de la blockchain.
Selon les rapports officiels [1], Google a dévoilé sa dernière puce d'informatique quantique, « Willow », et a annoncé deux avancées majeures:
Décortiquons ces réalisations. Pour l'instant, nous mettrons de côté la première percée en matière de correction d'erreur quantique et nous concentrerons sur la seconde : la vitesse de calcul. Si « Willow » peut réaliser en cinq minutes ce qu'un superordinateur mettrait 1 025 ans à accomplir, cela présente une comparaison frappante avec les défis cryptographiques traditionnels.
Par exemple, considérez le temps nécessaire à un ordinateur classique pour forcer une clé de chiffrement RSA-2048. Selon les estimations de John Preskill [2], un ordinateur domestique aurait besoin d'environ 10¹⁶ ans pour casser le RSA-2048.
Étant donné les capacités stupéfiantes de « Willow », s'il peut traiter des tâches qui prendraient un superordinateur 1 025 ans en seulement cinq minutes, il pourrait sembler trivial pour lui de relever des défis nécessitant 10¹⁶ années. Cela signifie-t-il que le problème cryptographique de la factorisation des entiers, sur lequel repose RSA, n'est plus sécurisé ? Selon la même logique, le problème du logarithme discret sur les courbes elliptiques, autre pilier de la sécurité des blockchains, a-t-il déjà été résolu ? Ces spéculations laissent entendre un scénario où la sécurité des blockchains pourrait s'effondrer en un instant.
Mais est-ce vraiment le cas?
Plongeons plus profondément dans les implications réelles de ces développements pour la cryptographie et la technologie blockchain. (À suivre...)
Les ordinateurs quantiques ont le potentiel théorique de résoudre des problèmes cryptographiques classiques, tels que le problème de factorisation des entiers et le problème du logarithme discret, qui soutiennent de nombreux systèmes de cryptage. Mais quel niveau de capacité de calcul quantique est réellement nécessaire pour résoudre des problèmes cryptographiques spécifiques ? Explorons cela à travers les exemples suivants :
Factorisation d'un grand entier à partir d'une clé publique RSA-2048.
Dérivation d'une clé privée à partir d'une clé publique sur des courbes elliptiques telles que Secp256k1, Secp256r1 ou Ed25519.
Pour les ordinateurs classiques, les deux tâches sont informatiquement impossibles. En fonction de leurs paramètres de sécurité respectifs, la cryptographie sur courbe elliptique (ECC) est légèrement plus difficile à casser que RSA. Cependant, la recherche effectuée par Martin et al. [3] suggère que pour les ordinateurs quantiques, la situation est inversée : RSA est légèrement plus difficile que ECC. Pour simplifier, nous considérons que les deux problèmes ont une difficulté similaire et nous nous concentrons sur le deuxième problème.
Le rôle de Secp256k1 et des courbes similaires dans la sécurité de la Blockchain
Les courbes elliptiques telles que Secp256k1, Secp256r1 et Ed25519 sont largement utilisées dans les systèmes de blockchain. Le problème du logarithme discret (DLP) sur ces courbes forme l'épine dorsale de la sécurité des blockchains, y compris des systèmes comme Bitcoin. Si ce problème est résolu, les attaquants pourraient falsifier les transactions sur la blockchain à volonté. De toute évidence, la capacité à résoudre le DLP sur les courbes elliptiques déterminerait directement la survie de la sécurité des blockchains.
Exigences de calcul quantique pour la rupture de la DLP
Selon Martin et al. [3], résoudre le problème du logarithme discret sur une courbe elliptique définie sur un champ d'ordre premier (avec une taille d'ordre de nnn bits) nécessiterait :
Exemple : Rupture de la courbe standard NIST P-256
Pour la courbe P-256 utilisée dans de nombreux systèmes cryptographiques :
Implication pour la sécurité de la blockchain
Un ordinateur quantique avec seulement 2 330 qubits logiques et capable d'exécuter 1,26×10111,26 \times 10^{11}1,26×1011 portes Toffoli serait suffisant pour compromettre les systèmes blockchain. Cette capacité démonterait la sécurité de Bitcoin, Ethereum et pratiquement tous les autres réseaux blockchain qui reposent sur l'ECC pour la protection cryptographique.
Bien que ces exigences en matière de ressources soient intimidantes, les progrès rapides de la technologie de l'informatique quantique suggèrent que la réalisation de telles capacités pourrait ne pas être impossible à long terme. Cependant, les estimations actuelles placent la concrétisation de ces systèmes quantiques à 15-20 ans dans le futur, offrant ainsi à l'industrie de la blockchain une fenêtre cruciale pour développer et déployer une cryptographie résistante aux calculs quantiques.
La puissance de calcul extraordinaire des ordinateurs quantiques, qui dépasse largement celle des ordinateurs classiques, réside dans leur capacité à tirer partisuperposition quantiqueetparallélisme quantiqueà traversbits quantiques (qubits)Contrairement à l'informatique classique, qui repose sur des processus linéaires, l'informatique quantique permet d'effectuer des calculs complexes en opérant sur plusieurs états simultanément. Cependant, les propriétés uniques des qubits posent également des défis importants.
Les qubits sont très sensibles au bruit environnemental et aux interférences externes, ce qui rend leurs états instables et les expose à la perte de leurs propriétés quantiques (un phénomène connu sous le nom dedécohérenceLes erreurs peuvent se produire à presque chaque étape d'un processus de calcul quantique, lors de l'initialisation, de la maintenance de l'état, de l'opération de la porte quantique ou de la mesure du résultat. De telles erreurs peuvent rendre inefficaces les algorithmes quantiques ou produire des résultats incorrects. Par conséquent, il est essentiel de garantir la stabilité et la précision des qubits pour obtenir qubits de haute qualitéest l'un des défis fondamentaux de l'informatique quantique.
Relever le défi : qubits logiques et correction d'erreur
L'une des principales stratégies pour surmonter l'instabilité des qubits est la construction de qubits logiques, qui réduisent les taux d'erreur en combinant plusieurs qubits physiques avec des codes de correction d'erreur quantique. Ces codes, tels que les codes de surface et les codes cartésiens, permettent la détection et la correction des erreurs, améliorant ainsi la robustesse et la fiabilité des systèmes quantiques.
Chaque qubit logique nécessite généralement des dizaines à des milliers de qubits physiques pour le soutenir. Bien que les qubits logiques améliorent considérablement la tolérance aux pannes des ordinateurs quantiques, cela se fait au prix de l'augmentation des exigences en qubits physiques et des algorithmes complexes de correction d'erreurs.
Un défi critique dans la correction d'erreur quantique est apparu comme un obstacle majeur. Les chercheurs ont initialement supposé que sacrifier des qubits physiques supplémentaires améliorerait la précision des qubits logiques. Cependant, la réalité a prouvé le contraire. En raison des taux d'erreur intrinsèquement élevés des qubits physiques (allant de 10⁻¹ à 10⁻³), les premières tentatives de correction d'erreur ont souvent abouti à des qubits logiques avec des taux d'erreur encore plus élevés que les qubits physiques eux-mêmes.
Ce paradoxe peut être assimilé à un scénario d'équipe chaotique : « Plus il y a de personnes impliquées, plus le chaos s'ensuit ». En correction d'erreur quantique, la mauvaise qualité des qubits physiques signifie que les mécanismes de correction d'erreur introduisent fréquemment plus d'erreurs qu'ils n'en éliminent. Ce phénomène, souvent décrit comme une « surcorrection vers le chaos », souligne l'importance de qubits physiques de haute qualité comme base pour la construction de qubits logiques fiables.
Sans qubits logiques de haute qualité, l'informatique quantique pratique reste hors de portée. Pour relever ce défi, il est nécessaire de faire progresser non seulement la stabilité des qubits physiques, mais aussi les techniques de correction des erreurs quantiques. Atteindre cet objectif est essentiel pour libérer tout le potentiel de l'informatique quantique et surmonter ses limites actuelles.
Avec une compréhension solide des défis entourant l'informatique quantique, nous pouvons maintenant réévaluer les réalisations de la puce quantique de Google, "Willow".
L'un des aspects les plus révolutionnaires de “Willow” est sa capacité à surmonter les obstacles de longue date dans la correction d'erreurs quantiques en utilisant des codes de surface [4][5]. En augmentant le nombre de qubits et en optimisant les techniques de correction d'erreurs, “Willow” a atteint un jalon historique : transformer la correction d'erreurs d'un processus déficitaire en un gain net.
Performance du code de surface
De plus, la puce "Willow" a terminé le calcul de référence du circuit aléatoire (RCS) en moins de cinq minutes. Le RCS est une méthode largement utilisée pour évaluer les performances des ordinateurs quantiques.
Cependant, il est important de noter que l'impressionnant écart de performance entre l'ordinateur quantique et un superordinateur classique dans ce test résulte partiellement des différences fondamentales entre l'informatique quantique et classique. Pour mieux comprendre cela, nous pouvons utiliser une analogie imparfaite : comparer la "vitesse d'un satellite dans l'espace" à la "vitesse d'une voiture sur terre".
De plus, il convient de souligner que le RCS manque actuellement de scénarios d'application pratique, servant principalement d'outil d'évaluation des performances.
Google Roadmap de l'informatique quantique
Le diagramme ci-dessus illustre les six étapes de la feuille de route de développement de l'informatique quantique de Google, mettant en évidence le chemin critique des percées expérimentales aux applications pratiques à grande échelle.
Utilisant leprocesseur Sycamore, l'équipe a démontré une computation quantique dépassant la computation classique. En seulement 200 secondes, le processeur a accompli une tâche qui prendrait 10 000 ans à un supercalculateur traditionnel, établissant ainsi les bases de la suprématie quantique. Les objectifs de cette étape ont été atteints avec un ordinateur quantique doté de 54 qubits physiques.
Le Willow chip a été utilisé pour démontrer le premier prototype d’un qubit logique, prouvant que la correction d’erreur quantique peut réduire les taux d’erreur. Cette percée a ouvert la voie à la construction d’ordinateurs quantiques pratiques à grande échelle et a permis la possibilité d’applications quantiques à échelle intermédiaire (NISQ) à court terme. Les objectifs de cette étape ont également été atteints, l’ordinateur quantique atteignant 105 qubits physiques et un taux d’erreur de qubits logiques de 10−310^{-3}10−3.
L'objectif est de construire des qubits logiques à longue durée de vie avec un taux d'erreur de moins d'un sur un million d'opérations. Pour y parvenir, il faut une correction d'erreur quantique plus robuste et une architecture matérielle évolutive. Les ordinateurs quantiques à ce stade devraient avoir 10310^3103 qubits physiques, avec des taux d'erreur de qubit logique réduits à 10−610^{-6}10−6.
L'accent est mis sur la réalisation d'opérations de porte quantique à faible erreur, permettant des applications de correction d'erreur quantique significatives. On s'attend à ce que les ordinateurs quantiques atteignent 10410^4104 qubits physiques tout en maintenant un taux d'erreur de qubit logique de 10−610^{-6}10−6.
Le système s'étendra à 100 qubits logiques et réalisera des opérations de portes de haute précision, débloquant plus de trois applications quantiques tolérantes aux erreurs. On s'attend à ce que les ordinateurs quantiques disposent de 10510^5105 qubits physiques, avec des taux d'erreur de qubit logique restant à 10−610^{-6}10−6.
L'objectif ultime est de contrôler et de relier 1 million de qubits, créant ainsi un ordinateur quantique tolérant aux pannes à grande échelle. Ce système est conçu pour être largement applicable dans des domaines tels que la médecine et les technologies durables, avec plus de 10 applications quantiques transformant diverses industries. Les ordinateurs quantiques à ce stade auront 10610^6106 qubits physiques, avec des taux d'erreur de qubit logique tombant à 10−1310^{-13}10−13.
Comme discuté plus tôt, briser les défis cryptographiques courants de la blockchain, comme le problème du logarithme discret sur les courbes elliptiques, nécessite environ 2 330 qubits logiques de haute qualité et un circuit quantique avec 1,26×10^11 portes Toffoli. Les qubits logiques reposent sur la correction d'erreur quantique, chaque qubit logique nécessitant généralement plusieurs qubits physiques de support. Par exemple, la puce Willow utilise une distance de code de 7, nécessitant 49 qubits physiques par qubit logique, soit un total d'environ 114 170 qubits physiques.
Cependant, cette estimation est optimiste. À mesure que l'échelle et la profondeur des opérations quantiques augmentent, des exigences plus strictes en matière de taux d'erreur du qubit logique seront nécessaires. Actuellement, le taux d'erreur du qubit logique de Willow est d'environ 10−310^{-3}10−3, loin du niveau requis pour résoudre de tels problèmes. Selon Craig et al. [6], résoudre le problème RSA-2048, qui a une complexité similaire au problème du logarithme discret de la courbe elliptique, nécessite un taux d'erreur du qubit logique de 10−1510^{-15}10−15 et une distance de code d'au moins 27. Cela signifie que chaque qubit logique aurait besoin de 272=72927^2 = 729272=729 qubits physiques, soit plus de 1 698 570 qubits physiques. De plus, le taux d'erreur du qubit logique requis de 10−1510^{-15}10−15 est non seulement bien inférieur à 10−310^{-3}10−3 de Willow, mais également deux ordres de grandeur inférieur au taux d'erreur du qubit logique prévu pour les ordinateurs quantiques dans la feuille de route de l'étape 6 de Google.
Selon la feuille de route de développement de Google, il ne sera possible de s'attaquer au problème du logarithme discret sur la courbe elliptique que lorsque l'informatique quantique atteindra le stade 6. Atteindre cet objectif nécessitera des avancées significatives en matière de qualité des qubits logiques, ainsi qu'une gestion efficace et une correction d'erreur des nombres massifs de qubits physiques.
En supposant un intervalle de cinq ans entre les étapes 1 et 2 et des progrès réguliers, on estime qu'il faudra 15 à 20 ans pour que « Willow » surmonte les défis cryptographiques classiques. Même avec une perspective optimiste, il faudrait au moins 10 ans pour atteindre le niveau requis.
Une fois que les ordinateurs quantiques auront atteint une puissance de calcul suffisante, ils pourront exploiter leurs avantages asymétriques pour compromettre rapidement les mécanismes de sécurité principaux des cryptomonnaies. Cela inclut le vol des clés privées des utilisateurs et la prise de contrôle de leurs actifs. Dans un tel scénario, les réseaux de cryptomonnaies existants seraient confrontés à un effondrement systémique, laissant les actifs des utilisateurs sans protection.
Cependant, la puce quantique Willow de Google en est encore aux premiers stades de la recherche en informatique quantique et est incapable de résoudre des défis cryptographiques tels que la factorisation de grands entiers et les logarithmes discrets des courbes elliptiques. Par conséquent, elle ne constitue pas encore une menace substantielle pour la sécurité de la blockchain. Le développement d'un ordinateur quantique véritablement pratique est confronté à de nombreux défis techniques, ce qui en fait un voyage long et ardu.
Bien que la technologie de l'informatique quantique ne menace pas encore directement les actifs cryptés, son développement rapide ne peut être ignoré. Selon les prévisions basées sur les tendances technologiques actuelles, les ordinateurs quantiques devraient surmonter plusieurs goulots d'étranglement techniques clés au cours de la prochaine décennie, se rapprochant progressivement du point critique où ils pourraient menacer la cryptographie traditionnelle. En prévision de ce défi potentiel, la communauté blockchain doit planifier et se préparer de manière proactive à faire face à l'impact technologique de l'ère quantique. Pour garantir la sécurité et la stabilité à long terme des systèmes blockchain, trois mesures clés sont essentielles:
Il est essentiel de faire avancer la recherche en matière de cryptographie résistante aux attaques quantiques, comme les algorithmes à base de réseau, et de promouvoir leur application standardisée dans le monde entier. C'est la priorité absolue pour faire face aux menaces quantiques et c'est vital pour la sécurité future de la technologie de la blockchain.
Les efforts devraient se concentrer sur l'établissement d'une infrastructure cryptographique robuste résistante aux attaques quantiques pour fournir une base technique solide pour la sécurité à long terme des réseaux blockchain. Cela permettra aux systèmes de répondre efficacement aux menaces quantiques potentielles et de maintenir des opérations stables.
La communauté de la blockchain devrait également explorer les applications potentielles de l'informatique quantique, telles que l'optimisation des calculs on-chain, l'amélioration de l'efficacité de la planification des ressources et le renforcement de la protection de la vie privée. Ces innovations pourraient insuffler un nouvel élan de croissance à la technologie de la blockchain.
Bien que l'application généralisée des ordinateurs quantiques ne se soit pas encore concrétisée, leur arrivée finale est inévitable. Dans ce contexte, les cadres de sécurité blockchain basés sur la cryptographie traditionnelle seront progressivement remplacés par des garanties de sécurité ancrées dans la cryptographie résistante aux attaques quantiques.
Des entreprises comme Safeheron collaborent déjà avec des institutions académiques pour explorer activement des algorithmes résistants à la cryptographie quantique, jetant ainsi les bases de l'évolution technologique de la sécurité des actifs numériques. De plus, l'écosystème blockchain a commencé à voir des chaînes publiques intégrant des algorithmes résistants à la cryptographie quantique, démontrant une tendance prospective qui atténue les préoccupations excessives.
Le développement de l'informatique quantique présente non seulement des défis potentiels en matière de sécurité pour la technologie de la blockchain, mais offre également des opportunités d'avancement technologique et d'amélioration de l'efficacité. En abordant activement ces changements et en embrassant la transformation, la technologie de la blockchain peut prospérer au milieu des futures vagues d'innovation, atteignant des niveaux plus élevés de maturité et de créativité.
[1]Rencontrez Willow, notre puce quantique de pointe
[2] John Preskill – Introduction to Quantum Information (Part 1) – CSSQI 2012
[3] Estimations des ressources quantiques pour le calcul des logarithmes discrets sur les courbes elliptiques
[4] Suppression des erreurs quantiques en élargissant un qubit logique de code de surface
[5]Correction d'erreur quantique en dessous du seuil du code de surface
[6]Comment factoriser des entiers RSA de 2048 bits en 8 heures en utilisant 20 millions de qubits bruyants
[7] Feuille de route de l'informatique quantique de Google
Поділіться
Контент
La dernière puce d'ordinateur quantique de Google, « Willow, »a attiré une attention significative de la communauté technologique mondiale. Ce développement révolutionnaire met en avant non seulement les dernières réalisations en matière d'informatique quantique, mais suscite également des discussions critiques sur son impact potentiel sur la sécurité de la blockchain. La sécurité de la blockchain repose sur des défis cryptographiques complexes et les avancées en informatique quantique pourraient constituer une menace pour cette base. Cet article se penche sur les implications potentielles de la puce "Willow" de Google sur la sécurité de la blockchain.
Selon les rapports officiels [1], Google a dévoilé sa dernière puce d'informatique quantique, « Willow », et a annoncé deux avancées majeures:
Décortiquons ces réalisations. Pour l'instant, nous mettrons de côté la première percée en matière de correction d'erreur quantique et nous concentrerons sur la seconde : la vitesse de calcul. Si « Willow » peut réaliser en cinq minutes ce qu'un superordinateur mettrait 1 025 ans à accomplir, cela présente une comparaison frappante avec les défis cryptographiques traditionnels.
Par exemple, considérez le temps nécessaire à un ordinateur classique pour forcer une clé de chiffrement RSA-2048. Selon les estimations de John Preskill [2], un ordinateur domestique aurait besoin d'environ 10¹⁶ ans pour casser le RSA-2048.
Étant donné les capacités stupéfiantes de « Willow », s'il peut traiter des tâches qui prendraient un superordinateur 1 025 ans en seulement cinq minutes, il pourrait sembler trivial pour lui de relever des défis nécessitant 10¹⁶ années. Cela signifie-t-il que le problème cryptographique de la factorisation des entiers, sur lequel repose RSA, n'est plus sécurisé ? Selon la même logique, le problème du logarithme discret sur les courbes elliptiques, autre pilier de la sécurité des blockchains, a-t-il déjà été résolu ? Ces spéculations laissent entendre un scénario où la sécurité des blockchains pourrait s'effondrer en un instant.
Mais est-ce vraiment le cas?
Plongeons plus profondément dans les implications réelles de ces développements pour la cryptographie et la technologie blockchain. (À suivre...)
Les ordinateurs quantiques ont le potentiel théorique de résoudre des problèmes cryptographiques classiques, tels que le problème de factorisation des entiers et le problème du logarithme discret, qui soutiennent de nombreux systèmes de cryptage. Mais quel niveau de capacité de calcul quantique est réellement nécessaire pour résoudre des problèmes cryptographiques spécifiques ? Explorons cela à travers les exemples suivants :
Factorisation d'un grand entier à partir d'une clé publique RSA-2048.
Dérivation d'une clé privée à partir d'une clé publique sur des courbes elliptiques telles que Secp256k1, Secp256r1 ou Ed25519.
Pour les ordinateurs classiques, les deux tâches sont informatiquement impossibles. En fonction de leurs paramètres de sécurité respectifs, la cryptographie sur courbe elliptique (ECC) est légèrement plus difficile à casser que RSA. Cependant, la recherche effectuée par Martin et al. [3] suggère que pour les ordinateurs quantiques, la situation est inversée : RSA est légèrement plus difficile que ECC. Pour simplifier, nous considérons que les deux problèmes ont une difficulté similaire et nous nous concentrons sur le deuxième problème.
Le rôle de Secp256k1 et des courbes similaires dans la sécurité de la Blockchain
Les courbes elliptiques telles que Secp256k1, Secp256r1 et Ed25519 sont largement utilisées dans les systèmes de blockchain. Le problème du logarithme discret (DLP) sur ces courbes forme l'épine dorsale de la sécurité des blockchains, y compris des systèmes comme Bitcoin. Si ce problème est résolu, les attaquants pourraient falsifier les transactions sur la blockchain à volonté. De toute évidence, la capacité à résoudre le DLP sur les courbes elliptiques déterminerait directement la survie de la sécurité des blockchains.
Exigences de calcul quantique pour la rupture de la DLP
Selon Martin et al. [3], résoudre le problème du logarithme discret sur une courbe elliptique définie sur un champ d'ordre premier (avec une taille d'ordre de nnn bits) nécessiterait :
Exemple : Rupture de la courbe standard NIST P-256
Pour la courbe P-256 utilisée dans de nombreux systèmes cryptographiques :
Implication pour la sécurité de la blockchain
Un ordinateur quantique avec seulement 2 330 qubits logiques et capable d'exécuter 1,26×10111,26 \times 10^{11}1,26×1011 portes Toffoli serait suffisant pour compromettre les systèmes blockchain. Cette capacité démonterait la sécurité de Bitcoin, Ethereum et pratiquement tous les autres réseaux blockchain qui reposent sur l'ECC pour la protection cryptographique.
Bien que ces exigences en matière de ressources soient intimidantes, les progrès rapides de la technologie de l'informatique quantique suggèrent que la réalisation de telles capacités pourrait ne pas être impossible à long terme. Cependant, les estimations actuelles placent la concrétisation de ces systèmes quantiques à 15-20 ans dans le futur, offrant ainsi à l'industrie de la blockchain une fenêtre cruciale pour développer et déployer une cryptographie résistante aux calculs quantiques.
La puissance de calcul extraordinaire des ordinateurs quantiques, qui dépasse largement celle des ordinateurs classiques, réside dans leur capacité à tirer partisuperposition quantiqueetparallélisme quantiqueà traversbits quantiques (qubits)Contrairement à l'informatique classique, qui repose sur des processus linéaires, l'informatique quantique permet d'effectuer des calculs complexes en opérant sur plusieurs états simultanément. Cependant, les propriétés uniques des qubits posent également des défis importants.
Les qubits sont très sensibles au bruit environnemental et aux interférences externes, ce qui rend leurs états instables et les expose à la perte de leurs propriétés quantiques (un phénomène connu sous le nom dedécohérenceLes erreurs peuvent se produire à presque chaque étape d'un processus de calcul quantique, lors de l'initialisation, de la maintenance de l'état, de l'opération de la porte quantique ou de la mesure du résultat. De telles erreurs peuvent rendre inefficaces les algorithmes quantiques ou produire des résultats incorrects. Par conséquent, il est essentiel de garantir la stabilité et la précision des qubits pour obtenir qubits de haute qualitéest l'un des défis fondamentaux de l'informatique quantique.
Relever le défi : qubits logiques et correction d'erreur
L'une des principales stratégies pour surmonter l'instabilité des qubits est la construction de qubits logiques, qui réduisent les taux d'erreur en combinant plusieurs qubits physiques avec des codes de correction d'erreur quantique. Ces codes, tels que les codes de surface et les codes cartésiens, permettent la détection et la correction des erreurs, améliorant ainsi la robustesse et la fiabilité des systèmes quantiques.
Chaque qubit logique nécessite généralement des dizaines à des milliers de qubits physiques pour le soutenir. Bien que les qubits logiques améliorent considérablement la tolérance aux pannes des ordinateurs quantiques, cela se fait au prix de l'augmentation des exigences en qubits physiques et des algorithmes complexes de correction d'erreurs.
Un défi critique dans la correction d'erreur quantique est apparu comme un obstacle majeur. Les chercheurs ont initialement supposé que sacrifier des qubits physiques supplémentaires améliorerait la précision des qubits logiques. Cependant, la réalité a prouvé le contraire. En raison des taux d'erreur intrinsèquement élevés des qubits physiques (allant de 10⁻¹ à 10⁻³), les premières tentatives de correction d'erreur ont souvent abouti à des qubits logiques avec des taux d'erreur encore plus élevés que les qubits physiques eux-mêmes.
Ce paradoxe peut être assimilé à un scénario d'équipe chaotique : « Plus il y a de personnes impliquées, plus le chaos s'ensuit ». En correction d'erreur quantique, la mauvaise qualité des qubits physiques signifie que les mécanismes de correction d'erreur introduisent fréquemment plus d'erreurs qu'ils n'en éliminent. Ce phénomène, souvent décrit comme une « surcorrection vers le chaos », souligne l'importance de qubits physiques de haute qualité comme base pour la construction de qubits logiques fiables.
Sans qubits logiques de haute qualité, l'informatique quantique pratique reste hors de portée. Pour relever ce défi, il est nécessaire de faire progresser non seulement la stabilité des qubits physiques, mais aussi les techniques de correction des erreurs quantiques. Atteindre cet objectif est essentiel pour libérer tout le potentiel de l'informatique quantique et surmonter ses limites actuelles.
Avec une compréhension solide des défis entourant l'informatique quantique, nous pouvons maintenant réévaluer les réalisations de la puce quantique de Google, "Willow".
L'un des aspects les plus révolutionnaires de “Willow” est sa capacité à surmonter les obstacles de longue date dans la correction d'erreurs quantiques en utilisant des codes de surface [4][5]. En augmentant le nombre de qubits et en optimisant les techniques de correction d'erreurs, “Willow” a atteint un jalon historique : transformer la correction d'erreurs d'un processus déficitaire en un gain net.
Performance du code de surface
De plus, la puce "Willow" a terminé le calcul de référence du circuit aléatoire (RCS) en moins de cinq minutes. Le RCS est une méthode largement utilisée pour évaluer les performances des ordinateurs quantiques.
Cependant, il est important de noter que l'impressionnant écart de performance entre l'ordinateur quantique et un superordinateur classique dans ce test résulte partiellement des différences fondamentales entre l'informatique quantique et classique. Pour mieux comprendre cela, nous pouvons utiliser une analogie imparfaite : comparer la "vitesse d'un satellite dans l'espace" à la "vitesse d'une voiture sur terre".
De plus, il convient de souligner que le RCS manque actuellement de scénarios d'application pratique, servant principalement d'outil d'évaluation des performances.
Google Roadmap de l'informatique quantique
Le diagramme ci-dessus illustre les six étapes de la feuille de route de développement de l'informatique quantique de Google, mettant en évidence le chemin critique des percées expérimentales aux applications pratiques à grande échelle.
Utilisant leprocesseur Sycamore, l'équipe a démontré une computation quantique dépassant la computation classique. En seulement 200 secondes, le processeur a accompli une tâche qui prendrait 10 000 ans à un supercalculateur traditionnel, établissant ainsi les bases de la suprématie quantique. Les objectifs de cette étape ont été atteints avec un ordinateur quantique doté de 54 qubits physiques.
Le Willow chip a été utilisé pour démontrer le premier prototype d’un qubit logique, prouvant que la correction d’erreur quantique peut réduire les taux d’erreur. Cette percée a ouvert la voie à la construction d’ordinateurs quantiques pratiques à grande échelle et a permis la possibilité d’applications quantiques à échelle intermédiaire (NISQ) à court terme. Les objectifs de cette étape ont également été atteints, l’ordinateur quantique atteignant 105 qubits physiques et un taux d’erreur de qubits logiques de 10−310^{-3}10−3.
L'objectif est de construire des qubits logiques à longue durée de vie avec un taux d'erreur de moins d'un sur un million d'opérations. Pour y parvenir, il faut une correction d'erreur quantique plus robuste et une architecture matérielle évolutive. Les ordinateurs quantiques à ce stade devraient avoir 10310^3103 qubits physiques, avec des taux d'erreur de qubit logique réduits à 10−610^{-6}10−6.
L'accent est mis sur la réalisation d'opérations de porte quantique à faible erreur, permettant des applications de correction d'erreur quantique significatives. On s'attend à ce que les ordinateurs quantiques atteignent 10410^4104 qubits physiques tout en maintenant un taux d'erreur de qubit logique de 10−610^{-6}10−6.
Le système s'étendra à 100 qubits logiques et réalisera des opérations de portes de haute précision, débloquant plus de trois applications quantiques tolérantes aux erreurs. On s'attend à ce que les ordinateurs quantiques disposent de 10510^5105 qubits physiques, avec des taux d'erreur de qubit logique restant à 10−610^{-6}10−6.
L'objectif ultime est de contrôler et de relier 1 million de qubits, créant ainsi un ordinateur quantique tolérant aux pannes à grande échelle. Ce système est conçu pour être largement applicable dans des domaines tels que la médecine et les technologies durables, avec plus de 10 applications quantiques transformant diverses industries. Les ordinateurs quantiques à ce stade auront 10610^6106 qubits physiques, avec des taux d'erreur de qubit logique tombant à 10−1310^{-13}10−13.
Comme discuté plus tôt, briser les défis cryptographiques courants de la blockchain, comme le problème du logarithme discret sur les courbes elliptiques, nécessite environ 2 330 qubits logiques de haute qualité et un circuit quantique avec 1,26×10^11 portes Toffoli. Les qubits logiques reposent sur la correction d'erreur quantique, chaque qubit logique nécessitant généralement plusieurs qubits physiques de support. Par exemple, la puce Willow utilise une distance de code de 7, nécessitant 49 qubits physiques par qubit logique, soit un total d'environ 114 170 qubits physiques.
Cependant, cette estimation est optimiste. À mesure que l'échelle et la profondeur des opérations quantiques augmentent, des exigences plus strictes en matière de taux d'erreur du qubit logique seront nécessaires. Actuellement, le taux d'erreur du qubit logique de Willow est d'environ 10−310^{-3}10−3, loin du niveau requis pour résoudre de tels problèmes. Selon Craig et al. [6], résoudre le problème RSA-2048, qui a une complexité similaire au problème du logarithme discret de la courbe elliptique, nécessite un taux d'erreur du qubit logique de 10−1510^{-15}10−15 et une distance de code d'au moins 27. Cela signifie que chaque qubit logique aurait besoin de 272=72927^2 = 729272=729 qubits physiques, soit plus de 1 698 570 qubits physiques. De plus, le taux d'erreur du qubit logique requis de 10−1510^{-15}10−15 est non seulement bien inférieur à 10−310^{-3}10−3 de Willow, mais également deux ordres de grandeur inférieur au taux d'erreur du qubit logique prévu pour les ordinateurs quantiques dans la feuille de route de l'étape 6 de Google.
Selon la feuille de route de développement de Google, il ne sera possible de s'attaquer au problème du logarithme discret sur la courbe elliptique que lorsque l'informatique quantique atteindra le stade 6. Atteindre cet objectif nécessitera des avancées significatives en matière de qualité des qubits logiques, ainsi qu'une gestion efficace et une correction d'erreur des nombres massifs de qubits physiques.
En supposant un intervalle de cinq ans entre les étapes 1 et 2 et des progrès réguliers, on estime qu'il faudra 15 à 20 ans pour que « Willow » surmonte les défis cryptographiques classiques. Même avec une perspective optimiste, il faudrait au moins 10 ans pour atteindre le niveau requis.
Une fois que les ordinateurs quantiques auront atteint une puissance de calcul suffisante, ils pourront exploiter leurs avantages asymétriques pour compromettre rapidement les mécanismes de sécurité principaux des cryptomonnaies. Cela inclut le vol des clés privées des utilisateurs et la prise de contrôle de leurs actifs. Dans un tel scénario, les réseaux de cryptomonnaies existants seraient confrontés à un effondrement systémique, laissant les actifs des utilisateurs sans protection.
Cependant, la puce quantique Willow de Google en est encore aux premiers stades de la recherche en informatique quantique et est incapable de résoudre des défis cryptographiques tels que la factorisation de grands entiers et les logarithmes discrets des courbes elliptiques. Par conséquent, elle ne constitue pas encore une menace substantielle pour la sécurité de la blockchain. Le développement d'un ordinateur quantique véritablement pratique est confronté à de nombreux défis techniques, ce qui en fait un voyage long et ardu.
Bien que la technologie de l'informatique quantique ne menace pas encore directement les actifs cryptés, son développement rapide ne peut être ignoré. Selon les prévisions basées sur les tendances technologiques actuelles, les ordinateurs quantiques devraient surmonter plusieurs goulots d'étranglement techniques clés au cours de la prochaine décennie, se rapprochant progressivement du point critique où ils pourraient menacer la cryptographie traditionnelle. En prévision de ce défi potentiel, la communauté blockchain doit planifier et se préparer de manière proactive à faire face à l'impact technologique de l'ère quantique. Pour garantir la sécurité et la stabilité à long terme des systèmes blockchain, trois mesures clés sont essentielles:
Il est essentiel de faire avancer la recherche en matière de cryptographie résistante aux attaques quantiques, comme les algorithmes à base de réseau, et de promouvoir leur application standardisée dans le monde entier. C'est la priorité absolue pour faire face aux menaces quantiques et c'est vital pour la sécurité future de la technologie de la blockchain.
Les efforts devraient se concentrer sur l'établissement d'une infrastructure cryptographique robuste résistante aux attaques quantiques pour fournir une base technique solide pour la sécurité à long terme des réseaux blockchain. Cela permettra aux systèmes de répondre efficacement aux menaces quantiques potentielles et de maintenir des opérations stables.
La communauté de la blockchain devrait également explorer les applications potentielles de l'informatique quantique, telles que l'optimisation des calculs on-chain, l'amélioration de l'efficacité de la planification des ressources et le renforcement de la protection de la vie privée. Ces innovations pourraient insuffler un nouvel élan de croissance à la technologie de la blockchain.
Bien que l'application généralisée des ordinateurs quantiques ne se soit pas encore concrétisée, leur arrivée finale est inévitable. Dans ce contexte, les cadres de sécurité blockchain basés sur la cryptographie traditionnelle seront progressivement remplacés par des garanties de sécurité ancrées dans la cryptographie résistante aux attaques quantiques.
Des entreprises comme Safeheron collaborent déjà avec des institutions académiques pour explorer activement des algorithmes résistants à la cryptographie quantique, jetant ainsi les bases de l'évolution technologique de la sécurité des actifs numériques. De plus, l'écosystème blockchain a commencé à voir des chaînes publiques intégrant des algorithmes résistants à la cryptographie quantique, démontrant une tendance prospective qui atténue les préoccupations excessives.
Le développement de l'informatique quantique présente non seulement des défis potentiels en matière de sécurité pour la technologie de la blockchain, mais offre également des opportunités d'avancement technologique et d'amélioration de l'efficacité. En abordant activement ces changements et en embrassant la transformation, la technologie de la blockchain peut prospérer au milieu des futures vagues d'innovation, atteignant des niveaux plus élevés de maturité et de créativité.
[1]Rencontrez Willow, notre puce quantique de pointe
[2] John Preskill – Introduction to Quantum Information (Part 1) – CSSQI 2012
[3] Estimations des ressources quantiques pour le calcul des logarithmes discrets sur les courbes elliptiques
[4] Suppression des erreurs quantiques en élargissant un qubit logique de code de surface
[5]Correction d'erreur quantique en dessous du seuil du code de surface
[6]Comment factoriser des entiers RSA de 2048 bits en 8 heures en utilisant 20 millions de qubits bruyants
[7] Feuille de route de l'informatique quantique de Google