Les rayons cosmiques, ennemis invisibles de l'informatique quantique ?

Par:
fredericmazue

jeu, 16/12/2021 - 14:40

Le rayonnement cosmique est le flux de noyaux atomiques et de particules de haute énergie (c'est-à-dire relativistes) qui circulent dans le milieu interstellaire. La source de ce rayonnement se situe selon les cas dans le Soleil, à l'intérieur ou à l'extérieur de notre galaxie, peut-on lire dans Wikipedia.

Les rayons cosmiques sont autant inaperçus qu'inoffensifs pour nous nous et nous vivons bien avec. Mais il ne semblent pas en aller de même pour les ordinateurs quantiques, selon un article paru dans Nature Physics dont voici l'introduction :

L'informatique quantique évolutive peut devenir une réalité avec la correction d'erreurs, à condition que des qubits cohérents puissent être construits dans de grands tableaux. Le principe clé est que les erreurs physiques peuvent rester à la fois petites et suffisamment non corrélées à mesure que les appareils évoluent, de sorte que les taux d'erreurs logiques peuvent être supprimés de manière exponentielle. Cependant, les impacts des rayons cosmiques et de la radioactivité latente violent ces hypothèses. Une particule incidente peut ioniser le substrat et induire une salve de quasiparticules qui détruit la cohérence des qubits dans tout le dispositif. Le rayonnement de haute énergie a été identifié comme une source d'erreur dans les dispositifs quantiques supraconducteurs pilotes, mais l'effet sur les algorithmes à grande échelle et la correction d'erreurs reste une question ouverte. L'élucidation de la physique impliquée nécessite l'exploitation d'un grand nombre de qubits aux mêmes échelles de temps rapides nécessaires à la correction d'erreurs. Ici, nous utilisons des mesures résolues dans l'espace et dans le temps d'un processeur quantique à grande échelle pour identifier des salves de quasiparticules produites par des rayons à haute énergie. Nous suivons les événements à partir de leur impact localisé initial au fur et à mesure qu'ils se propagent, limitant simultanément et sévèrement la cohérence énergétique de tous les qubits et provoquant une défaillance à l'échelle de la puce. Nos résultats fournissent des informations directes sur l'impact de ces rafales d'erreurs dommageables et mettent en évidence la nécessité d'une atténuation pour permettre à l'informatique quantique d'évoluer.

L'article mentionne que des  chercheurs de Google ont testé un ensemble de 26 qubits laissés dans un état de repos pendant 100 microsecondes. En moyenne, l'ensemble de 26 qubits en question a affiché un taux d'erreur d'environ 4 qubits qui ont changé d'état par erreur au cours de cette période de test de 100 microsecondes. Cela correspond bien à la capacité de la correction d'erreur intégrée à compenser en s'appuyant sur les 22 qubits restant et majoritaires. Dans ces conditions d'erreur, un ordinateur quantique fonctionne correctement et un calcul quantique donne un résultat valide.

Cependant, lors d'une l'attaque confirmée des rayons quantiques, 24 des 26 qubits ont basculé par erreur dans l'état opposé. Ce résultat dépasse largement la capacité de la correction d'erreur traditionnelle à compenser et invalide le résultat du calcul quantique.