Un algorithme quantique apprend à modéliser rapidement des matériaux ultra-complexes

Les technologies quantiques et les futurs ordinateurs quantiques reposent sur des matériaux quantiques spéciaux capables de modifier radicalement leurs propriétés. Par exemple, en tordant des couches de graphène selon un angle spécifique, il est possible de créer un supraconducteur. Cependant, la modélisation de systèmes complexes tels que les quasi-cristaux et les structures super-moiré sur des superordinateurs classiques est extrêmement difficile, car ce processus nécessite des quadrillions d'opérations de calcul. C'est ce que rapporte Ixbt.com rapporte .
Des chercheurs de l'Université Aalto en Finlande ont développé un nouvel algorithme d'inspiration quantique qui simplifie considérablement ce processus. L'algorithme code le système sous forme de réseaux de tenseurs, ce qui permet de représenter efficacement les états quantiques dans des espaces de calcul très vastes. En conséquence, les scientifiques ont réussi à modéliser un quasi-cristal comptant plus de 268 millions de nœuds.
Comme l'a souligné l'un des auteurs de l'étude, Tiago Antao, cette approche permet d'atteindre une « accélération quantique » grâce à une représentation compacte des données. Bien qu'il s'agisse pour l'instant d'une simulation théorique, cette méthode servira de base aux futures expériences. L'étude des quasi-cristaux topologiques est particulièrement importante pour l'électronique protégée des bruits externes et fonctionnant sans perte d'énergie.
Le responsable de la recherche, Jose Lado, a souligné que ces méthodes pourraient être mises en œuvre à l'avenir sur de véritables ordinateurs quantiques tels que la Finnish Quantum Computing Infrastructure. Il s'agit d'une étape importante pour transformer la conception de matériaux quantiques d'un simple exercice théorique en une tâche pratique de calcul quantique. De telles avancées ouvrent de nouveaux horizons pour accroître l'efficacité énergétique de l'intelligence artificielle et des grands centres de données.
Lisez “Zamin” sur Telegram !