00:00:00 Introduction à la physique quantique et son rôle dans les technologies existantes.
00:01:03 Le parcours d’Olivier Ezratty dans le calcul quantique et ses vastes recherches.
00:04:16 Lancement de l’Initiative pour l’énergie quantique pour un développement de la technologie quantique respectueux de l’environnement.
00:06:11 Différences entre la physique quantique dans les technologies actuelles et le calcul quantique futur.
00:08:51 L’inexistence du néant et les fluctuations du vide en physique quantique.
00:10:32 Le vide et l’éther en physique quantique.
00:11:52 Logiciels d’entreprise et sympathie mécanique.
00:14:16 Seuil d’avantage quantique et progrès incertains.
00:16:19 Importance de comprendre les technologies quantiques.
00:18:43 Les applications potentielles des technologies quantiques.
00:20:24 Introduction à la détection quantique et à ses applications.
00:21:19 Communications quantiques pour la sécurité et l’amélioration de la puissance.
00:24:01 Détection quantique pour des mesures de précision dans divers domaines.
00:26:36 Utilisation positive de capteurs de gravité quantique dans les satellites pour des études géodésiques.
00:28:15 Importance des perspectives holistiques dans la compréhension de la technologie quantique.
00:30:11 Discussion sur la suprématie quantique et ses limites.
00:32:02 Explication des bits classiques et de leur rôle dans l’informatique.
00:33:10 Présentation des qubits et de leurs différences par rapport aux bits classiques.
00:35:04 Approfondissement des aspects mathématiques des qubits.
00:37:33 Expliquer la puissance des qubits et leur croissance exponentielle dans l’espace de l’information.
00:40:01 Clarifier les idées reçues sur le calcul quantique.
00:43:45 Calcul quantique et défis du Big Data.
00:45:54 Aborder le bruit dans le calcul quantique : algorithmes peu profonds et correction d’erreurs.
00:47:46 L’état actuel du calcul quantique et le dernier système à 433 qubits d’IBM.
00:49:53 Explorer la correction d’erreurs dans le calcul quantique.
00:51:37 Discussion sur la possibilité d’utiliser des opérations bruitées dans le machine learning.
00:52:59 Passer en revue les limites du quantum machine learning.
00:57:25 Contrôle de la température dans les qubits supraconducteurs et les qubits en silicium.
00:59:49 Comparer les qubits piégés par ions et les qubits topologiques.
01:00:53 Atomes neutres, refroidissement par laser, et technologie de piège opto-magnétique.
01:03:31 Centres d’envie et potentiel du calcul quantique à température ambiante.
01:05:46 Discuter de la complexité dans le domaine de la technologie quantique.
01:07:58 Aborder la confiance et identifier des sources fiables dans la technologie quantique.
01:10:30 Discussion sur des exemples de technologie unique de qubits en silicium.
01:12:35 Comparer le calcul quantique à la supply chain des logiciels d’entreprise.
01:14:37 Le rôle de la sérendipité dans les rencontres et l’apprentissage auprès des scientifiques.
01:16:36 Conseils pour naviguer et déchiffrer les articles scientifiques.
01:22:47 La bonté intrinsèque de la prévision et la difficulté à la mesurer.
01:24:00 La complexité des publications scientifiques et leur compréhension.
01:25:17 L’ouverture et l’obfuscation dans l’écosystème du calcul quantique.
01:28:01 Le rôle des analystes de marché et les biais potentiels dans le domaine.
01:33:46 Discussion sur une bonne diversité dans les équipes de recherche pour l’innovation.
01:34:54 Le calcul quantique et sa chronologie de développement.
01:37:56 Les défis de la prédiction de l’avenir du calcul quantique.
01:39:41 L’importance de rester informé dans le domaine en rapide évolution du calcul quantique.
01:40:33 Projets personnels dans le domaine.
01:43:15 Discussion sur diverses manières de travailler et de contribuer à l’écosystème.
01:44:22 La valeur des exercices d’écriture pour la croissance personnelle et organisationnelle.
01:45:37 Techniques pour organiser et mettre à jour le contenu, y compris la gestion des bases de données.
01:48:00 Suggestions pour les PDG et CTO afin de comprendre le calcul quantique et ses applications potentielles.
01:50:28 Formats recommandés pour apprendre sur le calcul quantique, tels que les conférences et les présentations sur YouTube.
Résumé
L’expert en technologie quantique Olivier Ezratty discute avec Joannes Vermorel du potentiel du calcul quantique, de la communication quantique et de la détection quantique. Le calcul quantique vise à exploiter des phénomènes quantiques tels que la superposition et l’intrication pour exécuter des tâches dépassant les capacités des ordinateurs classiques. La communication quantique a des applications qui vont au-delà de la sécurité, comme l’internet quantique et le calcul quantique distribué. La détection quantique peut mesurer des propriétés physiques avec une précision inégalée. Malgré les progrès réalisés dans le domaine, un fossé important subsiste entre les connaissances théoriques et l’implémentation pratique. La date d’adoption généralisée reste incertaine, les experts estimant qu’il faudra entre 10 et 15 ans avant que la technologie quantique n’atteigne son plein potentiel.
Résumé étendu
Dans cette interview, l’animateur Joannes Vermorel, fondateur de Lokad, discute du calcul quantique et des logiciels d’entreprise avec Olivier Ezratty, un expert en technologie quantique. Ezratty travaille dans le domaine depuis plus de deux décennies et a rédigé un rapport complet (Understanding Quantum Technologies - plus de 1000 pages) sur les technologies quantiques.
Ezratty s’est d’abord intéressé au calcul quantique après avoir appris la collaboration entre Google, la NASA et D-Wave sur un ordinateur capable d’exécuter des tâches 100 millions de fois plus rapidement qu’un ordinateur portable classique. Il avait initialement prévu de donner une conférence d’une heure sur le sujet, mais son travail a finalement abouti à la création d’un livre de 1 100 pages sur les technologies quantiques. Depuis, Ezratty s’est engagé dans divers rôles dans le domaine, notamment l’enseignement, le travail gouvernemental, le conseil et le lancement de l"Quantum Energy Initiative" pour répondre à l’impact environnemental des technologies quantiques.
En discutant du développement du calcul quantique, Ezratty met en lumière le rôle de la physique quantique dans les technologies existantes. Alors que toutes les technologies actuelles se basent sur la physique quantique, le calcul quantique vise à exploiter des phénomènes différents de ce domaine. Trois mécanismes spécifiques au calcul quantique sont la superposition des états quantiques, l’intrication et la capacité à contrôler des nanoparticules individuelles. Ces mécanismes n’ont pas été utilisés de la même manière dans les technologies précédentes.
L’interview aborde également la notion de “néant” dans le contexte de la physique quantique. Les fluctuations du vide, dans lesquelles des particules sont créées et détruites, démontrent que le néant n’existe pas et que les particules sont toujours en mouvement en raison de ces fluctuations.
Dans le domaine des logiciels d’entreprise, il y a eu un désintérêt général pour le matériel informatique, car on s’attendait à ce qu’il s’améliore de manière exponentielle sans aucun changement de la part des éditeurs de logiciels. Cette attitude persiste, malgré les progrès plus lents du calcul quantique par rapport au calcul classique. L’objectif ultime du calcul quantique est d’atteindre un “avantage quantique” ou un “seuil”, où les ordinateurs quantiques pourront exécuter des tâches que les ordinateurs classiques ne peuvent pas réaliser efficacement. La chronologie pour atteindre ce seuil reste incertaine.
Les technologies quantiques peuvent être catégorisées en différents paradigmes, y compris le calcul quantique, la communication quantique et la détection quantique. Chaque paradigme possède sa propre chronologie pour une mise en œuvre potentielle, certains pouvant avoir un impact en moins de cinq ans, tandis que d’autres pourraient nécessiter entre 10 et 20 ans. Il est essentiel que les acteurs de la technologie et de l’industrie restent informés de ces développements pour en comprendre l’impact potentiel.
Le calcul quantique vise à permettre des calculs impossibles à réaliser de manière classique, potentiellement plus rapides, meilleurs et avec une consommation d’énergie réduite. En revanche, la communication quantique a des applications allant au-delà de l’amélioration de la sécurité. Elle peut contribuer à créer un internet quantique et permettre un calcul quantique distribué. De plus, la communication quantique peut donner lieu à des capteurs quantiques plus précis, capables d’améliorer significativement la précision de diverses mesures.
La détection quantique peut mesurer diverses propriétés physiques telles que la gravité, la pression, la température, la fréquence temporelle et le magnétisme avec une précision bien supérieure à ce qui est actuellement possible. Bien que les capteurs quantiques puissent être plus encombrants que les capteurs IoT existants, leur précision accrue peut avoir de nombreuses applications, telles que la détection de structures souterraines, l’identification de tunnels, la localisation de sources d’eau, et même des applications militaires comme la détection de sous-marins nucléaires.
Il existe également des applications positives pour la détection quantique, telles que l’installation d’un capteur de gravité quantique sur un satellite pour étudier le mouvement de la Terre et l’impact du changement climatique. Les progrès scientifiques ont souvent été stimulés par la disponibilité de nouvelles classes de capteurs, et la détection quantique a le potentiel d’ouvrir de nouvelles voies pour la recherche et la compréhension.
Ezratty explique ensuite le concept de suprématie quantique, un terme inventé par John Preskill en 2011. La suprématie quantique se réfère à une situation dans laquelle un ordinateur quantique peut effectuer un calcul impossible à réaliser pour des ordinateurs classiques dans un délai raisonnable. Cependant, la suprématie quantique actuelle, obtenue par Google et d’autres, ne consiste pas à effectuer des calculs comme nous sommes habitués à le voir dans les logiciels d’entreprise. Il s’agit plutôt d’un générateur de nombres aléatoires sans véritable flux de données en entrée ou en sortie. Lorsque Google a tenté d’utiliser son système quantique pour des calculs utiles, il n’a pu exploiter que 15 de ses 53 qubits. Ces 15 qubits peuvent être émuler de manière plus efficace sur un ordinateur portable.
La discussion se porte ensuite sur l’élément fondamental de l’informatique classique : le bit. Un bit est la plus petite unité d’information, représentée soit par un 0 soit par un 1. En revanche, un qubit, l’unité fondamentale du calcul quantique, peut être décrit à la fois comme un objet mathématique et physique. Physiquement, un qubit est un système à deux niveaux (TLS) pouvant exister simultanément dans deux niveaux d’énergie, grâce aux propriétés quantiques de la superposition. Mathématiquement, les qubits sont représentés par deux nombres complexes (coefficients) qui décrivent leur état superposé.
La puissance du calcul quantique vient du fait que l’espace d’information traité par les qubits croît de façon exponentielle avec chaque qubit supplémentaire. Cela contraste avec l’informatique classique, où l’ajout de bits a un effet linéaire sur la taille de la mémoire. Par exemple, un système avec 100 qubits peut gérer un espace d’information de 2^100 nombres complexes, ce qui est nettement plus grand que ce que les systèmes classiques peuvent gérer.
Les interviewés abordent également l’équation de Schrödinger, utilisée pour décrire le comportement ondulatoire des objets quantiques, comme les qubits. Lorsque deux ondes correspondant à différents niveaux d’énergie d’un qubit sont combinées, elles créent une troisième onde. Ce phénomène est au cœur du concept de superposition en mécanique quantique.
Ezratty explique qu’il existe deux principaux avantages du calcul quantique : la vitesse et l’espace. Les ordinateurs quantiques peuvent explorer un vaste espace de calcul et résoudre des problèmes complexes qui croissent de façon exponentielle avec le nombre de variables. Cependant, l’avantage en termes de vitesse provient des algorithmes utilisés et de la capacité à réduire le nombre d’opérations requises pour le calcul par rapport à l’informatique classique.
Un autre point de discussion est la difficulté d’alimenter un ordinateur quantique en données. Cela est dû à la lenteur des opérations sur les portes quantiques et aux limitations des systèmes quantiques actuels. Ezratty mentionne que des algorithmes hybrides, combinant calcul classique et calcul quantique, sont utilisés pour remédier à ce problème.
Le bruit est un autre défi important dans le calcul quantique. Les qubits actuels génèrent une quantité considérable d’erreurs, et la correction d’erreurs est nécessaire pour rendre les calculs utiles. Il existe deux façons d’aborder ce problème : les algorithmes peu profonds, qui ont un nombre réduit de portes et d’opérations et peuvent tolérer le bruit, et les codes de correction d’erreurs qui utilisent la redondance pour corriger les erreurs à chaque opération.
La mitigation d’erreurs quantiques est une autre approche en cours d’exploration, qui utilise le machine learning pour entraîner le système à comprendre et corriger les erreurs une fois le calcul terminé. Cette méthode devrait étendre la capacité des systèmes de calcul quantique bruyants, bien que le seuil pour un calcul quantique utile dans les applications d’entreprise n’ait pas encore été atteint.
L’interview aborde également les types d’algorithmes pouvant être mis en œuvre dans les systèmes quantiques à court terme. Ceux-ci incluent les simulations chimiques, les algorithmes d’optimisation et le quantum machine learning. Cependant, chacun de ces domaines d’application présente son propre ensemble de défis et de limitations.
Ezratty souligne que la science de la compréhension des accélérations quantiques est encore en cours d’élaboration, car il existe un fossé important entre les connaissances théoriques et l’implémentation pratique. Bien que des progrès soient réalisés, il reste beaucoup de travail à faire pour créer des ordinateurs quantiques véritablement utiles, capables de fournir des avantages concrets par rapport aux systèmes classiques.
La conversation se tourne alors vers l’interaction entre les qubits et l’électronique classique. Les qubits, les unités de base de l’informatique quantique, peuvent être contrôlés par l’électronique classique, les photons étant envoyés vers le qubit pour en modifier l’état. La discussion porte ensuite sur la nécessité de températures extrêmement basses pour l’informatique quantique. La plupart des technologies d’informatique quantique nécessitent des environnements froids, les qubits supraconducteurs ayant besoin d’environ 15 millikelvins. Le processus de refroidissement peut être complexe et requiert une approche en plusieurs étapes.
Les qubits en silicium, ou qubits à spin en silicium, sont évoqués comme une alternative pouvant fonctionner à des températures légèrement plus élevées, entre 100 millikelvins et un kelvin. Une autre technologie discutée est le contrôle de photons individuels à température ambiante à l’aide de guides d’ondes. Bien que le refroidissement soit toujours nécessaire aux deux extrémités du système, il n’est pas requis entre les deux.
Le sujet se déplace ensuite vers les atomes neutres, qui peuvent être refroidis et positionnés à l’aide de lasers dans une technique connue sous le nom de piège magnéto-optique. Ce procédé permet d’atteindre une température dans la gamme des nano-kelvins, bien que le refroidissement reste nécessaire pour la pompe qui élimine les atomes de la chambre.
Une autre technologie quantique évoquée est celle des centres NV, qui présentent des applications potentielles en informatique quantique et en détection. Une entreprise australienne, Quantum Reliance, a développé un système à cinq qubits qui fonctionne à température ambiante, bien que son évolutivité reste incertaine.
La conversation met en lumière la complexité et la diversité des technologies quantiques, avec de nombreux types de qubits et des exigences de refroidissement variées. Ezratty souligne l’importance de rencontrer un éventail diversifié de scientifiques, d’ingénieurs et d’informaticiens pour mieux comprendre le domaine.
Ezratty souligne l’importance de lire des articles scientifiques et de rechercher des perspectives variées auprès d’experts des différents sous-domaines des technologies quantiques. Malgré la complexité et l’évolution constante du domaine, il est essentiel de mettre continuellement à jour ses connaissances pour suivre les développements.
Ezratty partage ses expériences d’apprentissage des technologies quantiques et de rencontres avec divers scientifiques et experts du domaine. Il insiste sur l’importance de la sérendipité pour créer des liens avec des personnes pouvant apporter des éclairages et des informations précieuses. En parcourant le paysage des technologies quantiques, Ezratty recherche des indices dans les articles scientifiques et les communications des fournisseurs afin de comprendre l’état de l’art.
Dans l’entretien, Vermorel établit des parallèles entre le domaine des technologies quantiques et son propre domaine d’expertise, l’optimization de la supply chain. Les deux domaines présentent une vaste gamme de perspectives de niche, de fournisseurs et de philosophies concurrentes. Vermorel souligne l’importance d’adopter un esprit critique lors de l’évaluation des affirmations et de la recherche de coûts cachés ou d’inconvénients non révélés.
Ezratty souligne que comprendre les métriques utilisées dans les technologies quantiques est essentiel pour évaluer la qualité des qubits et la performance des ordinateurs quantiques. Cependant, trouver des métriques cohérentes peut s’avérer difficile en raison des différentes techniques de mesure et des références dans le domaine. Il note également que la récente disponibilité d’ordinateurs quantiques sur le cloud computing a facilité aux chercheurs la comparaison et l’évaluation de systèmes différents de manière cohérente.
Malgré la complexité du domaine et les difficultés à appréhender les publications scientifiques, Ezratty estime que l’écosystème des technologies quantiques est relativement ouvert. Il reconnaît que les fournisseurs peuvent parfois exagérer leurs performances, mais il soutient que le domaine est généralement accessible à ceux qui sont prêts à investir du temps et des efforts pour s’y former.
Vermorel et Ezratty évoquent l’impact des grandes entreprises sur le domaine, notant qu’elles attirent souvent des capitaux-risque, mais peuvent aussi être sujettes à des distorsions corporatives. Ils abordent également le rôle des analystes de marché, qui deviennent souvent biaisés en raison des incitations financières provenant des fournisseurs, faussant potentiellement le développement de l’industrie.
Ezratty explique comment certaines technologies d’informatique quantique pourraient offrir des avantages pratiques dans les années à venir, comme les ordinateurs quantiques analogiques. Toutefois, le calendrier pour une adoption généralisée reste incertain, de nombreux experts estimant qu’il faudra 10 à 15 ans avant que la technologie n’atteigne son plein potentiel.
L’un des principaux défis dans la montée en puissance de l’informatique quantique est de passer de centaines de qubits à des millions, ce qui pose d’importants défis d’ingénierie et d’énergie. Le domaine est caractérisé par une vaste gamme de technologies concurrentes, rendant difficile la prédiction de celle qui s’avérera finalement fructueuse.
Ezratty souligne qu’il existe actuellement une grande créativité et de l’innovation dans le domaine, en particulier dans les techniques de correction d’erreurs. Malgré le scepticisme entourant la faisabilité d’atteindre des millions de qubits intriqués, il estime que l’ingéniosité des ingénieurs et des scientifiques pourrait finalement mener à des percées.
L’entretien traite de l’importance de rester informé des avancées dans les technologies quantiques. Comme le domaine évolue sans cesse, se former en continu est crucial pour comprendre la portée des nouvelles annonces et percées. Ezratty partage son intérêt personnel pour le domaine ainsi que ses projets futurs, soulignant le défi intellectuel et l’excitation que suscitent les technologies quantiques.
Olivier mentionne qu’il travaille actuellement sur la sixième édition de son livre, rédige des articles scientifiques et s’engage dans des activités qui renforcent l’écosystème quantique français et européen. Il participe également à l’enseignement, à la formation et à l’animation de deux séries de podcasts avec Fanny Piat, qui est devenue une leader quantique chez OVHcloud. L’objectif ultime d’Olivier est de contribuer au succès de l’écosystème quantique français et européen.
Les deux intervenants insistent sur l’importance de l’écriture comme moyen de structurer et de partager des idées. Joannes estime que l’exercice de l’écriture est incroyablement bénéfique, même si le contenu n’est jamais publié. Cette conviction est partagée par Olivier, qui présente quelques-unes de ses techniques d’organisation, comme l’utilisation d’un document Word avec le même sommaire que celui de son livre pour suivre les mises à jour et les nouvelles informations.
Olivier tient également diverses bases de données, comprenant une liste des lauréats du prix Nobel en physique quantique, des entreprises quantiques et des fidélités de qubits. Il estime que rester organisé et réutiliser intelligemment le contenu est crucial lorsqu’on travaille de manière indépendante.
En ce qui concerne ses suggestions aux PDG et aux CTO d’entreprises confrontées à des domaines opaques comme l’informatique quantique, Olivier recommande de lire son livre pour se faire une idée de ce que l’informatique quantique pourrait apporter à leurs entreprises. Il insiste sur l’importance de ne pas se fier uniquement à la presse, mais de rechercher des avis spécialisés et de diversifier les sources d’information.
Assister à des conférences, regarder des vidéos éducatives sur YouTube et participer à des événements offrant une compréhension approfondie des technologies quantiques sont également recommandés pour ceux qui s’intéressent au domaine. En fin de compte, Olivier est convaincu qu’une bonne compréhension de l’état actuel et du potentiel des systèmes quantiques peut être acquise par différents formats éducatifs, tels que des conférences ou des présentations d’une durée d’une à deux heures.
Transcription complète
Joannes Vermorel: Bienvenue sur Lokad TV. Je suis Joannes Vermorel, le PDG et fondateur de Lokad, et aujourd’hui j’accueille Olivier Ezratty en tant qu’invité. Olivier est technologue et futuriste depuis plus de deux décennies, d’après ce que je peux constater, et j’affirme cela avec la plus grande estime. Il a une méthodologie très particulière, qui consiste à choisir un sujet très important et vaste et à tenter d’en percer le sens. Le sujet du jour pour cet épisode sera l’informatique quantique et les logiciels d’entreprise. Il se trouve qu’Olivier, dans son style si particulier, a produit il y a quelques années un rapport absolument gigantesque de 1100 pages portant sur toutes ces technologies quantiques.
Je vais d’ailleurs avouer dès maintenant au public que mes connaissances en mécanique quantique se limitent aux 200 premières pages d’un livre intitulé “Introduction to Quantum Mechanics” de Griffiths, qui est essentiellement un manuel destiné aux étudiants. Je ne prétendrai donc pas être un expert, mais nous allons parcourir ce chemin ensemble. Et pour commencer, peut-être, Olivier, pourrais-tu nous en dire un peu plus sur comment, si j’ai bien compris, il y a environ cinq à six ans, tu t’es lancé dans ce périple quantique ? As-tu décidé un matin : “Je vais devenir un expert dans le domaine” et as-tu fini par produire sans doute le plus grand compendium que j’aie jamais vu sur ce sujet, lequel est un rapport colossal, mais qui ressemble en réalité plutôt à un livre immense ?
Olivier Ezratty: Eh bien, je n’avais pas planifié ce que je ferais dans le domaine quantique. Cela a commencé il y a environ huit ans, en 2015, lorsque j’ai découvert que Google, la NASA et D-Wave communiquaient au sujet de ce type d’ordinateur étrange que D-Wave produisait. Ils parlaient d’exécuter certaines tâches 100 millions de fois plus vite qu’un ordinateur portable classique, ce qui m’a quelque peu déconcerté. Ce qui m’a surpris à l’époque – et je pense que c’est encore vrai aujourd’hui – c’est que tous les articles scientifiques décrivant cet ordinateur et ce que faisait Google avec lui étaient incroyablement complexes. J’étais persuadé que toutes ces personnes qui écrivaient à propos de cet ordinateur n’y comprenaient rien, alors je me suis dit : “Peut-être qu’un jour, je comprendrai cela.”
Ainsi, j’ai décidé en 2016 de me préparer, pour être en mesure en 2018 de donner une conférence d’une heure très simple. Je me suis associé à un ami nommé Fran Ibuto, et j’exposerai notre histoire plus tard. Nous avons décidé de donner cette conférence en 2018, puis j’ai rédigé 18 articles sur mon blog. Cela est devenu la base de mon livre, qui comptait alors 300 à 350 pages. Ensuite, j’ai passé à l’anglais pour la première édition, la quatrième, puis la cinquième, publiée en septembre 2022, qui compte en effet plus de mille pages.
Entre-temps, j’ai réalisé énormément de choses dans ce domaine. Je collabore avec des chercheurs, j’enseigne dans différentes écoles, je travaille avec le gouvernement sur diverses activités, je suis formateur en entreprise, je conseille dans de nombreuses situations, et je suis expert pour Bpifrance, entre autres. Je travaille même avec le gouvernement au niveau ministériel pour concevoir les futures itérations du plan français.
La chose la plus importante que j’ai également lancée l’année dernière est la soi-disant “Quantum Energy Initiative”. Il s’agit d’une initiative de recherche lancée avec quelques amis chercheurs, en particulier Alexis Feb, un cher ami désormais basé à Singapour. Nous avons lancé cette initiative pour nous assurer que les personnes créant des ordinateurs quantiques et d’autres technologies quantiques se préoccupent dès la phase de conception de l’impact environnemental de ces technologies. Ainsi, nous voulons nous assurer qu’un ordinateur quantique, un ordinateur évolutif, ne consommera pas plus d’énergie que ce qui sort d’une centrale nucléaire. Et il reste du travail à faire sur ce point. Je lisais vos rapports – d’ailleurs, j’ai lu environ les 300 premières pages, puis j’ai survolé le reste. J’ai sauté à la dernière section sur la détection quantique, qui est très intéressante. Je m’excuse donc auprès du public, je fais quelque chose que beaucoup de personnes font dans les talk-shows, à savoir parler de livres qu’elles n’ont pas lus. Donc, je l’ai lu partiellement. L’une des choses vraiment intéressantes était que, intellectuellement, je le savais, mais je n’avais jamais fait le lien : les transistors sont en réalité un effet quantique. Il s’agit de l’effet de champ, et c’est ce que tu défends dans la toute première section de ton rapport.
Joannes Vermorel: Bien que l’informatique quantique soit récemment devenue un mot à la mode, il s’avère que si l’on pense à l’informatique classique, celle-ci est déjà enracinée dans la première révolution quantique qui remonte aux années 1950. Les disques durs que nous possédons, dotés d’une grande magnétorésistance, sont également un effet quantique, notamment pour le spin-drive, c’est-à-dire les plus récents, ceux qui disposent de téraoctets et plus de stockage. Toutes les technologies existantes sont fondées sur la physique quantique.
Olivier Ezratty: Oui, je veux dire, tout cela. Même l’astrophysique, comme le télescope James Webb, utilise la physique quantique. La fibre optique pour les télécommunications repose sur la physique quantique. Tout est basé sur la physique quantique à l’échelle de l’électron, de l’atome ou du photon. Cependant, les phénomènes ne sont pas les mêmes. Les phénomènes de la physique quantique que nous utilisons dans les technologies existantes ne sont pas ceux que nous souhaitons exploiter dans l’informatique quantique. C’est là qu’il y a une petite différence. Dans la physique quantique utilisée aujourd’hui, nous nous appuyons principalement sur notre bonne compréhension de la façon dont la lumière interagit avec la matière. Ainsi, un photon qui déplace un électron et crée un courant, par exemple, permet de fabriquer un panneau solaire.
Olivier Ezratty: Dans la technologie des transistors, il existe une compréhension très fine des niveaux d’énergie dans des matériaux semi-conducteurs tels que le silicium. Dans les technologies quantiques de la deuxième révolution, notamment l’informatique quantique, nous utilisons trois mécanismes très spécifiques que nous n’avions pas exploités jusqu’ici. Le premier est la superposition des états quantiques, un phénomène réel dont l’interprétation mathématique et physique est d’ailleurs assez difficile à cerner. Le deuxième est l’intrication, c’est-à-dire que certaines particules peuvent partager un passé et un futur communs. Elles se comportent comme une seule particule, et cela constitue la source d’une grande puissance en matière de calcul, de communication, et même de détection.
Olivier Ezratty: Ensuite, nous avons le fait que nous pouvons désormais contrôler expérimentalement des nanoparticules individuelles. Nous ne pouvions pas le faire dans un transistor où des milliards d’électrons circulent, ni dans un laser avec des milliards de photons. Désormais, nous sommes capables de générer, contrôler et mesurer un seul électron, un seul photon, et un seul atome. Nous pouvons même contrôler un atome dans le vide à l’aide d’un laser. C’est nouveau, et c’est ce que nous faisons désormais dans les technologies quantiques.
Joannes Vermorel: Oui, bien que je comprenne que même quand on commence à chercher à comprendre ce qu’est exactement un atome, cela devient un peu flou. Vous savez, qu’est-ce qu’un atome ? Il peut se trouver à une position donnée, mais il se déplace légèrement. Il est impossible d’avoir une particule immobile, car elle bouge toujours un peu. Sinon, le principe d’Heisenberg ne fonctionnerait pas. J’ai étudié la physique quantique et j’ai découvert que c’était un domaine très vaste. La chose la plus étonnante que j’aie découverte, c’est que le vide n’existe pas.
Olivier Ezratty: Oui, c’est exact. Cela signifie qu’il n’existe pas de néant dans l’espace, n’importe où dans le monde. Par exemple, si vous réalisez une expérience avec une boîte fermée, vous utilisez une soi-disant pompe à vide ultra-haute et vous éliminez tous les atomes. Ensuite, vous la refroidissez à une température très basse, disons quelques nano-Kelvin, pour vous assurer qu’il n’y a rien à l’intérieur – pas de micro-ondes, pas d’ondes électromagnétiques, rien. Si vous mesurez à l’intérieur, vous verrez que certaines particules sont créées et détruites. On appelle cela des fluctuations du vide. Et ce néant n’existe pas, ce qui est vraiment incroyable.
Joannes Vermorel: C’est fascinant. L’un de mes intérêts particuliers est l’histoire des sciences, et l’aspect le plus amusant est que cela réhabilite en grande partie le concept d’éther. Au début du 20e siècle, on s’est débarrassé de cette idée pour faire place au vide, car on pensait que la nature n’aimait pas le vide. Ainsi, les gens ont réussi à écarter cette vieille idée et à dire : “D’accord, nous avons maintenant un vide réel.” Et l’éther, qui était l’ancien terme, a été relégué comme relevant d’une science fondamentalement ancienne et obsolète.
Ce qui est intéressant, c’est que nous sommes passés de “la nature n’aime pas le vide, donc nous avons besoin de cet éther” à une autre génération de scientifiques affirmant “non, nous avons un vide qui explique une multitude de choses.” Et cela a fonctionné. Et maintenant, nous en arrivons à dire : “Eh bien, il se trouve que lorsque vous mesurez les choses avec encore plus de précision, vous réalisez que le vide permettait en réalité une meilleure compréhension que ce que l’on pensait de l’éther auparavant.”
Olivier Ezratty: Exactement, parce que les fluctuations du vide se situent à une limite quantique très basse. C’est un phénomène de très faible intensité. Vous pouvez également utiliser une expérience avec l’effet Casimir, où deux plaques d’or sont très proches l’une de l’autre. Si vous placez ces deux plaques dans un vide à très basse température, elles seront attirées l’une vers l’autre, et cela est dû à ces fluctuations du vide. Mais ce n’est pas une sorte d’énergie spontanée, car si elles se collent, il faut ensuite les séparer en y apportant de l’énergie. Ainsi, le deuxième principe de la thermodynamique est toujours respecté ; il fonctionne toujours. Mais malgré tout, vous avez ce type de mouvement permanent, ce qui explique pourquoi une particule, comme un atome ou un électron, ne peut rester immobile.
Joannes Vermorel: Donc, si nous revenons à cette idée de cloud computing quantique et de logiciels d’entreprise, l’une des choses qui me frappe en tant qu’entrepreneur dans ce domaine, c’est que mes pairs manifestent généralement un désintérêt pour la sympathie mécanique. Ce que je veux dire par sympathie mécanique – et, encore une fois, je ne parle pas de tout le monde, mais spécifiquement du secteur des logiciels d’entreprise – c’est qu’en raison de la progression frénétique du matériel informatique depuis des décennies, il y a eu un désintérêt général pour ce dernier. C’était vraiment, dirais-je, une relation de cause à effet. Si vous disposez d’un matériel informatique et que vous vous attendez à ce qu’il devienne mille fois meilleur en une décennie, et que vous, en tant que fournisseur, n’ayez pas besoin de modifier ce que vous faites, alors pourquoi vous en soucier ? Vous vous asseyez, profitez du voyage, laissez les autres faire leur magie, et votre logiciel, aussi inefficace soit-il, résoudra le problème pour vous. C’était, je crois, l’attitude dominante chez de nombreux acteurs des logiciels d’entreprise et des ingénieurs.
Olivier Ezratty: Cela reste vrai, pour de bonnes et de mauvaises raisons. Les bonnes raisons sont que l’idée d’un ordinateur quantique est née il y a environ 40 ans, et les progrès réalisés ont été importants mais pas au même rythme que l’informatique classique. Si vous prenez le premier ordinateur, créé en 1946, l’ENIAC, et que vous ajoutez 40 ans, cela nous amène à 1986. En 1986, on avait la micro-informatique et le Mac, donc il y a eu énormément de progrès. Nous sommes passés du mainframe au mini-ordinateur, puis aux stations de travail et aux PC en l’espace de 40 ans. Dans la même période pour le quantique, nous en sommes encore aux prototypes. C’est plus lent et plus laborieux, mais si vous parlez à un physicien, il vous dira qu’il y a eu d’énormes progrès au cours des 10 dernières années, simplement pas à une échelle qui rende cela véritablement transformateur pour l’industrie.
La grande question est de savoir quand nous atteindrons ce que l’on appelle l’avantage quantique ou seuil, c’est-à-dire une situation où les ordinateurs quantiques seront capables d’exécuter des tâches que vous ne pouvez pas réaliser efficacement sur un ordinateur classique. Nous ne le savons vraiment pas. Certains paradigmes pourraient apporter de la valeur en moins de cinq ans, tandis que d’autres pourraient nécessiter plus de temps, peut-être de 10 à 20 ans. Il y a beaucoup d’incertitude. L’une des raisons pour lesquelles il est pertinent de s’intéresser à l’informatique quantique est que vous ne savez pas à quel rythme elle progressera ou transformera les industries. Si et quand cela fonctionnera, cela pourrait être extrêmement transformateur et changer de nombreuses industries où vous gérez des problèmes d’optimisation complexes. Ces problèmes pourraient être résolus de manière beaucoup plus efficace avec des ordinateurs quantiques. Il faut donc au moins étudier et comprendre où nous en sommes, même si vous êtes sceptique ou prudent quant au rythme des avancées dans cette industrie.
Vous devez être capable de déchiffrer les annonces d’IBM, de Google et d’autres. Si vous n’avez pas les compétences intellectuelles pour cela, vous pourriez manquer quelque chose ou être induit en erreur en pensant que cela fonctionne mieux ou moins bien qu’en réalité. Il est nécessaire de se former sur chaque nouvelle tendance, tout comme il faut se former sur le metaverse ou les crypto-monnaies, même si vous n’avez pas besoin de vous y impliquer.
Joannes Vermorel: Je me considère comme l’un de ces entrepreneurs doté d’une profonde sympathie mécanique. Je ne peux pas parler au nom de chaque employé chez Lokad, mais personnellement, j’ai un vif intérêt pour toutes les couches physiques qui alimentent notre activité. Cette compréhension, je le crois, est importante et a de nombreuses implications sur notre manière d’aborder les problèmes. Quand quelque chose me fait pressentir que le matériel va progresser de façon spectaculaire dans ce domaine, je dis que nous pouvons nous permettre d’adopter une approche complètement différente. Cependant, dans d’autres domaines, nous pourrions être bloqués. Par exemple, la vitesse de la lumière ne s’améliorera probablement pas de sitôt, voire jamais. Cela a des conséquences bien réelles sur ce qu’on peut faire en matière de calcul distribué.
Lorsque nous traitons autant de données, il y a des choses qui ne seront probablement jamais viables, comme répartir nos ressources de calcul à travers le globe. Pour de nombreuses raisons, il est bien plus aisé de concentrer le tout en un seul lieu. Il existe de solides arguments en faveur de limites strictes, rendant toute répartition alternative désavantageuse.
Maintenant, ce qui est intéressant, et en lisant votre rapport, c’est que j’avais d’abord mal interprété la situation en pensant en termes d’informatique quantique, bien que le terme approprié soit technologies quantiques. Plusieurs éléments m’ont particulièrement intrigué, comme la communication quantique, les télécommunications et la détection quantique. Pouvez-vous nous donner un aperçu des grandes ambitions visant à améliorer ces domaines de pointe ? Quels sont les secteurs où, grâce à cette compréhension de la mécanique quantique, les gens affirment que nous pourrions potentiellement réaliser des choses qui étaient peut-être auparavant impossibles, ou les faire de bien meilleure manière ?
Olivier Ezratty: La manière la plus simple de décrire l’informatique quantique est qu’elle est censée nous permettre d’effectuer des calculs que vous ne pouvez pas réaliser de manière classique, donc peut-être plus rapidement ou mieux à terme, et peut-être aussi en consommant moins d’énergie. C’est l’un des avantages de l’informatique quantique.
La communication quantique, en revanche, est bidirectionnelle. On peut la considérer comme un moyen d’améliorer la sécurité des communications, car l’une des technologies dans ce domaine est le fameux QKD, ou Distribution Quantique de Clés. C’est une méthode de distribution de clés de chiffrement plus sécurisée que les clés numériques classiques que nous utilisons avec les protocoles RSA et autres sur Internet. Mais au-delà de cela, la communication quantique est bien plus sophistiquée que la simple sécurité. Elle aidera, à l’avenir, à créer un soi-disant Internet quantique ou réseau quantique reliant des ordinateurs quantiques, et elle rendra possible, à terme, l’informatique quantique distribuée.
Elle peut également permettre la création de capteurs quantiques plus précis, car si vous disposez de différents capteurs quantiques connectés en continu via un réseau quantique, vous pouvez les améliorer. Il s’agit de capteurs qui permettent d’augmenter la précision de la mesure de n’importe quel paramètre physique souhaité – que ce soit la gravité, la pression, la température, le temps, la fréquence ou le magnétisme. Tout peut potentiellement être mesuré avec une précision accrue grâce à la détection quantique. Vous avez donc de très nombreuses applications.
Joannes Vermorel: C’est intéressant parce que, encore une fois, nous avons ces ensembles de technologies qui poursuivent des objectifs très différents. Je veux dire, des ambitions tout à fait différentes.
Olivier Ezratty: Oui, nous avons l’informatique, qui concerne véritablement un nouveau paradigme algorithmique. Nous souhaitons disposer du substrat physique adapté à différents types de problèmes. Mais il y a aussi les communications quantiques, qui offrent des mesures de sécurité entièrement nouvelles. C’est intéressant, car cela va bien au-delà de la sécurité.
Joannes Vermorel: Oh oui, et cela va bien au-delà.
Olivier Ezratty: La sécurité n’est qu’un aspect. Il existe d’autres solutions plus classiques pour améliorer la sécurité, comme la cryptographie post-quantique. Mais la communication quantique, au-delà de la sécurité quantique, est bien plus intéressante. C’est farfelu et davantage tourné vers le futur, car il existe de nombreuses technologies qui n’existent pas encore, comme les répéteurs quantiques. Une fois que cela fonctionnera, nous pourrons réaliser des choses très puissantes, comme communiquer entre deux ordinateurs quantiques. Cela pourrait tout permettre ensemble.
Premièrement, vous pouvez améliorer la puissance si vous avez deux ordinateurs quantiques connectés par un lien quantique. Cela multipliera la puissance de ces deux systèmes bien plus qu’une simple addition – c’est un effet exponentiel, complètement différent de ce que vous obtenez avec des ordinateurs classiques. Deuxièmement, si vous avez deux ordinateurs quantiques reliés par un lien quantique, vous améliorez la sécurité de cette connexion. Si quelqu’un intercepte la fibre optique qui relie ces systèmes, il n’obtiendra rien. C’est le meilleur système d’obfuscation qui permette une communication sécurisée entre deux parties.
Vous pourriez avoir un client quantique plus léger connecté à un grand système quantique à l’autre bout de la ligne, ce qui permettrait une communication très sûre. D’ailleurs, il existe un protocole appelé “The Blind Quantum Computing” qui réalise cela. Il a été inventé par quelques chercheurs, dont l’un vit en France. Elle s’appelle Anne, et elle a co-inventé ce protocole il y a plus de 15 ans.
Et la détection quantique est également quelque chose dont je n’avais même pas conscience qu’elle existait.
Joannes Vermorel: Quand vous parlez de mesures plus précises, pourriez-vous nous donner une idée des choses habituelles que nous souhaitons mesurer, comme le magnétisme ou la gravité ? Voyez-vous un potentiel dans ce domaine à une échelle incroyablement petite ?
Olivier Ezratty: D’après ce que je sais des capteurs quantiques, ils sont plus encombrants que les capteurs IoT existants dont nous disposons actuellement, mais ils offrent plusieurs ordres de grandeur de précision. Ainsi, dans certains cas, c’est très utile. Si vous souhaitez mesurer la gravité avec une précision bien supérieure, cela peut vous aider à détecter ce qui se trouve sous terre. Cela peut être utile dans de nombreuses situations. Une situation typique pourrait être de détecter des tunnels lors de la restructuration d’une ville. Comment détecter l’eau ? Cela pourrait également être utilisé pour détecter le pétrole, même si je ne suis pas sûr que nous devrions en chercher davantage. Il existe même des applications militaires potentielles, car si vous pouvez combiner une détection magnétique extrêmement précise avec une détection gravitationnelle, vous pourriez, en associant ces deux techniques, détecter un sous-marin nucléaire sous la mer. Cela pourrait modifier de nombreuses stratégies de dissuasion nucléaire pour plusieurs pays.
Joannes Vermorel: Et pour faire un léger détour, lorsque vous évoquez tout cela, j’ai souri intérieurement en entendant “Oh, nous avons cette technologie, et elle pourrait détecter des sous-marins”, ce à quoi je n’avais jamais pensé. Mais oui, si vous disposez d’un détecteur de masse ou de quelque chose qui fonctionnerait un peu comme une caméra infrarouge tout en vous indiquant simplement la densité de masse des éléments environnants, cela a tout son sens. D’ailleurs, il existe des usages plus positifs. Si vous installez un capteur de gravité quantique dans un satellite en orbite autour de la Terre, vous pouvez mener de nombreuses études géodésiques. Vous pouvez comprendre comment la Terre se déplace. Vous pouvez détecter l’impact du changement climatique sur la surface et les nappes phréatiques. Cela peut offrir de très nombreux cas d’usage positifs pour comprendre ce qui se passe sur notre planète.
Joannes Vermorel: Exactement. Je veux dire, la majeure partie du progrès scientifique a été largement portée par la disponibilité de nouvelles classes de capteurs. Et cela m’amène sur une petite digression. Olivier Ezratty est connu en France depuis des décennies, et avant de réaliser des reportages sur la tech quantique, Olivier avait réalisé un rapport gigantesque sur les startups et l’AI. Celui sur les startups a eu une importance très profonde pour moi parce que c’était un document hautement influent qui m’a guidé dans la mise en œuvre de Lokad. Et je pense qu’une des choses qui rend vos documents si marginaux, étranges, tordus et inhabituels est que vous adoptez une approche super holistique qui brouille complètement les lignes habituelles. Par exemple, lorsque j’ai dit que ce que je savais de la mécanique quantique provenait d’un livre, “Introduction to Quantum Mechanics”, ce livre de Griffiths est magnifiquement écrit. Il commence dès la première page avec l’équation de Schrödinger et en dérive une multitude de choses. C’est une approche incroyablement belle, mais aussi incroyablement étroite d’esprit. Sans vouloir offenser les professeurs qui font cela, ils font un travail remarquable. Ce qui est très intéressant dans vos rapports, c’est que vous apportez tant de perspectives différentes, comme si vous essayiez de collecter autant d’angles que possible, tels que l’histoire, l’économie, les incitations, la régulation, la durabilité, les mathématiques, etc. Vous avez une structure complètement diversifiée, et pour relier cela aux logiciels d’entreprise, je trouve cela très intéressant.
Dans le monde des logiciels d’entreprise, et la majorité de l’audience de cette chaîne étant dans les supply chains, les supply chains sont toujours opérées via des couches de logiciels d’entreprise. Vous n’interagissez pas physiquement avec la supply chain, vous avez des tas de niveaux d’indirections pour accomplir les choses. L’un des problèmes est que vous avez toutes sortes de couches de discours de la part de tous les fournisseurs qui ont chacun leur grain à moudre. Je m’intéressais à l’informatique quantique depuis longtemps, et je constate que beaucoup d’affirmations sont faites, parfois des déclarations grandioses, comme “Google a atteint la suprématie quantique”. Rien qu’avec ce terme, cela semble impressionnant. Supremacy, d’accord.
Olivier Ezratty: Ils n’ont d’ailleurs pas inventé le mot.
Joannes Vermorel: Ah bon?
Olivier Ezratty: J’ai parlé au gars qui a inventé le mot il y a environ deux semaines. Il s’appelle John Preskill, c’est un enseignant et un universitaire très célèbre au Caltech en Californie. Il a inventé ce mot, je pense, vers 2011. Google a utilisé cette terminologie, mais elle décrivait une situation où un ordinateur quantique est capable de réaliser un calcul que vous ne pouvez pas faire classiquement dans un temps raisonnable, qu’il soit utile ou non. Il se trouve que la suprématie quantique de Google et d’autres de Chine ne réalise pas un calcul comme nous le faisions dans les logiciels d’entreprise. Il n’y a pas de données en entrée, pas de données en sortie, c’est juste une sorte de générateur de nombres aléatoires, et vous devez vérifier que l’échantillonnage du générateur est approximativement le même en émulation classique qu’au sein du système quantique. Mais il n’y a pas de calcul réel.
Il est intéressant de noter que lorsque Google a dû utiliser son propre système pour réaliser un calcul utile, ils n’ont pas pu utiliser les 53 qubits qu’ils avaient utilisés pour l’expérience de suprématie, qui, soit dit en passant, ne produisait un bon résultat que 0,14 % du temps. C’est la probabilité que vous ayez d’obtenir un bon résultat. Ils ne pouvaient utiliser qu’au maximum 15 qubits sur 53, et 15 qubits peuvent être émuler de manière plus efficace, c’est-à-dire plus rapidement sur votre propre ordinateur portable. C’est donc intéressant. À un moment donné, ils disaient qu’ils réalisaient des choses qui pourraient prendre des milliers d’années à être exécutées sur un ordinateur classique, voire le plus grand, et d’autre part, lorsqu’ils font des choses utiles, c’est nul.
Joannes Vermorel: Peut-être pour le contexte pour l’audience : un bit est quelque chose qui est, dans sa version classique, juste un zéro et un un, et c’est fondamentalement l’un des éléments de base de l’information de très bas niveau que l’on puisse créer sur Terre.
Olivier Ezratty: Exactement.
Joannes Vermorel: C’est une vision très discrète et élégante, ancrée dans les mathématiques de base. Je pense que l’audience a une très bonne compréhension de ce qu’est un bit, mais peut-être pas. La plupart des programmeurs n’ont aucune idée de comment un processeur fonctionne.
Olivier Ezratty: Oui, mais supposons qu’il y ait une compréhension générale d’un bit dans l’audience, juste pour la constitution de cet épisode.
Joannes Vermorel: Je suis sûr que notre audience a une très bonne compréhension de ce qu’est un bit, mais la plupart des programmeurs n’ont aucune idée de comment fonctionne un processeur. Supposons qu’il y ait une compréhension générale d’un bit, juste pour cet épisode.
Olivier Ezratty: Exactement, donc nous avons la logique de base, etc. Lorsque nous entrons dans le domaine des qubits, il y a tellement de confusion parce que j’ai lu en ligne tant de choses contradictoires sur ces qubits. Peut-être pourriez-vous nous donner une idée des éléments essentiels qui font d’un qubit un qubit et comment il diverge complètement de la partie classique.
Joannes Vermorel: Fait intéressant, un qubit peut être décrit comme un objet mathématique ou un objet physique, mais ils sont inextricablement liés. C’est la même chose d’un point de vue physique.
Olivier Ezratty: Commençons par l’aspect physique. Un qubit est ce qu’on appelle un TLS, un système à deux niveaux. C’est un objet quantique qui possède deux niveaux, comme un atome qui a deux niveaux d’énergie : un état fondamental sans excitation et un état excité. Dans le monde réel, un atome possède de nombreux états excités. Vous pouvez contrôler ces deux niveaux d’énergie à l’aide de lasers ou d’autres moyens. Par exemple, vous pouvez contrôler le spin d’un électron, qui est quantifié, de sorte qu’il ne peut être que vers le haut ou vers le bas dans une direction donnée, vous donnant ainsi deux valeurs. Si vous prenez un photon, il peut avoir différentes polarisations.
Il existe également des objets composés comme les boucles supraconductrices. Un qubit supraconducteur n’est pas un objet unique ; ce sont des milliards d’électrons circulant dans une boucle. Dans cette boucle, qui est maintenue à une température très basse, il y a une barrière appelée jonction Josephson. Cette barrière permet la création d’un effet tunnel, qui aboutit à un phénomène étrange où vous pouvez avoir une superposition de deux niveaux d’énergie différents, ou de phases et d’amplitudes du courant circulant dans la boucle, créant ainsi un système à deux niveaux.
Étant un système quantique, un qubit peut être superposé dans deux états différents. Vous pouvez avoir simultanément l’état fondamental et l’état excité d’un atome, une superposition du spin vers le haut ou vers le bas d’un électron, ou une superposition de différentes polarisations d’un photon.
Maintenant, si vous regardez la partie mathématique, la superposition peut être exprimée comme un poids pour le zéro et le un, qui correspondent à l’état fondamental ou à l’état excité. Ces coefficients, généralement appelés Alpha et Beta, se révèlent être des nombres complexes et doivent être normalisés. Vous pourriez décrire la superposition de ces deux états dans un qubit par deux nombres. Fréquemment, ils sont décrits dans la soi-disant sphère de Bloch, une sphère où un vecteur décrit l’état de votre qubit. Lorsque le vecteur se trouve au pôle Nord, cela signifie que vous êtes à zéro ; lorsqu’il est au pôle Sud, c’est un. Toutes les positions intermédiaires ailleurs, comme sur l’équateur, correspondent à un état superposé comportant une partie de zéro et une partie de un. Si vous vous trouvez dans l’hémisphère sud, cela signifie que vous avez plus de uns que de zéros; si vous êtes dans l’hémisphère nord, cela signifie que vous avez plus de zéros que de uns. Si vous faites le tour de l’équateur, cela signifie que vous avez une phase différente du signal. En fait, j’ai trouvé intéressant de faire une comparaison entre un qubit et un simple signal électronique. Lorsque vous gérez un signal de réseau comme un signal sinusoïdal, vous avez une phase et une amplitude, et un qubit est plus ou moins comme cela. C’est une phase et une amplitude, et vous mesurez ces deux valeurs avec les deux valeurs qui décrivent votre qubit.
Alors, qu’est-ce que cette superposition ? La superposition découle du fait que tous ces objets quantiques avec lesquels vous traitez en physique quantique peuvent se comporter comme une particule ou comme une onde, selon la manière dont vous les observez ou les manipulez. La meilleure manière de comprendre ce qu’est un qubit est d’examiner le comportement ondulatoire de ces objets quantiques. Il est facile de comprendre que si vous avez deux ondes correspondant à un état fondamental et à un état excité, vous pouvez additionner les deux ondes, ce qui en fait une troisième. Ceci est basé sur l’équation de Schrödinger, d’ailleurs. Une solution de l’équation de Schrödinger pour l’état fondamental est une solution, une solution pour l’état excité en est une autre, et il se trouve que puisque c’est l’algèbre linéaire qui est utilisée dans l’équation de Schrödinger, une combinaison linéaire de ces deux solutions constitue une autre solution.
C’est donc une vision mathématique de l’équation de Schrödinger. Une combinaison linéaire de deux ondes donne une autre onde, comme deux notes de piano, un do et un C, qui donnent une autre note. Mais cela ne vous dit pas d’où vient la puissance. La puissance provient du fait que si vous avez plusieurs qubits côte à côte et que vous pouvez les connecter, l’espace de données que vous manipulez croît de façon exponentielle avec le nombre de qubits. Ainsi, cela signifie que si vous ajoutez un qubit, puis un troisième, un quatrième qubit, à chaque fois vous multipliez par deux l’espace de données. Supposons que vous ayez 100 qubits. Si vous avez 100 qubits, cet objet quantique composé gère un espace d’information dont la taille est de 2 puissance 100 nombres complexes. C’est beaucoup de données, mais c’est analogique. Vous gérez un espace de données analogique, mais c’est un espace énorme qui croît beaucoup plus rapidement que celui des bits classiques.
Joannes Vermorel: Je pense qu’une chose qui diffère vraiment du paradigme classique est que lorsque les gens parlent d’un bit, ils pensent à quelque chose où l’ajout de bits est un processus très additif. Quand vous ajoutez des bits de mémoire, c’est linéaire. Vous avez deux fois plus de mémoire, c’est cool, ainsi vous pouvez, vous savez, avoir deux fois plus d’onglets Slack ouverts sur votre ordinateur, ou autre. Mais c’est fondamentalement complètement linéaire. Et ici, ce que vous dites, c’est que, évidemment, nous avons des systèmes informatiques où les gens ne parlent même pas en bits parce que les nombres seraient si gigantesques. D’abord, ils parlent en bytes, qui sont des paquets de huit, puis les gens ne parlent même plus en bytes, habituellement ils parlent en mégaoctets, gigaoctets ou téraoctets. Les nombres auxquels nous sommes habitués sont absolument gigantesques. Mais parce qu’il faut des nombres gigantesques au sens classique pour faire des choses d’un réel intérêt, vous n’êtes pas impressionné en disant, “J’ai quelque chose qui ferait 53 bits.” Les gens diraient, “Eh bien, vous savez, il n’y a vraiment rien. Je veux dire, c’était à l’époque de l’ENIAC, certes, mais de nos jours, on a plus de mémoire.”
Olivier Ezratty: Ouais, exactement. C’était déjà des milliers de bits. Donc, cela semble décevant, mais cela manque le point. Le point, si je comprends bien, c’est que lorsque les gens disent qu’ils ont 20, 50, 60 ou 100 qubits, ils veulent dire qu’ils ont un système où tous sont complètement intriqués. Ils font partie d’un même système, et ils peuvent agir ensemble. Deux systèmes qui sont, disons, 50 qubits plus 50 qubits ne sont absolument pas équivalents à 100 qubits.
Joannes Vermorel: Exactement. Mais il y a beaucoup d’idées reçues à ce sujet.
Olivier Ezratty: Par exemple, on peut se laisser tromper en pensant que la vitesse de l’informatique quantique provient de l’espace de calcul. Ce n’est pas vrai. Il y a un avantage en terme d’espace et un avantage en terme de vitesse, et ils sont liés, mais ils sont différents. En effet, si vous avez n qubits, vous disposez d’un espace de calcul de 2^n nombres complexes. Donc, pour être précis, cela représente 2^(n+1) nombres réels ou nombres à virgule flottante si l’on parle en termes informatiques. Mais cela n’explique pas pourquoi on peut calculer plus rapidement.
Calculer plus rapidement signifie que vous disposez d’un nombre d’opérations appelées portes quantiques qui ne croissent pas aussi rapidement que dans l’informatique classique. Ainsi, dans l’informatique classique, les types de problèmes que nous cherchons à résoudre avec l’informatique quantique sont ceux qui croissent de manière exponentielle. Il existe de nombreux problèmes combinatoires qui croissent de manière exponentielle avec le nombre de variables, et nous voulons que ces problèmes ne croissent pas de manière exponentielle en temps de calcul sur l’ordinateur quantique. Cela signifie donc que vous devez avoir un nombre d’opérations inférieur, croissant, disons, de manière linéaire ou logarithmique, voire polynomiale, et non exponentielle sur l’ordinateur quantique, alors qu’il croît de manière exponentielle sur l’ordinateur classique. Et puis il y a des constantes qui peuvent rendre les comparaisons difficiles, mais quand même.
La longueur de l’algorithme détermine la vitesse de l’ordinateur quantique. L’algorithme utilise de nombreuses intrications, donc les connexions entre les qubits. Vous devez trouver un moyen d’assembler un algorithme qui sera efficace, et c’est là que réside la science de l’informatique quantique, qui est complémentaire à la taille.
Et il y a un autre aspect qui n’est pas une idée reçue mais qui n’est pas vraiment bien connu. Lorsque vous mesurez le résultat de votre algorithme à la fin, vous obtenez n bits, et non n qubits. Vous obtenez donc un 0 ou un 1 pour chacun des 100 qubits que vous possédez. Vous obtenez donc une petite quantité d’informations à la fin. Vous manipulez une richesse d’informations, 2^100 nombres complexes pendant votre calcul, et au final, vous n’obtenez que 100 bits, des bits classiques.
Alors vous vous demandez, pourquoi tous ces efforts ? Cela signifie que la puissance de l’informatique quantique provient de la capacité à explorer un vaste espace d’informations mais, au final, à donner un résultat plus petit. Supposons que vous vouliez factoriser un grand nombre. La factorisation utilise un algorithme compliqué qui explore l’espace à l’aide de l’algorithme de Shor, qui est l’une des solutions à ce problème. Au final, il vous donne un petit nombre, un nombre composé de bits.
Cela explique la chose, et de plus, dans de nombreux algorithmes, ce que vous faites, c’est exécuter votre algorithme plusieurs fois, puis faire la moyenne des résultats pour obtenir un nombre à virgule flottante pour chacun des qubits que vous possédez. Une autre idée reçue est que l’informatique quantique est adaptée au Big Data.
Joannes Vermorel: Oui, c’est pourquoi je parlais de cela, car évidemment, cela ne fonctionne pas. La façon dont je l’entends, c’était aussi que cela me semble, en quelque sorte par conception, à moins que nous puissions d’une manière ou d’une autre concevoir des systèmes de qubits capables d’avoir, disons, des teraqubits ou quelque chose dans ce genre, ce qui serait un peu fou. Je veux dire, avoir des milliards et des milliards de qubits, oui, mais jusqu’à ce que nous y parvenions, nous voyons que nous avons une sorte d’engorgement même pour canaliser les données dans le système.
Mettre des données dans un ordinateur quantique est un gros problème. C’est encore un domaine de recherche car une porte quantique qui insère des données dans un qubit prend un certain temps. Ce n’est d’ailleurs pas très rapide. J’ai lu quelque part quelque chose comme 10 kilohertz ou quelque chose du genre, vous savez, de l’ordre de grandeur, chez IBM en ce moment, c’est entre 2 kilohertz et 10 kilohertz, ce qui signifie le nombre de cycles d’opérations par seconde. Ce n’est pas très rapide.
Olivier Ezratty: Oui, c’était même un trapped ion, qui est un système alcalin provenant d’IonQ ou de Honeywell aux États-Unis, c’est encore plus lent. Donc, ce n’est pas très rapide pour y insérer des informations. La plupart du temps, nous utilisons ce qu’on appelle des algorithmes hybrides où le chemin de données compliqué est réalisé par des algorithmes classiques, puis vous alimentez l’algorithme quantique avec les données compressées, bit à bit, qui ne nécessitent pas beaucoup de portes de contrôle. Ensuite, le calcul explore cet immense espace d’informations et produit un petit résultat.
Mais il y a autre chose qui pose problème actuellement. Lorsque nous concevons un algorithme quantique, la plupart du temps, nous pensons à un objet mathématique parfait, ce qubit mathématique qui réalise l’algèbre linéaire. C’est en quelque sorte une multiplication matrice-vecteur, qui se résume à une multiplication de matrice et de vecteur lorsqu’on contrôle les aspects mathématiques. Le problème, c’est que les qubits dont nous disposons aujourd’hui et que nous aurons à l’avenir sont bruyants. Ils génèrent une erreur significative à chaque calcul. Ainsi, il faut obtenir les données en moyenne.
Dans les systèmes quantiques existants, chaque opération génère une erreur de 1%. Cela signifie donc que si vous exécutez simplement une opération à la fin, vous n’obtenez aucun résultat correct. C’est un peu simpliste, mais cela donne une idée. De nombreux algorithmes censés apporter une accélération exponentielle nécessitent environ 10 puissance 9 ou 10 puissance 14 opérations. Ainsi, cela ne fonctionnera pas si vous avez trop de bruit. Nous finissons par nous retrouver dans une situation où nous devons trouver une solution de contournement à ce bruit.
Deux approches sont explorées. L’une consiste à trouver des moyens de créer des algorithmes capables de supporter ce bruit, appelés algorithmes superficiels. Ce sont des algorithmes qui possèdent un faible nombre de portes et d’opérations de sorte qu’ils n’atteignent pas le niveau où tout se dégrade. L’autre approche consiste à utiliser ce que l’on appelle des opérations contrôlées. Les opérations contrôlées sont un moyen de créer des qubits logiques, c’est-à-dire des qubits qui, vus de l’extérieur, présentent une bonne qualité. C’est celui dont nous avons besoin pour un algorithme donné, mais pour obtenir ce résultat, ces bits logiques sont constitués de nombreux qubits physiques redondants, et la redondance est énorme.
Les plans actuels indiquent que pour obtenir un qubit de très bonne qualité, nous avons besoin de 10 000 qubits. Pour obtenir un avantage quantique d’un point de vue purement mathématique, il faudrait disposer d’au moins 50 qubits, voire plutôt 100. D’ailleurs, c’est entre 50 et 100. Donc 100 qubits logiques multipliés par 10 000 qubits donnent 1 million de qubits. Il faut donc 1 million de qubits physiques de très bonne qualité pour créer un ordinateur quantique réellement utile qui apporte un avantage quantique. Actuellement, le dernier record provient d’IBM. Ils ont annoncé en novembre dernier, et ils lanceront en ligne dans quelques semaines, un système disposant de 433 qubits. Mais ces qubits ont des fidélités très faibles, probablement moins de 99% de fidélité. Cela signifie donc plus de 1% d’erreur pour chaque opération, ce qui, je dirais, n’est pas adapté pour faire quoi que ce soit de vraiment utile. C’est une étape dans une longue feuille de route d’IBM qui fait beaucoup de sens, mais c’est une étape intermédiaire. Il y a donc une grande différence entre 433 qubits et 1 million de qubits de très haute qualité qui pourraient implémenter la correction d’erreurs pour obtenir ce type d’avantage quantique réel. Il reste encore beaucoup de travail à faire.
Il existe une autre solution ; elle provient d’ailleurs d’IBM, de Google et d’autres. Ils utilisent une nouvelle méthode créée il y a quelques années, nommée mitigation d’erreur quantique. La mitigation est différente de la correction. La correction consiste à corriger les erreurs à chaque opération grâce à la redondance. La mitigation est un peu différente ; c’est une manière d’utiliser, en passant, l’IA, donc elle fait appel à beaucoup de machine learning. Vous entraînez votre système à comprendre les phénomènes d’erreur dans votre système, et vous effectuez une sorte de correction post-sélection. Ainsi, vous calculez vos résultats de nombreuses fois, et après un certain entraînement, vous êtes en mesure de corriger les résultats, mais seulement une fois que l’ensemble du calcul est terminé. Cela est censé étendre la capacité des soi-disant systèmes de calcul quantique bruyants. Le même individu qui a inventé le surnom de “quantum supremacy” a inventé un autre surnom appelé “NISQ”, qui signifie Noisy Intermediate-Scale Quantum computer. Il a conçu ce nom il y a exactement cinq ans, en 2018, donc encore une fois John Preskill. Et les soi-disant systèmes bruyants avec mitigation d’erreur quantique sont censés permettre un calcul quantique utile pour les entreprises. Mais nous n’avons pas encore atteint ce seuil ; cela pourrait être dans quelques années, mais il subsiste certaines incertitudes.
Joannes Vermorel: Cela a éveillé ma curiosité. Et encore, cela reste très spéculatif. Pour moi, il s’agit de recourir à des algorithmes superficiels, ce qui est probablement la perspective à court terme pour simplement faire fonctionner le système. Quant à la vision à long terme de la correction d’erreurs, il pourrait également y avoir d’autres approches qui diraient : “J’ai un substrat, un substrat physique qui réalise des opérations bruyantes. Peut-être faut-il simplement suivre le bruit, avec des éléments pour lesquels avoir des erreurs n’est pas vraiment problématique.” Et peut-être qu’en machine learning, je constate qu’il existe de nombreuses étapes où, par exemple, des articles montrent que l’un des goulots d’étranglement de, je dirais, l’une des versions modernes de l’IA, qui est deep learning, est que l’on se retrouve avec des multiplications de matrices qui consomment beaucoup de ressources. Certains articles très intéressants montrent que, en effet, la multiplication de matrices est ce que nous voulons d’un point de vue mathématique, mais en a-t-on réellement besoin opérationnellement ? Je veux dire, la précision dans cette précision, ou même, il se trouve que ce genre de choses fonctionne en deep learning, mais peut-être que la raison pour laquelle ils fonctionnent est complètement seulement tangente au simple fait que nous effectuons une version purement linéaire dans certains cas, nous réduisons la consommation d’énergie en diminuant la précision, passant exactement de 16 bits à 8 bits, voire à 1 bit dans certains cas, pour des systèmes limités. Voyez-vous des domaines où des gens manipulent des opérateurs qui sont très puissants à leur manière, même s’ils sont bruyants, pour réaliser des choses qui sont peut-être spéculatives ? Ainsi, ces choses ne sont probablement même pas accomplies, mais voyez-vous des domaines où des gens résoudraient effectivement avec l’informatique quantique des problèmes qui n’étaient même pas considérés comme particulièrement intéressants ? C’est très souvent le fait que l’on dispose des moyens pour le faire qui rend la chose intéressante.
Olivier Ezratty: Je dirais que la réponse est surtout non, et je vais détailler. Il existe principalement trois types d’algorithmes que l’on peut implémenter dans des systèmes à court terme. Le premier type est la simulation chimique, où vous simulez l’équation de Schrödinger, examinez les orbitales des électrons dans une molécule, et tentez de comprendre la structure d’une molécule. Vous devez trouver son état fondamental, le niveau d’énergie le plus bas, et toutes les molécules. Cela nécessite en fait beaucoup de précision. Donc, cela ne fonctionne pas bien, et cela requiert beaucoup de précision, particulièrement si vous voulez faire mieux que le calcul classique. Il existe déjà des systèmes basés sur des réseaux de tenseurs et différentes techniques pour la simulation chimique sur des systèmes classiques, qui fonctionnent bien, mais ils sont limités. Si vous souhaitez simuler une molécule plus complexe sur un système quantique, vous devez avoir une très grande précision.
Le deuxième type d’algorithmes est constitué des algorithmes d’optimisation, plus ou moins de l’optimisation binaire, comme le problème SAT, le max cut, et de nombreux algorithmes de recherche différents ou le fameux problème du voyageur de commerce. Ces systèmes n’aiment pas les erreurs non plus.
Le dernier type est le quantum machine learning (QML). Ce sont des systèmes pour lesquels on peut tolérer une certaine forme de bruit. Mais d’après ce que je sais, il existe certaines limitations quant à ce que l’on peut faire avec le quantum machine learning. D’une part, tous ces algorithmes possèdent une très grande partie classique et une très petite partie quantique. D’autre part, l’alimentation des données dans le système est très coûteuse. Jusqu’à présent, le quantum machine learning est l’un des domaines où, dans les systèmes à court terme, il n’existe pas beaucoup de preuves d’une véritable accélération du temps de calcul. C’est encore un domaine de recherche ouvert.
C’est vrai pour tout dans l’informatique quantique, mais comprendre où se trouvent les véritables accélérations pour chacune des catégories que j’ai décrites, et même pour les catégories qui concernent les qubits logiques qui seront un jour créés, est encore en cours d’élaboration. Vous disposez de beaucoup de théorie, mais celle-ci doit être confrontée à la réalité du matériel, à la réalité de toutes les surcharges liées à la correction d’erreurs quantiques, et à toutes les autres surcharges. Même la durée des portes est un élément à prendre en considération car, selon le type de qubit utilisé, la durée de la porte n’est pas la même.
Par exemple, si l’on prend un qubit superconducteur, qui domine aujourd’hui, la durée d’une opération sur un seul qubit est d’environ 20 nanosecondes, ce qui est plutôt court. Mais la durée d’une porte à deux qubits est généralement de quelques centaines de nanosecondes. Ensuite, il y a l’électronique qui contrôle la porte, car la porte n’est pas quantique. La porte résulte de l’émission d’un signal provenant d’un dispositif électronique classique. Le signal est généré sous forme d’une sorte d’impulsion micro-onde qui a une durée, et il est généré par de l’électronique classique, soit à température ambiante, soit parfois à une température très froide. Ce système présente un décalage, il faut un certain temps pour générer les données, puis ce système doit être contrôlé par un système classique car, dans la plupart des cas, un ordinateur quantique est toujours un ordinateur classique qui contrôle de l’électronique classique, générant une sorte de photon. Le photon peut être dans le régime micro-onde, disons environ cinq gigahertz, ou dans le régime optique, dans le spectre visible ou le spectre infrarouge, généralement pas en UV. Et ces photons sont envoyés au qubit, ils changent son état, puis nous envoyons d’autres types de photons ou d’autres fréquences sur le qubit. Vous voyez ce qui est émis par le qubit, vous examinez le signal, vous convertissez le signal de l’analogique au numérique, vous regardez le signal et vous en déduisez s’il s’agit d’un zéro ou d’un un. Ainsi, vous avez en quelque sorte une boucle entre l’informatique classique, l’électronique classique et le qubit dans un sens, et dans l’autre sens.
Joannes Vermorel: Cela m’amène à une question qui est, encore une fois, simplement pour tester un peu ma compréhension. Cela signifie aussi, je ne m’en étais pas réellement rendu compte, que les ordinateurs quantiques étaient ainsi contrôlés au niveau des portes par l’électronique. Mais d’après ce que je comprends, si vous voulez bénéficier de l’une de ces belles propriétés émergentes de la mécanique quantique, il faut être à des températures extrêmement basses.
Olivier Ezratty: Ça dépend. La plupart du temps, c’est vrai, mais il existe de grandes différences entre les types de qubits. Les qubits les plus exigeants en termes de température sont les qubits superconducteurs, qui nécessitent environ 15 millikelvins. Cela signifie donc que chaque fois que vous disposez d’un système électronique classique qui les contrôle, il va ajouter de l’énergie et peut-être les réchauffer un peu. C’est pourquoi il faut contrôler le niveau d’énergie dépensé à chaque couche, car vous n’atteignez pas immédiatement 15 millikelvins. C’est généralement un grand cylindre, donc vous commencez à 50 kelvins, puis vous descendez à 4 kelvins, ensuite à 1 kelvin, puis à 100 millikelvins, puis à 50 millikelvins. Il y a donc de nombreuses étapes pour atteindre cette température, et vous veillez à ce qu’à chaque fois qu’un signal électronique descend dans cette boucle, vous réduisiez le nombre de photons. Vous avez une atténuation du signal pour vous débarrasser des photons superflus au bon niveau afin de vous assurer que ce qui chauffe au niveau de 15 millikelvins soit réduit au minimum. Et dans l’autre sens, vous avez des amplificateurs, il y a un amplificateur à cette étape qui est utilisé pour amplifier le système lors de la lecture du qubit. Mais cela concerne les qubits superconducteurs. Ensuite, vous avez ce que l’on appelle les qubits en silicium ou les qubits spin de silicium. Ceux-ci utilisent des systèmes semi-conducteurs, ils exploitent le spin de l’électron, et ils peuvent fonctionner à une température plus élevée. Mais quand je dis plus élevée, c’est plutôt de 15 millikelvins à une plage comprise entre 100 millikelvins et 1 kelvin. C’est toujours très froid. C’est bien en dessous de la température de liquéfaction de l’azote, qui est de 77K. C’est même en dessous de celle de l’hydrogène liquide. C’est même en dessous de l’hydrogène liquide. C’est l’hélium, oui. L’hélium est au-dessus d’un kelvin, et il existe deux isotopes d’hélium, l’hélium-3 et l’hélium-4, qui ont des températures différentes pour atteindre cet état. Bref, ce n’est pas votre congélateur domestique.
Joannes Vermorel: Oui, le congélateur coûte plus d’un million d’euros, donc c’est assez cher. Mais il existe d’autres technologies qui sont différentes. Prenons par exemple les photons.
Olivier Ezratty: Si vous souhaitez contrôler des photons dans un processeur, cela peut se faire à température ambiante, mais vous avez tout de même besoin de cryogénie car, la plupart du temps, il faut refroidir la source du photon, qui est dans la plupart des cas basée sur un effet semi-conducteur devant être refroidi. Permettez-moi donc de vous donner un exemple venant de France. Nous avons une startup appelée Candela. Ils disposent de leur propre source de photons qui est basée sur ce que l’on appelle un système semi-conducteur trois-cinq, qui est basé sur l’arséniure de gallium et l’aluminium, avec de nombreuses couches et des miroirs de Bragg ainsi que des points quantiques dits. Ce petit dispositif doit être refroidi à environ 4 Kelvin pour générer un flux de photons individuels qui sont ensuite utilisés pour le calcul. Ensuite, les photons individuels entrent dans un circuit avec des guides d’ondes qui sont à température ambiante, et à la fin, il faut détecter les photons un par un. Ainsi, à température ambiante, vous pouvez disposer d’un système où des photons sont contrôlés individuellement.
Joannes Vermorel: Oh, c’est intéressant. Je ne savais pas que les guides d’ondes pouvaient interagir les uns avec les autres.
Olivier Ezratty: Oui, et à la fin, il faut compter le nombre de photons que vous avez sur chaque guide d’ondes. Le détecteur de photons lui-même doit être refroidi car la technologie la plus prometteuse pour détecter les photons individuellement est basée sur un effet superconducteur, et ces systèmes sont également refroidis à environ 4 Kelvin. Ainsi, il faut du refroidissement aux deux extrémités du système, mais pas entre les deux. Prenons maintenant les atomes neutres ; c’est une tout autre affaire.
Joannes Vermorel: Sur la fiche technique de ces fournisseurs, ils indiquent qu’aucun refroidissement n’est nécessaire, mais ce n’est pas vrai.
Olivier Ezratty: Ce qu’ils font, c’est qu’ils doivent contrôler les atomes, les placer à un endroit précis dans le vide. Pour ce faire, ils utilisent des lasers dans trois directions et se servent d’une technologie dite Magneto-Optical Trap, inventée par Jean Dalibard, qui fut l’un des doctorants d’Alain Aspect. Cette technique est utilisée pour contrôler la position de l’atome mais pas pour refroidir le système. Ils utilisent un autre système avec un laser différent et un dispositif spécial qui contrôle individuellement la position de chaque atome. Lorsque les atomes sont refroidis et positionnés avec grand soin, leur température se situe dans la gamme des nano-Kelvin. Étonnamment, ils n’ont pas eu recours à un réfrigérateur ; ils ont simplement utilisé une pompe pour extraire des atomes du système, ainsi que des lasers. C’est donc un refroidissement par laser.
Joannes Vermorel: Mais cela semble toujours contre-intuitif, car on ajouterait apparemment de l’énergie en envoyant des photons, alors qu’en réalité, l’effet net est le refroidissement.
Olivier Ezratty: Oui, en utilisant l’effet Doppler. L’effet Doppler est une approche : si un atome se dirige vers vous et que vous lui envoyez de l’énergie sous forme de photon, le photon est comme une balle qui pousse l’atome dans la direction opposée. Il va ralentir. Et les atomes qui se déplaçaient dans l’autre sens ne recevront pas cette énergie à cause de l’effet Doppler. Celle-ci sera de moindre intensité, et ne les affectera donc pas. Ainsi, en moyenne, tous les atomes se dirigeant vers vous sont ralentis ; les autres, pas tant. Si vous reproduisez ce procédé sur six cycles, il ralentira progressivement le mouvement de tous les atomes. Et vous n’utilisez pas un effet mécanique ; c’est seulement la lumière qui ralentit les atomes. Mais cela refroidit quand même le système, car qu’est-ce que la température ? La température est une mesure du mouvement des atomes dans un milieu donné, donc c’est bel et bien un refroidissement.
Et ce qui est intéressant, c’est ce qu’ils ont découvert, par exemple chez Pasqal, l’entreprise française, ou chez Q-CTRL, avec le concurrent basé à Harvard aux États-Unis. Ils ont constaté que lorsqu’ils ajoutent plus de quelques centaines d’atomes dans cette chambre à vide, et afin de s’assurer de créer un vide de très haute qualité, ils doivent appliquer un refroidissement sur la pompe. Désormais, le refroidissement ne s’applique pas aux qubits eux-mêmes ; c’est la pompe qui, en éliminant les atomes de la chambre, est refroidie. Cette ingénierie, j’adore ça. Ce genre de chose, c’est de la véritable ingénierie. Et donc, le dernier dont je pourrais parler est la technologie appelée centres NV. Nous en avons parlé pour des capteurs, mais elle peut aussi être utilisée pour le computing. Et il existe une entreprise basée en Australie nommée Quantum Brilliance, qui est en réalité une entreprise germano-australienne. Cette entreprise a déjà créé un système à cinq qubits qui fonctionne à température ambiante. Je ne suis pas sûr qu’il puisse évoluer de manière optimale, je n’en suis pas certain, mais malgré tout, cette technologie pourrait potentiellement fonctionner à température ambiante. Joannes Vermorel: Ce que j’aime vraiment dans cette discussion, c’est qu’elle montre que dès qu’il y a des fournisseurs, il y a des incitations à se mettre en avant, et pour moi, en tant que personne curieuse à ce sujet, ce que je constate, c’est qu’il y a un flot interminable de revendications incroyables. Et ce qui est intéressant, c’est que ce n’est pas tant que les gens mentent. C’est cela qui est fascinant ; cela peut signifier plein de choses différentes, ou bien il peut y avoir de nombreuses réserves selon tant de conditions différentes, ou autre. Olivier Ezratty: Exactement. Et c’est normal. Je veux dire, en tant que fournisseur vous-même, vous ne pouvez pas tout révéler à chaque fois. Il faut faire des choix ; il faut simplifier les choses. Joannes Vermorel: Exactement, je veux dire, je ne peux pas dire, vous savez, tout ce qu’il y a à savoir sur chacune des choses que nous faisons. Et voici, d’ailleurs, la copie du code source et une copie de toutes les expériences que nous avons menées. Théoriquement, on pourrait envisager cela. En pratique, c’est pire, car cela créerait beaucoup trop de bruit. Alors, comment, alors que ma perception est que ce domaine de la technologie quantique est assez opaque, du moins pour les non-initiés ? Votre rapport fait vraiment la lumière sur le sujet, et ce qui m’intéresse particulièrement, bien que ce soit un petit écart, c’est comment opérer quand on est confronté à des choses qui sont, sans conteste, très compliquées. Nous pouvons convenir que ce n’est pas simple. Il y a beaucoup de revendications, beaucoup de bruit, et puisque le logiciel d’entreprise relève plus ou moins du même genre de choses – quelqu’un affirme réaliser quelque chose de fantastique. Oui, en quelque sorte, mais cela vient avec des ajustements, des dépendances et des coûts. Vous opérez dans un domaine qui est, d’une certaine manière, très complexe. On peut dire que dans la supply chain, la complexité est simplement accidentelle, c’est juste des gens qui font les choses d’une manière probablement bien plus compliquée qu’il ne serait nécessaire. Ce qui, en réalité, réduit la complexité en computing quantique. Vous traitez avec l’univers, qui est ce qu’il est. Donc, c’est moins accidentel, mais cela n’atténue pas le fait que les choses deviennent tout de même très difficiles. Olivier Ezratty: Comment donnez-vous du sens aux progrès dans ce domaine ?
Joannes Vermorel: Je veux dire, vous avez dit que vous parliez aux gens, mais l’une des choses qui déconcertent la plupart de mes interlocuteurs, c’est que tout le monde semble être un fournisseur dans ce genre de domaine. Alors, comment identifier qui mérite notre confiance ? Par exemple, il y a tellement de personnes que si je me lançais dans ce domaine quantique, il y aurait une multitude d’informations à assimiler. Comment distinguer la fraude de ce qui ne l’est pas ? Oui, vous m’avez dit qu’une solution était de parler à un lauréat du prix Nobel de physique, mais ils ne sont pas omniscients. C’est une manière de résoudre ce problème, mais comment identifier les personnes qui peuvent servir de relais pour acquérir une compréhension, alors qu’il y a tant de fraudes potentielles, de revendications flagrantes, et de temps limité pour démêler tout cela ? Olivier Ezratty: Comment naviguez-vous ? Joannes Vermorel: Fondamentalement, j’essaie de rencontrer autant de scientifiques que possible, principalement dans la recherche fondamentale. J’essaie d’accroître la diversité des personnes que je rencontre, il est donc important, en général, d’organiser des rencontres à la fois avec des physiciens et des ingénieurs, ainsi qu’avec des spécialistes des algorithmes et de l’informatique. Même si je devrais en rencontrer davantage dans ce domaine, je pense que je croise actuellement plus de physiciens que d’informaticiens. Dans votre vie antérieure, vous rencontriez davantage de spécialistes du calcul haute performance ou du supercalcul, ce qui relève d’un autre univers que l’informatique classique.
I try to read as many scientific papers as possible and understand the language. That’s the first thing to do when you read a new paper. But it’s an ongoing game. It’s an everyday challenge. One of the reasons why it’s complicated, I would say, and it’s a plus for the industry right now, is the diversity. When I mean diversity, you have at least 20 to 30 different kinds of qubits right now. When in transistors and classical chipsets, you have only one CMOS kind of transistor. There are some variations, but the difference between the transistor in your iPhone, your Mac, your PC, or your server is one percent. It’s more or less the same technology. It’s the same technique; it’s always silicon NP doping and gates. That’s always the same kind of thing in quantum computing. You have a number of different technologies. That’s amazing. And sometimes, on one given technology, there are only, let’s say, 50 people in the world who know about it. Let me give you an example. Two weeks ago, I was in Las Vegas, not for the CES, I stopped that three years ago. I was in Las Vegas for the APS meeting, the American Physics Society. That’s the largest group of physicists in the world, 13,000 physicists in the same location.
Olivier Ezratty: Et j’ai rencontré une entreprise, ils sont venus vers moi. L’entreprise s’appelle Iroquo, personne ne les connaît très bien. Ils sont basés aux États-Unis, dans la région de Chicago, et ils travaillent sur un qubit en silicium, et non sur un qubit de spin. Ils contrôlent donc le spin d’un électron, mais cet électron repose sur un substrat d’hélium – un hélium liquide froid – sur lequel se trouvent des spins d’électron. C’est étrange, je veux dire, c’est très bizarre. Et pourquoi utilisent-ils cela ? Parce que l’hélium isole les spins des circuits environnants. C’est l’une des nombreuses technologies étranges qui existent.
Olivier Ezratty: Il faut vivre avec cela, il faut vivre avec l’incertitude. Il faut accepter de ne disposer que d’informations partielles. Il faut avoir un certain instinct, tout en possédant une vaste connaissance en ingénierie dans toutes les dimensions. Par exemple, l’une des choses que j’ai découvertes récemment, en partie en tant que co-fondateur de la Quantum Energy Initiative avec Alexa et d’autres chercheurs, c’est qu’il est très important de s’intéresser à l’électronique. La qualité de l’électronique qui contrôle les lasers ou les micro-ondes envoyées au qubit est aussi importante que les qubits eux-mêmes. Et donc, l’électronique n’est pas banale. Je veux dire, quand on est informaticien, on ne connaît pas grand-chose aux équations. J’ai donc dû revenir aux transformées de Fourier et à la théorie du signal, comprendre ce qu’est le jitter, c’est-à-dire les variations de phase, d’amplitude ou de fréquence d’un signal généré par l’électronique classique. Comprendre la puissance nécessaire pour générer une micro-onde, l’atténuation, le filtrage, tout cela – l’ingénierie électronique influence l’ingénierie du système de computing quantique. Joannes Vermorel: Et pour moi, je pense que la leçon vraiment intéressante est que, vous voyez, j’affirmerais que si je prends mon propre domaine, le logiciel d’entreprise et l’intérêt pour la supply chain, il existe également une myriade de perspectives de niche et de fournisseurs de niche, entre autres. Par exemple, pour aborder le problème de la supply chain, il y a probablement 20 philosophies concurrentes sur la manière d’aborder un problème. Il y a la philosophie dominante, le flow casting, DDMRP, SNOP. Ce sont littéralement des points de vue différents, et il y en a des dizaines. Et puis, il y a plein de fournisseurs. Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de forger une opinion relativement éclairée, une opinion plutôt précise sur le fonctionnement de ces choses, sans avoir à procéder soi-même à une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire avec le matériel nécessaire pour dire : “Cet article se reproduit-il ?” Parce qu’il y a cette idée naïve selon laquelle la seule façon de savoir si ce que dit ce fournisseur est vrai, c’est de faire l’expérience et de le tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que, même si vous voulez effectuer un test, vous devez les déployer simultanément dans de nombreux endroits. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a tout simplement aucun sens. Il faudrait déployer la solution dans 20 sites différents juste pour commencer. Olivier Ezratty: Ce qui est intéressant, c’est que vous avez découvert quelque chose de très pertinent, à savoir comment obtenir des indices et comment vous orienter. Ce n’est pas de la magie ; lorsque vous disposez de ce genre d’indices, vous pouvez naviguer dans le domaine, et ils sont très simples. Je ne sais pas si j’ai décrit cela dans cette partie de mon livre, mais trouver un indice – disons qu’un laboratoire déclare : “Ah, j’ai découvert un nouveau type de qubit qui est meilleur.” D’accord, meilleur en quoi ? Vous essayez alors de trouver les chiffres qu’ils publient, et la plupart du temps, ils ne donnent pas tous les autres chiffres. Par exemple, ils indiquent qu’il est stabilisé pour un soi-disant T1 de quelques microsecondes, mais étonnamment, ils ne fournissent aucun chiffre concernant les fidélités de leurs qubits. Peut-être ne sont-ils pas si bons à ce niveau. Et parfois, vous n’avez même pas le nombre de qubits dans l’expérience, ce qui signifie qu’ils n’en utilisent pas beaucoup. Parfois, on peut déceler un indice dans l’absence d’information.
Olivier Ezratty: Ce qui est intéressant, et je crois fermement à cette approche, c’est d’aller voir une personne qui avance une revendication, de la laisser la défendre, puis d’aller voir une autre, idéalement quelqu’un qui a une perspective très diversifiée et complémentaire, et, à travers ce processus, d’en apprendre davantage. Dans mon cas, je rencontre régulièrement de nombreux scientifiques, et il y a beaucoup de sérendipité impliquée. Parfois, je rencontre des personnes qui me disent : “Oh, tu devrais rencontrer tel gars ou telle dame”, puis je les rencontre et ils m’apprennent quelque chose. Par exemple, j’étais à Grenoble en novembre dernier, et j’ai rencontré probablement 15 scientifiques en une journée. J’étais perplexe, car certaines personnes travaillaient sur ce que l’on appelle des qubits topologiques, un domaine dans lequel Microsoft est réputé pour être le seul fournisseur pariant sur ce type de qubit. J’ai rencontré ces quatre personnes à Grenoble et j’ai demandé : “D’accord, mais avec qui travaillez-vous ?” Et ils ont répondu : “Oh, nous travaillons avec ce gars aux États-Unis.” Je connaissais ce nom, car je savais qu’il avait réussi à faire retirer un article de Nature rédigé par des personnes de chez Microsoft. Il est basé à l’Université de Pittsburgh. J’ai donc beaucoup appris en les rencontrant. Joannes Vermorel: Pour en revenir à votre rapport, je reprends quelque chose que j’y ai trouvé, à savoir qu’en exemple, dans la toute première section, vous donnez des indications sur la manière de lire les articles scientifiques. Et c’est très intéressant, car ces articles comportent 20 auteurs, et l’on ne sait pas si toutes ces personnes sont pertinentes. Puis vous expliquez : d’accord, le premier auteur est un doctorant qui a vraiment effectué le travail, toutes les autres personnes ont, de manière accessoire, soutenu le travail, et le dernier est en réalité le superviseur ou le directeur de laboratoire, qui peut ou non réellement comprendre ce qui se passe dans l’article.
Olivier Ezratty: Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de forger une opinion relativement éclairée, une opinion plutôt précise sur le fonctionnement de ces choses, sans avoir à mener soi-même une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire avec le matériel pour dire : “Cet article se reproduit-il ?” Car il y a cette idée naïve que la seule manière de savoir si ce que dit ce fournisseur est vrai, c’est de réaliser l’expérience et de tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que même si vous voulez faire un test, vous devez les déployer simultanément dans de nombreux endroits. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a aucun sens. Il faudrait déployer la solution dans 20 sites différents juste pour commencer. Joannes Vermorel: Et pour moi, je pense que la leçon vraiment intéressante est que, vous voyez, j’affirmerais que si je prends mon domaine, le logiciel d’entreprise et l’intérêt pour la supply chain, il existe également une myriade de perspectives et de fournisseurs de niche. Par exemple, pour aborder la problématique de la supply chain, il y a probablement une vingtaine de philosophies concurrentes sur la façon d’aborder un problème. Il y a la vision dominante, le flow casting, DDMRP, SNOP. Ce sont littéralement des points de vue différents, et il y en a des dizaines. Et puis, il existe de nombreux fournisseurs. Olivier Ezratty: Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de se forger une opinion relativement éclairée, une opinion assez précise sur le fonctionnement de ces technologies, sans avoir à réaliser soi-même une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire avec le matériel pour dire : “Cet article se reproduit-il ?” Parce qu’il existe cette vision naïve selon laquelle la seule façon de savoir si ce que dit ce fournisseur est vrai, c’est de mener l’expérience et de le tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que, même si vous souhaitez effectuer un test, vous devez les déployer simultanément dans de nombreux endroits. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a tout simplement aucun sens. Il faut déployer la solution dans 20 sites différents juste pour démarrer. Joannes Vermorel: Et pour moi, je pense que la leçon vraiment intéressante est que, vous voyez, j’affirmerais que si je prends mon domaine, le logiciel d’entreprise et l’intérêt pour la supply chain, il existe aussi une myriade de perspectives de niche, de fournisseurs de niche, etc. Par exemple, pour aborder la problématique de la supply chain, il y aurait probablement une vingtaine de philosophies concurrentes sur la façon de l’aborder : la vision dominante, le flow casting, DDMRMP, SNOP. Ce sont littéralement des points de vue différents – il y en a des dizaines – et ensuite, il existe de nombreux fournisseurs. Olivier Ezratty: Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de se forger une opinion relativement éclairée, une opinion plutôt précise sur l’efficacité de ces technologies, sans avoir à réaliser soi-même une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire pour dire : “Cet article se reproduit-il ?” Il y a cette idée naïve selon laquelle la seule manière de vérifier la véracité des affirmations d’un fournisseur est de mener l’expérience et de tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que même si vous voulez effectuer un test, vous devez le déployer dans de nombreux endroits simultanément. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a aucun sens ; il faudrait déployer la solution dans 20 sites différents juste pour commencer.
Olivier Ezratty: Ce qui est intéressant, et je crois fermement en cette approche, c’est d’aller voir une personne qui avance une revendication, de la laisser la défendre, puis d’aller voir une autre, idéalement quelqu’un qui offre une perspective très diversifiée et complémentaire, et ainsi d’en tirer d’autres enseignements. Dans mon cas, je rencontre régulièrement de nombreux scientifiques, et il y a beaucoup de sérendipité dans ces rencontres. Parfois, des gens me disent : “Oh, tu devrais rencontrer tel gars ou telle dame”, puis je les rencontre et ils m’apprennent quelque chose. Par exemple, j’étais à Grenoble en novembre dernier, et j’ai rencontré probablement 15 scientifiques en une journée. J’étais perplexe, car j’ai rencontré certaines personnes qui travaillaient sur ce qu’on appelle des qubits topologiques, un domaine dans lequel Microsoft est réputé pour être le seul fournisseur pariant sur ce type de qubit. J’ai rencontré quatre personnes à Grenoble et j’ai demandé : “D’accord, mais avec qui travaillez-vous ?” Elles ont répondu : “Oh, nous travaillons avec ce gars aux États-Unis.” Je connaissais ce nom, car je savais qu’il avait réussi à faire rétracter un article dans Nature écrit par des gens de chez Microsoft. Il est basé à l’Université de Pittsburgh. J’ai donc beaucoup appris en les rencontrant. Joannes Vermorel: Pour en revenir à votre rapport, je reprends quelque chose que j’y ai trouvé, à savoir qu’en exemple, dans la toute première section, vous donnez des indications sur la manière de lire les articles scientifiques. C’est très intéressant, car ces articles comportent vingt auteurs, et l’on ne sait pas si toutes ces personnes sont réellement pertinentes. Ensuite, vous expliquez : d’accord, le premier auteur est un doctorant qui a réellement effectué le travail, les autres ont, de manière accessoire, soutenu le projet, et le dernier est en réalité le superviseur ou le directeur du laboratoire, qui peut ou non comprendre vraiment ce qui se passe dans l’article. Olivier Ezratty: Ce qui est intéressant, c’est que vous avez mis au jour une méthode très pertinente pour obtenir des indices et naviguer dans le domaine. Ce n’est pas de la magie ; quand on dispose de tels indices, on peut s’orienter dans le domaine, et ceux-ci sont très simples. Je ne sais pas si j’ai décrit cela dans cette partie de mon livre, mais prenons l’exemple d’un laboratoire qui déclare : “Ah, j’ai découvert un nouveau type de qubit qui est meilleur.” Meilleur en quoi ? Vous essayez alors de trouver les chiffres qu’ils publient, et la plupart du temps, ils ne dévoilent pas tous les autres chiffres. Par exemple, ils annoncent qu’il est stabilisé pour un soi-disant T1 de quelques microsecondes, mais étonnamment, ils ne donnent aucun chiffre concernant les fidélités de leurs qubits. Peut-être que ces derniers ne sont pas très bons à ce niveau. Et parfois, on ne connaît même pas le nombre de qubits de l’expérience, ce qui signifie qu’ils n’en disposent pas en grand nombre. Parfois, l’absence d’information constitue déjà un indice. Joannes Vermorel: Et pour moi, je pense que la leçon vraiment intéressante est que, vous voyez, j’affirmerais que si je prends mon domaine – le logiciel d’entreprise et l’intérêt pour la supply chain – il existe également une multitude de perspectives et de fournisseurs de niche. Par exemple, pour aborder le problème de la supply chain, il y a probablement une vingtaine de philosophies concurrentes sur la façon d’aborder un problème. Il y a, par exemple, la vision dominante, le flow casting, DDMRRP, SNOP. Ce sont littéralement des points de vue différents, et il en existe des dizaines. Et puis, il y a de très nombreux fournisseurs. Olivier Ezratty: Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de se forger une opinion relativement éclairée, une opinion assez précise sur l’efficacité de ces technologies, sans avoir à mener soi-même une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire avec le matériel pour dire : “Cet article se reproduit-il ?” Car il existe cette idée naïve que la seule manière de vérifier la véracité des affirmations d’un fournisseur, c’est de réaliser l’expérience et de le tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que, même si vous souhaitez effectuer un test, vous devez le déployer simultanément dans de nombreux lieux. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a tout simplement aucun sens. Il faudrait déployer la solution dans 20 sites différents pour même commencer. Joannes Vermorel: Et pour moi, je pense que la leçon vraiment intéressante est que, vous voyez, j’affirmerais que si je prends mon domaine – le logiciel d’entreprise et l’intérêt pour la supply chain – il existe aussi une multitude de perspectives et de fournisseurs de niche. Par exemple, pour aborder le problème de la supply chain, il y a probablement une vingtaine de philosophies concurrentes sur la façon de l’aborder. Il y a la vision dominante, le flow casting, DDMRRP, SNOP. Ce sont littéralement des points de vue différents, et il y en a des dizaines. Et puis, il y a de très nombreux fournisseurs. Olivier Ezratty: Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de se forger une opinion relativement éclairée, une opinion plutôt précise sur l’efficacité de ces technologies, sans avoir à réaliser soi-même une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire avec le matériel pour dire : “Cet article se reproduit-il ?” Parce qu’il existe cette pensée naïve selon laquelle la seule façon de vérifier la véracité des affirmations d’un fournisseur, c’est de réaliser l’expérience et de le tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que, même si vous souhaitez faire un test, vous devez le déployer simultanément dans de nombreux endroits. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a tout simplement aucun sens. Il faudrait déployer la solution dans 20 sites différents pour même commencer. Joannes Vermorel: Et pour moi, je pense que la leçon vraiment intéressante est que, vous voyez, j’affirmerais que si je prends mon domaine – le logiciel d’entreprise et l’intérêt pour la supply chain – il existe aussi une multitude de perspectives et de fournisseurs de niche. Par exemple, pour aborder le problème de la supply chain, il y a probablement une vingtaine de philosophies concurrentes sur la manière de l’aborder. Il y a la vision dominante, le flow casting, DDMRRP, SNOP. Ce sont littéralement des points de vue différents, et il y en a des dizaines. Et puis, il y a de très nombreux fournisseurs. Olivier Ezratty: Ce qui m’intéresse vraiment, c’est qu’en ce que vous décrivez, il y a la possibilité de se forger une opinion relativement éclairée, une opinion assez précise sur l’efficacité de ces technologies, sans avoir à mener soi-même une expérience de contrôle directe. Vous voyez, vous n’installez pas un laboratoire avec le matériel pour dire : “Cet article se reproduit-il ?” Parce qu’il existe cette idée naïve selon laquelle la seule façon de vérifier les dires d’un fournisseur, c’est de réaliser l’expérience et de le tester. Oui, vous pouvez tester votre logiciel en ligne. Mais avec le logiciel d’entreprise, le problème est que, même si vous souhaitez faire un test, vous devez le déployer simultanément dans de nombreux lieux. C’est super impraticable. C’est pourquoi la plupart des fournisseurs n’offrent même pas d’essai gratuit, car cela n’a tout simplement aucun sens. Il faudrait déployer la solution dans 20 sites différents pour même commencer. Joannes Vermorel: Ouais, parce que vous voyez, je pense qu’au fond, nous traitons avec des humains qui sont intelligents et qui ont les mêmes sortes de tendances que d’autres humains dans d’autres domaines. Si je me penche sur les logiciels de supply chain, qui représentent un intérêt particulier pour moi, je remarque que, bien que les indices ne soient pas les mêmes, ils existent tout autant. Ils diffèrent, par exemple, si un fournisseur n’a pas de captures d’écran, il y a presque certitude que son interface utilisateur est affreuse. Parce que si l’interface avait fière allure, il y aurait des tonnes de captures d’écran. Si les algorithmes qu’ils utilisent ne sont qu’une version glorifiée de la moyenne mobile, ils n’en parlent pas. Ils se contentent de dire “Nous avons une IA super avancée”, ce qui n’est qu’une moyenne mobile pour effectuer la prévision. Mais alors, ils le diraient simplement. Au contraire, si les gens ont quelque chose, ils auront d’innombrables sections sur leur site web à ce sujet. Inversement, si leur logiciel est super lent, ils ne parlent pas du tout de la vitesse. Ils insistent sur le fait qu’ils comprennent parfaitement l’état d’esprit de ce secteur vertical, mais ensuite ils ne mentionnent absolument pas que leur logiciel est lent. Donc, j’aime vraiment cette idée de chercher ces aspects plus méta. Fondamentalement, cela signifie que vous devez adopter ce genre d’état d’esprit adversarial. Si quelqu’un me dit quelque chose de remarquable d’une certaine manière, votre premier filtre est de décider si cette chose est suffisamment remarquable pour aller la chercher chez cette personne. Mais cela signifie qu’ensuite votre outil se demandera “Quel est le prix le plus probable à payer pour cette affirmation ? Quel est le coût caché ?”
Olivier Ezratty: Eh bien, il y a quelque chose d’autre qui complique la donne dans quantum computing. Il faut se familiariser avec les types de métriques qui existent, la manière dont elles sont mesurées et aussi la variété des techniques de benchmarking. Dans quantum computing, il y a beaucoup de ces éléments. Des efforts importants sont menés par des organismes de normalisation comme l’ISO et d’autres, et nous, en tant que France, y participons. Mais il faut également beaucoup d’éducation pour comprendre comment ces éléments sont mesurés. Par exemple, j’ai découvert que la mesure de la qualité des qubits n’est pas vraiment la même pour les qubits en état solide, comme ceux à base de semi-conducteurs ou de supraconducteurs, et pour ceux gérés avec des ions piégés. Ils utilisent des métriques différentes, et il faut comprendre pourquoi c’est différent. Donc, il faut comprendre les chiffres. Avoir juste une idée des chiffres utilisés est très important. J’ai essayé de réaliser un graphique récemment, un graphique en échelle log-log de la qualité des qubits. Cela a été pénible car il était difficile d’obtenir les bons chiffres de manière cohérente. Par exemple, si vous mesurez la qualité des qubits, vous devez vous assurer que celle-ci est mesurée avec le fameux randomized benchmarking, qui est une méthode plus ou moins standardisée pour calculer la qualité des qubits. Il faut être très vigilant; on peut se laisser tromper par les chiffres.
Joannes Vermorel: Absolument. Je veux dire, dans le domaine de la supply chain, c’est présent partout. Par exemple, dans des aspects très banals, l’une des questions que les gens se posent est : quelle est la précision de votre système de prévision ? Le problème est qu’il dépend incroyablement de la précision des données que vous utilisez en entrée. Évidemment, il n’existe pas de chiffres qui aient du sens dans ce cas puisque la réponse est : eh bien, cela dépend de vos données. La seule méthode que la communauté a trouvée pour se faire une idée de qui est plus précis est d’organiser quelque chose comme un concours Kaggle, puis laisser les gens en compétition. Mais fondamentalement, nous avons des problèmes sur la manière de définir quelque chose qui serait une mesure intrinsèque des capacités de prévision.
Olivier Ezratty: Ce qui a changé récemment, c’est que nous disposons de plus d’ordinateurs quantiques et d’informations existantes disponibles sur le cloud computing. Parfois, l’accès est coûteux, mais peu importe. Vous avez ces systèmes chez IBM, Amazon, Microsoft, et même Google dispose d’un système IonQ. Donc, je pense qu’à l’échelle mondiale, vous avez environ 60 ordinateurs disponibles sur le cloud computing. Cela signifie que les gens peuvent les comparer, et l’on commence à voir des articles scientifiques très intéressants présentant des comparaisons entre ces différents systèmes, grâce à un benchmarking réalisé de manière cohérente. On commence à avoir quelques approximations éclairées de leur position réelle. C’est intéressant, et c’est positif. C’est un écosystème ouvert.
Joannes Vermorel: Mais c’est ouvert et aussi compliqué. Il faut avoir beaucoup de bagage scientifique pour pouvoir juger du contenu scientifique. Il existe de nombreuses publications scientifiques, même des fournisseurs publient des articles, mais lire un article peut être pénible. C’est parfois tellement compliqué. Je me souviens, il y a quatre ans, quand j’ai découvert les 70 pages de l’article sur la suprématie quantique de Google, j’ai ri. La raison de mon rire était la suivante : qui peut se faire une idée de ce que contient cet article étant donné le nombre d’éléments qu’il renferme ? Il y a de la physique quantique, des algorithmes, des comparaisons avec l’informatique, de l’électronique, de la cryogénie, et tant d’autres éléments différents en 70 pages avec des graphiques très difficiles à comprendre.
Olivier Ezratty: Je me souviens qu’il y a quatre ans, je ne comprenais probablement que 5 à 10 pour cent de l’article. Maintenant, je pense que j’en comprends plus de 50 pour cent. Pas l’intégralité de l’article, mais cela prend du temps. Chaque fois que je relis l’article, j’en découvre de nouvelles choses parce que je lisais ailleurs autre chose, que j’ai suivi des formations ou regardé des vidéos. C’est toujours ouvert, mais on peut être à la fois ouvert et fermé, car la complexité équivaut à de l’obfuscation. Le manque de comparaisons peut également constituer une forme d’obfuscation. Par exemple, si vous souhaitez réconcilier des données provenant de fournisseurs très différents, il vous faut soit quelqu’un qui a réuni ces données dans un article, soit vous devez le faire vous-même, comme je l’ai fait pour ce graphique que je réalise actuellement. Il y a encore de la marge pour l’intégration des données, je dirais, c’est la capacité de rassembler des données de sources très diverses et de déterminer où nous en sommes réellement. Je suis actuellement en train d’écrire deux articles à ce sujet.
Joannes Vermorel: De mon point de vue, c’est un travail absolument nécessaire et incroyablement utile. Mais cela s’accompagne aussi de très mauvaises incitations à long terme. Vous faites ce travail, je vous connais, et je pense que ce qui vous rend si unique, c’est que vous n’êtes pas facilement influencé par les fournisseurs. Cela demande un état d’esprit très spécifique. Vous avez été fournisseur dans le passé. Vous avez travaillé chez Microsoft, et vous avez fait partie du jeu. Je pense que cela vous a forgé une sorte d’anticorps intellectuels. Microsoft est ce qu’il est, ce n’est pas une opinion en noir et blanc. C’est composé de beaucoup de personnes, c’est gris comme n’importe quelle collection de plus de 200 000 humains. Vous avez de très bonnes personnes, de très mauvaises personnes, et bien d’autres. Je pense que cela vous donne une sorte d’anticorps intellectuels face aux problèmes d’entreprise qui surgissent dans de grandes collections d’humains.
Olivier Ezratty: Oui, parce qu’ils doivent lever des fonds.
Joannes Vermorel: Exactement. Attirer un VC dans cet espace exige plus d’efforts pour une grande entreprise. Ce que je veux souligner ici, c’est que si vous jouez le rôle d’expert, il existe des entreprises – et je ne nommerai pas celles dont le nom commence par un G dans le domaine des logiciels d’entreprise – qui sont d’éminents analystes de marché. À mon sens, l’incitation à long terme, si vous êtes analyste de marché, un peu comme ce que vous faites, est de devenir la gestion externalisée de la communication pour les fournisseurs. C’est littéralement ce qui se passe dans le secteur des logiciels d’entreprise, en particulier dans la supply chain.
Olivier Ezratty: Exact, et ce que je constate, c’est que les personnes qui jouent ce rôle gagnent rapidement beaucoup plus d’argent. En tant qu’analyste, ils prétendent toujours qu’ils tirent la majeure partie de leurs revenus de clients pour lesquels ils font l’explication, mais en réalité, ce sont les fournisseurs qui paient plus pour avoir un expert partial qui dira simplement ce que le fournisseur préférerait que cet analyste tiers dise au marché en général. On se retrouve donc avec cette distorsion.
Joannes Vermorel: Dans votre cas, votre rapport est vraiment aussi bon qu’il puisse l’être pour présenter une évaluation non biaisée de quelque chose de super compliqué et en évolution constante. Mais ce qui m’intéresse également, c’est que dans des domaines où quantum computing ne dispose pas de nombreux fournisseurs établis, les personnes qui devraient jouer votre rôle se trouvent corrompues et finissent par relayer n’importe quel message issu des fournisseurs.
Vous faites ce genre de travail avec beaucoup d’aide, mais essentiellement en solo. Ce qui me frappe, c’est que les entreprises modernes ont tendance à sous-estimer ce qu’une seule personne peut accomplir en seulement quelques années. Si l’on observe le quantum computing, cela déroute les entreprises, qui abordent généralement le problème en engageant des consultants et en dépensant beaucoup d’argent pour constituer une équipe de vingt personnes pendant trois mois. Mais vous prouvez que le type de compréhension que l’on peut acquérir en misant entièrement sur une personne intelligente et motivée, sur plusieurs années, peut être tout aussi efficace.
Olivier Ezratty: Oui, et je devrais ajouter quelques points de contact supplémentaires. L’un concerne les clients eux-mêmes, puisque IBM et d’autres essaient de promouvoir leur nouvelle technologie auprès de grands clients. Il y a de nombreux grands clients dans le monde qui l’ont évaluée, et certains ont même signé des articles publiés par des clients en France, comme Total, EDF et MBDA. Si vous rencontrez ces scientifiques de ces entreprises, vous obtenez aussi de nombreux éclairages, car ils ont testé différentes technologies et de vrais algorithmes sur de réels problèmes d’affaires.
Joannes Vermorel: J’adorerais vraiment voir, dans la supply chain, des clients produire des articles. Ce que nous avons actuellement, ce sont des études de cas qui ne sont que de la publicité déguisée. Le problème avec les études de cas, c’est que ce n’est qu’une information présentée sous un format publicitaire.
Olivier Ezratty: Je participe à un projet où le mélange idéal est d’avoir des personnes issues de la recherche, du secteur fournisseur, et un client. Si vous pouvez constituer une équipe de recherche avec ces trois composantes, cela crée une belle synergie. Cela fonctionne bien si c’est local, par exemple, si les équipes de recherche, les startups et les clients se trouvent tous dans le même pays ou la même région. C’est très utile pour construire une nouvelle approche de la recherche et appliquer cette recherche dans un nouveau domaine.
Joannes Vermorel: Donc, en avançant dans les chronologies que nous envisageons, quantum computing se prépare depuis des décennies. Il y a des raisons fondamentales de pouvoir espérer, dans le sens où c’est littéralement la manière dont l’univers fonctionne. La beauté de la mécanique quantique, c’est qu’elle a rendu l’univers plus riche d’une certaine manière par rapport à ce qui existait auparavant. Soudainement, vous aviez des possibilités de faire des choses qui, dans l’ancienne perspective, étaient simplement impossibles. Cela impose des contraintes, mais permet également d’innombrables choses. Nous exploitons déjà de nombreux éléments issus de cela, tels que les transistors et la grande magnétorésistance pour les disques à spin, entre autres. Alors, quelle chronologie envisagez-vous pour l’industrialisation émergente de cette seconde vague de technologies informatiques ? Pouvons-nous même espérer quelque chose ?
Olivier Ezratty: Eh bien, je peux vous dire ce que les gens en disent. La meilleure réponse est : “Je ne sais pas.” La plupart du temps, on obtient une courbe gaussienne centrée autour de 15 ans. C’est là que les gens pensent que nous aurons le grand ordinateur quantique capable de réaliser ce que les ordinateurs classiques ne peuvent pas faire. C’est un peu naïf, car c’est une vision moyenne de l’origine potentielle de tout cela.
Je pense qu’il existe des situations avec certains paradigmes informatiques, comme les soi-disant ordinateurs quantiques analogiques, qui diffèrent des ordinateurs quantiques à portes. Ces ordinateurs analogiques pourraient offrir un avantage quantique dans les prochaines années, sans qu’il faille attendre 10 à 15 ans.
L’avantage quantique NISQ (Noisy Intermediate-Scale Quantum), avec les systèmes bruyants que nous avons aujourd’hui, reste incertain. Je n’ai aucune idée si nous l’atteindrons. Cela dépend de la qualité des qubits que des entreprises comme IBM produiront à l’avenir. IBM est la plus grande entreprise au monde dans ce domaine, et ils détiennent une technologie de pointe en matière de qubits supraconducteurs. Ils pourraient être en mesure d’apporter un grand changement dans les 18 prochains mois, ce qui est un délai très court. Ils pourraient nous conduire, en tant que communauté, vers un domaine où nous pourrions commencer à réaliser des choses utiles avec des ordinateurs quantiques.
Mais ensuite, il faut que cela puisse être étendu, et le défi consiste à passer de quelques centaines de qubits à des millions de qubits. C’est un défi énorme, tant du côté de la physique que de l’ingénierie et de l’énergétique. Tout y est difficile. Une autre chose qui complique toute prévision, c’est l’existence de tant de technologies différentes. Disons, par exemple, que Microsoft parvient à développer des qubits topologiques avec des fermions de Majorana dans quelques années. Beaucoup de gens restent sceptiques, mais s’ils réussissent, ils pourraient changer radicalement le paysage très rapidement.
Ainsi, vous pourriez avoir une tendance lente représentée par une courbe gaussienne, mais vous pourriez également avoir des surprises. Vous pourriez découvrir de nouvelles conceptions d’algorithmes ou de nouveaux schémas de correction d’erreurs. Je n’ai jamais vu autant de créativité ces deux dernières années en matière de correction d’erreurs. Il y a un gars en France, prénommé Anthony, et c’est incroyable ce qu’il fait. Il invente des codes de correction d’erreurs capables de compenser des qubits de moindre qualité, par exemple. Il sait que si vous ajustez la connectivité entre les qubits, vous pouvez améliorer l’efficacité du code de correction d’erreurs. Améliorer la connectivité est difficile, mais ce n’est ni impossible ni si compliqué.
Il existe tellement d’ajustements dans la technologie, tellement de solutions de contournement et de variations qu’il y a toujours un peu d’espoir. Toutefois, je connais des personnes, en France comme à l’étranger, qui restent très sceptiques. Un scepticisme scientifiquement fondé existe quant à la difficulté d’atteindre un stade où nous aurions des millions de qubits intriqués entre eux. Mais malgré tout, on peut croire en l’imagination et l’ingéniosité des ingénieurs et des scientifiques. Il y a tellement d’options différentes à explorer que nous verrons bien.
La véritable réponse est que nous ne savons pas. Mais nous devons nous former en continu sur la manière dont les choses évoluent. Il faut être capable d’interpréter les nouvelles annonces et de déterminer si elles sont importantes ou non. C’est la beauté de ce domaine ; c’est pour cela que je suis toujours là. C’est toujours en mouvement, toujours changeant, et c’est peut-être intellectuellement stimulant.
Joannes Vermorel: Pour revenir au début de cette interview et pour conclure, vous évoquiez des éléments qui avaient capturé votre intérêt de manière très concrète. Qu’allez-vous faire ensuite ? Quelle est votre feuille de route personnelle dans ce domaine ? Qu’est-ce qui retient actuellement votre temps et votre attention ?
Olivier Ezratty: Oh, j’ai beaucoup de choses sur le feu. D’une part, je suis le cofondateur de la Quantum Energy Initiative, qui n’est pas encore une organisation formelle, mais c’est une communauté de chercheurs dans le monde entier. Nous avons organisé notre premier atelier à Singapour en novembre, avec des scientifiques de premier plan venus des quatre coins du monde. Nous devons lancer notre site web, lancer une communauté, lancer une chaîne YouTube, en veillant à ce que l’énergie de ces instants soit réellement prise en compte, car nous vivons dans un monde aux ressources limitées. Nous ne pouvons pas l’éviter, et nous devons expliquer aux scientifiques et aux fournisseurs qu’il est impossible de commercialiser une nouvelle technologie qui augmenterait la consommation de ressources sans en tenir compte. Bitcoin a fait cela, oui, mais nous pensons qu’il est très pertinent, lorsque l’on introduit une nouvelle technologie qui est mystérieuse et complexe avec des cas d’utilisation inconnus, d’inciter l’industrie et l’ensemble de l’écosystème à adopter un comportement d’innovation responsable.
La deuxième chose est que je dois commencer à écrire la sixième édition de mon livre, ce qui va consommer beaucoup de bande passante. Je commence à rédiger des articles scientifiques, et j’ai ainsi écrit mon premier article pour revue par des pairs dans une revue de physique sur les qubits supraconducteurs. Je verrai s’il est accepté ; ce n’est pas encore terminé. Je dois toujours m’engager à dynamiser l’écosystème local au niveau français et européen, donc je commence à avoir beaucoup de contacts en Europe maintenant. Et je continue d’aider les startups ici en France, mais de manière informelle. Je dirige deux séries de podcasts en plus de cela avec Fanny Bouton, et elle a commencé comme moi il y a cinq ans dans l’espace quantique. Maintenant, elle est la leader quantique d’OVH Cloud, un opérateur cloud européen de premier plan, et elle a lancé l’offre cloud de cet opérateur pour le quantum, c’est donc une très belle histoire.
J’ai probablement oublié beaucoup de choses, mais j’ai de nombreux clients, je donne des formations, et j’enseigne à Épitech. Tout ce que je fais alimente l’autre facette de mon activité ; par exemple, être formateur, enseigner le quantum computing vous oblige à structurer vos pensées. Écrire le livre, c’est pareil : vous structurez vos idées, vous les partagez. Rédiger des articles, interviewer des personnes dans des podcasts où l’on rencontre du monde, cela vous encourage à entrer en contact avec une grande diversité de personnes. En travaillant avec mes clients, j’essaie d’adopter la manière de travailler la plus diversifiée possible ; c’est ma façon de vivre. Je souhaiterais être un petit contributeur au succès de l’écosystème français et européen. C’est le genre d’objectif final. J’aimerais contribuer au succès de mes amis chercheurs, en particulier pour la Quantum Energy Initiative. J’aimerais également voir émerger un soi-disant cloud quantum souverain en France via OVH Cloud, auquel j’apporte aussi mon aide. Bref, il s’agit de diverses actions visant tantôt à aider l’écosystème, tantôt à m’enrichir en apprenant et en partageant de manière ouverte.
Joannes Vermorel: Je pense que votre démarche, qui consiste à l’écrire vous-même, est incroyablement vertueuse, non seulement pour propager le savoir mais même si vous ne le publiez pas du tout. Le simple fait de rassembler tout cela est un exercice incroyable. Je pense que c’est également l’une des leçons pour mes clients d’entreprise. De nombreuses grandes sociétés qui s’engagent dans des projets d’une décennie devraient adopter une vision à long terme en faisant cela, même pour elles-mêmes. Les managers devraient essayer de constituer leur propre œuvre de vie pour mieux comprendre leur domaine, afin d’améliorer l’entreprise. C’est là toute la subtilité – certains diraient : “Oh, mais peut-être que ces personnes vont nous quitter d’ici deux ans.” Mais quand je m’adresse, par exemple, à un directeur supply chain, ce sont toujours des postes où les gens restent dans la même entreprise pendant 30 ans. C’est donc un peu une excuse pour ne pas reconnaître, en toute simplicité, la valeur de l’exercice d’écriture pour soi-même.
Olivier Ezratty: J’ai toujours fait cela depuis mon plus jeune âge, et je pense que c’est aussi une manière de vivre, une sorte de superpuissance. Il faut être un peu organisé. J’ai quelques astuces d’organisation simples pour réutiliser l’information à divers endroits et prendre des notes. Par exemple, la manière dont je mets à jour mon livre est un peu particulière, mais pas tellement. Ce que je fais, c’est que j’ai un petit document Word avec la même table des matières que mon livre, et c’est là que je consigne toutes les mises à jour que je reçois au quotidien – de nouveaux articles d’archives, des actualités ou des annonces. Ils sont placés au bon endroit, comme un jumeau de mon livre. Il est plus petit, bien sûr, ne contenant que des mises à jour. Et ensuite, lorsque je mets à jour mon livre, j’ai tout déjà classé par thème.
Disons que je veux mettre à jour la partie algorithmique ; il existe déjà un chapitre sur les algorithmes avec tous les liens. Et comme j’ai certains clients pour lesquels je fais du techno screening et quelques actualités non publiées, j’ai aussi beaucoup d’explications écrites sur ces nouveautés que je peux utiliser pour mettre à jour mon livre. Quand on fait tout par soi-même, il faut être organisé et réutiliser le contenu de manière astucieuse. Je réalise également de nombreux graphiques que je mets à jour en continu. J’ai ma propre base de données d’entreprises dans la technologie quantique, une feuille Excel regorgeant de tableaux, etc. J’ai même une base de données de tous les lauréats du prix Nobel de physique quantique, une base sur les entreprises, une base sur les fidélités des qubits – tout ce qui peut devenir une base de données se trouve dans mon Excel spreadsheet.
Joannes Vermorel: Et puis, si vous ne savez pas, vous demandez à ChatGPT, et peut-être qu’il vous fournira quelques données. Pour ma part, je ne suis pas si organisé, mais j’essaie de cultiver une compréhension écrite de mon propre domaine. Avant de conclure, quelle serait votre suggestion aux PDG ou CTO d’entreprises confrontées à des domaines très opaques ? Ils ne peuvent pas se lancer à fond dans le quantum computing comme vous le faites. Quelle serait votre suggestion à ces personnes à l’égard du quantum computing ?
Olivier Ezratty: Ma suggestion serait de jeter un œil à mon livre, bien sûr sans le lire en entier, mais en regardant ce qu’il renferme. Si vous êtes une banque, évoluez dans l’industrie chimique ou dans le transport, il y a toujours un chapitre pour vous dans mon livre car une longue section répertorie tous les cas d’utilisation identifiés, même s’ils ne fonctionnent pas encore. Cela vous donne une idée de ce que le quantum computing pourrait apporter à votre entreprise. Mon livre comporte des chapitres dédiés à 20 industries différentes, même la défense et le renseignement, ce qui vous permettra de trouver quelque chose de pertinent. Par la suite, vous pouvez aussi écouter le podcast que je réalise avec Fanny. Nous produisons environ un à deux podcasts par mois. Mais ne vous contentez pas de lire la presse. Quand je parle de la presse, je veux dire quelle qu’elle soit. Je ne critique pas la presse, car avec les formats que l’on trouve dans la plupart des revues, même scientifiques, il est impossible d’avoir une bonne idée de notre situation, vraiment.
Vous devez rencontrer des personnes, consulter des spécialistes, qui qu’ils soient. Vous verrez aussi qu’en tant que client, vous devez diversifier vos sources d’information. Ce que je dis n’est pas identique à ce que disent d’autres, et il existe différentes opinions. Ce sont toujours des opinions fondées sur la science, ce ne sont pas de simples points de vue conspirationnistes, mais il faut recueillir divers avis. Je dirais que vous devez avoir des visions optimistes, pessimistes ou intermédiaires quant à notre situation. Franchement, je ne sais pas trop où nous en sommes.
Et la manière la plus simple est d’assister à une conférence où moi ou d’autres expliquons des choses en une ou deux heures. La dernière fois, j’ai donné de nombreuses conférences, dont beaucoup sont sur YouTube, en français ou en anglais. Mais les meilleurs formats, je dirais, sont lorsque l’on me demande d’expliquer le quantum computing en moins d’une heure. Ce n’est pas toujours optimal, peut-être trop court. Si vous allez sur YouTube, vous trouverez des formats où j’interviens seul ou accompagné. J’ai fait quelque chose avec Elena, par exemple, en décembre, il y a deux ans, à Bordeaux. C’était un événement très agréable. J’en ai fait un autre avec Mod veneer et Fanny Botton au North en juin 2022. Ce sont le genre d’événements, d’une durée d’une à deux heures, qui sont, je dirais, bons pour l’éducation.
Récemment, j’en ai fait un autre pour Limited Universal avec Mark DJ, d’une durée de deux heures. C’était donc une présentation d’une heure et 20 minutes, suivie de 40 minutes de questions-réponses. Je dirais que c’est le format idéal pour bien comprendre où nous en sommes et ce que nous pourrions faire avec ces systèmes.
Joannes Vermorel: Ce fut vraiment un plaisir de vous avoir. C’est un domaine très intéressant pour moi. Pour le public, restez à l’écoute. À la prochaine fois.