00:00:00 Einführung in die Quantenphysik und ihre Rolle in bestehenden Technologien.
00:01:03 Olivier Ezrattys Reise in das Quantencomputing und seine umfassenden Forschungen.
00:04:16 Einführung der Quantum Energy Initiative zur umweltbewussten Entwicklung der Quantentechnologie.
00:06:11 Unterschiede zwischen der Quantenphysik in aktuellen Technologien und zukünftigem Quantencomputing.
00:08:51 Das Nichtvorhandensein von Nichts und Vakuumfluktuationen in der Quantenphysik.
00:10:32 Vakuum und Äther in der Quantenphysik.
00:11:52 Enterprise Software und mechanische Sympathie.
00:14:16 Quanten-Vorteilsschwelle und unsicherer Fortschritt.
00:16:19 Bedeutung des Verständnisses von Quantentechnologien.
00:18:43 Potenzielle Anwendungsgebiete der Quantentechnologien.
00:20:24 Einführung in die Quantensensorik und ihre Anwendungen.
00:21:19 Quantenkommunikation zur Verbesserung von Sicherheit und Leistung.
00:24:01 Quantensensorik für präzise Messungen in verschiedenen Bereichen.
00:26:36 Positive Anwendung von Quantenschwerkraftsensoren in Satelliten für geodätische Untersuchungen.
00:28:15 Bedeutung eines ganzheitlichen Blicks beim Verständnis der Quantentechnologie.
00:30:11 Diskussion über Quantenüberlegenheit und ihre Einschränkungen.
00:32:02 Erklärung von klassischen Bits und ihrer Rolle in der Datenverarbeitung.
00:33:10 Vorstellung von Qubits und ihrer Unterschiede zu klassischen Bits.
00:35:04 Vertiefung in die mathematischen Aspekte von Qubits.
00:37:33 Erklärung der Leistungsfähigkeit von Qubits und ihres exponentiellen Wachstums im Informationsraum.
00:40:01 Aufklärung von Missverständnissen über Quantencomputing.
00:43:45 Quantencomputing und Big-Data-Herausforderungen.
00:45:54 Umgang mit Rauschen im Quantencomputing: flache Algorithmen und Fehlerkorrektur.
00:47:46 Aktueller Stand des Quantencomputings und IBMs neuestes 433-Qubit-System.
00:49:53 Erkundung der Fehlerkorrektur im Quantencomputing.
00:51:37 Diskussion über die Möglichkeit, verrauschte Operationen im Machine Learning einzusetzen.
00:52:59 Überprüfung der Einschränkungen des Quanten-Machine-Learning.
00:57:25 Temperaturregelung in supraleitenden Qubits und Silizium-Qubits.
00:59:49 Vergleich von Ionenfallen-Qubits und topologischen Qubits.
01:00:53 Neutrale Atome, Laser-Kühlung und Magneto-optische Fallen-Technologie.
01:03:31 Envy-Zentren und potenzielles Quantencomputing bei Raumtemperatur.
01:05:46 Diskussion über die Komplexität im Bereich der Quantentechnologie.
01:07:58 Annäherung an Vertrauen und Identifizierung verlässlicher Quellen in der Quantentechnologie.
01:10:30 Diskussion über Beispiele einzigartiger Silizium-Qubit-Technologie.
01:12:35 Vergleich des Quantencomputings mit der Enterprise Software supply chain.
01:14:37 Die Rolle der Serendipität beim Treffen und Lernen von Wissenschaftlern.
01:16:36 Tipps zum Navigieren und Entschlüsseln wissenschaftlicher Arbeiten.
01:22:47 Die inhärente Güte von Prognosen und die Schwierigkeit, sie zu messen.
01:24:00 Die Komplexität wissenschaftlicher Veröffentlichungen und ihr Verständnis.
01:25:17 Transparenz und Verschleierung im Quantencomputing-Ökosystem.
01:28:01 Die Rolle von Marktanalysten und mögliche Vorurteile im Bereich.
01:33:46 Diskussion über eine gute Mischung in Forschungsteams für Innovation.
01:34:54 Quantencomputing und sein Zeitplan für die Entwicklung.
01:37:56 Herausforderungen bei der Vorhersage der Zukunft des Quantencomputings.
01:39:41 Die Bedeutung, in dem sich schnell verändernden Bereich des Quantencomputings gut informiert zu bleiben.
01:40:33 Persönliche Projekte in diesem Bereich.
01:43:15 Diskussion über vielfältige Arbeitsweisen und Beiträge zum Ökosystem.
01:44:22 Der Wert von Schreibübungen für persönliches und organisatorisches Wachstum.
01:45:37 Techniken zur Organisation und Aktualisierung von Inhalten, einschließlich der Pflege von Datenbanken.
01:48:00 Vorschläge für CEOs und CTOs, um Quantencomputing und seine potenziellen Anwendungsfelder zu verstehen.
01:50:28 Empfohlene Formate, um über Quantencomputing zu lernen, wie Konferenzen und YouTube-Präsentationen.
Zusammenfassung
Quanten-Technologieexperte Olivier Ezratty diskutiert mit Joannes Vermorel das Potenzial von Quantencomputing, -kommunikation und -sensorik. Quantencomputing zielt darauf ab, Quantenphänomene wie Superposition und Verschränkung zu nutzen, um Aufgaben zu erfüllen, die die Fähigkeiten klassischer Computer übersteigen. Quantenkommunikation hat Anwendungen, die über Sicherheitsaspekte hinausgehen, wie das Quanteninternet und verteiltes Quantencomputing. Quantensensorik kann physikalische Eigenschaften mit beispielloser Präzision messen. Trotz Fortschritten in diesem Bereich besteht weiterhin eine erhebliche Lücke zwischen theoretischem Wissen und praktischer Umsetzung. Der Zeitrahmen für eine weit verbreitete Einführung bleibt ungewiss, wobei Experten schätzen, dass es 10-15 Jahre dauert, bis die Quantentechnologie ihr volles Potenzial erreicht.
Ausführliche Zusammenfassung
In diesem Interview diskutiert der Gastgeber Joannes Vermorel, Gründer von Lokad, Quantencomputing und enterprise software mit Olivier Ezratty, einem Experten für Quantentechnologien.
Ezratty interessierte sich erstmals für Quantencomputing, nachdem er von der Zusammenarbeit zwischen Google, NASA und D-Wave an einem Computer erfahren hatte, der Aufgaben 100 Millionen Mal schneller als ein herkömmlicher Laptop ausführen konnte. Ursprünglich wollte er eine einfache, einstündige Konferenz zu diesem Thema halten, doch mündete seine Arbeit schließlich in der Entstehung eines umfangreichen 1.100-seitigen Buches über Quantentechnologien. Seither ist Ezratty in verschiedenen Funktionen in diesem Bereich tätig, darunter Lehre, Regierungsarbeit, Beratung und der Start der “Quantum Energy Initiative”, um die Umweltauswirkungen von Quantentechnologien anzugehen.
Bei der Diskussion über die Entwicklung des Quantencomputings hebt Ezratty die Rolle der Quantenphysik in bestehenden Technologien hervor. Während alle aktuellen Technologien auf der Quantenphysik basieren, zielt das Quantencomputing darauf ab, andere Phänomene aus diesem Bereich zu nutzen. Drei spezifische Mechanismen, die im Quantencomputing zentral sind, sind die Superposition von Quantenzuständen, Verschränkung und die Fähigkeit, einzelne Nanopartikel zu steuern. Diese Mechanismen wurden in früheren Technologien nicht in derselben Weise genutzt.
Das Interview geht auch auf die Natur des “Nichts” im Kontext der Quantenphysik ein. Vakuumfluktuationen, bei denen Teilchen geschaffen und zerstört werden, zeigen, dass das Nichts nicht existiert und Teilchen aufgrund dieser Fluktuationen stets in Bewegung sind.
Im Bereich der enterprise software herrschte generell Desinteresse an computing hardware, da erwartet wurde, dass sie sich exponentiell verbessern würde, ohne dass sich Softwareanbieter ändern müssten. Diese Einstellung besteht fort, trotz des langsameren Fortschritts im Quantencomputing im Vergleich zum klassischen Computing. Das letztendliche Ziel des Quantencomputings ist es, einen “quantum advantage” oder eine “Schwelle” zu erreichen, ab der Quantencomputer Aufgaben ausführen können, die klassische Computer nicht effizient bewältigen können. Der Zeitrahmen zur Erreichung dieser Schwelle bleibt ungewiss.
Quantentechnologien lassen sich in verschiedene Paradigmen einteilen, darunter Quantencomputing, Quantenkommunikation und Quantensensorik. Jedes Paradigma hat seinen eigenen Zeitplan für eine potenzielle Implementierung, wobei einige möglicherweise in weniger als fünf Jahren Wirkung zeigen, während andere 10 bis 20 Jahre benötigen könnten. Es ist essenziell für die in Technologie und Industrie Tätigen, sich über diese Entwicklungen weiterzubilden, um deren potenzielle Auswirkungen zu verstehen.
Das Ziel des Quantencomputings ist es, Berechnungen zu ermöglichen, die klassisch nicht durchführbar sind – potenziell schneller, besser und bei geringerem Energieverbrauch. Quantenkommunikation hingegen hat Anwendungen, die über die Verbesserung der Sicherheit hinausgehen. Sie kann dazu beitragen, ein Quanteninternet zu erschaffen und verteiltes Quantencomputing zu ermöglichen. Darüber hinaus kann die Quantenkommunikation zu präziseren Quantensensoren führen, die die Genauigkeit verschiedener Messungen erheblich verbessern können.
Quantensensorik kann verschiedene physikalische Eigenschaften wie Schwerkraft, Druck, Temperatur, Zeitfrequenz und Magnetismus mit weitaus größerer Präzision messen als bisher möglich. Während Quantensensoren möglicherweise sperriger sind als die bestehenden IoT-Sensoren, können ihre erhöhte Präzision zahlreiche Anwendungen haben, wie beispielsweise das Aufspüren von Untergrundstrukturen, das Identifizieren von Tunneln, das Finden von Wasserquellen und sogar militärische Anwendungen wie das Erkennen nuklearer U-Boote.
Es gibt auch positive Anwendungen der Quantensensorik, wie das Anbringen eines Quantenschwerkraftsensors an einem Satelliten, um die Erdbewegung und die Auswirkungen des Klimawandels zu untersuchen. Wissenschaftlicher Fortschritt wurde oft durch die Verfügbarkeit neuer Sensorklassen vorangetrieben, und die Quantensensorik hat das Potenzial, neue Wege für Forschung und Verständnis zu eröffnen.
Ezratty erklärt anschließend das Konzept der Quantum Supremacy, ein Begriff, der 2011 von John Preskill geprägt wurde. Quantum Supremacy bezeichnet eine Situation, in der ein Quantencomputer eine Berechnung durchführen kann, die für klassische Computer in angemessener Zeit unmöglich ist. Allerdings führt die derzeit von Google und anderen erreichte Quantum Supremacy nicht Berechnungen so durch, wie wir sie aus der enterprise software gewohnt sind. Stattdessen handelt es sich eher um einen Zufallszahlengenerator ohne echten Datenein- oder -ausgang. Als Google versuchte, sein Quantensystem für nützliche Berechnungen einzusetzen, konnten nur 15 der 53 Qubits genutzt werden. Diese 15 Qubits können auf einem persönlichen Laptop effizienter emuliert werden.
Die Diskussion wendet sich dann dem grundlegenden Baustein des klassischen Computings zu: dem Bit. Ein Bit ist die kleinste Informationseinheit, die entweder als 0 oder 1 dargestellt wird. Im Gegensatz dazu kann ein Qubit, die fundamentale Einheit des Quantencomputings, sowohl als mathematisches als auch als physikalisches Objekt beschrieben werden. Physikalisch ist ein Qubit ein Zweiniveausystem (TLS), das dank der quantenmechanischen Eigenschaften der Superposition gleichzeitig in zwei Energiezuständen existieren kann. Mathematisch werden Qubits durch zwei komplexe Zahlen (Koeffizienten) dargestellt, die ihren überlagerten Zustand beschreiben.
Die Leistungsfähigkeit des Quantencomputings resultiert daraus, dass der von Qubits gehandhabte Informationsraum mit jedem zusätzlichen Qubit exponentiell wächst. Dies steht im Gegensatz zum klassischen Computing, bei dem das Hinzufügen von Bits einen linearen Effekt auf die Speicherkapazität hat. Beispielsweise kann ein System mit 100 Qubits einen Informationsraum von 2^100 komplexen Zahlen bewältigen, was deutlich größer ist, als klassische Systeme handhaben können.
Die Interviewten sprechen auch die Schrödinger-Gleichung an, die verwendet wird, um das wellenartige Verhalten quantenmechanischer Objekte wie Qubits zu beschreiben. Wenn zwei Wellen, die unterschiedlichen Energiezuständen eines Qubits entsprechen, kombiniert werden, entsteht eine dritte Welle. Dieses Phänomen ist zentral für das Konzept der Superposition in der Quantenmechanik.
Ezratty erklärt, dass es zwei Hauptvorteile des Quantencomputings gibt: Geschwindigkeit und Raum. Quantencomputer können einen riesigen Berechnungsraum erschließen und komplexe Probleme lösen, die mit der Anzahl der Variablen exponentiell skalieren. Der Geschwindigkeitsvorteil resultiert jedoch aus den verwendeten Algorithmen und der Fähigkeit, die für die Berechnung erforderliche Anzahl an Operationen im Vergleich zum klassischen Computing zu reduzieren.
Ein weiterer Diskussionspunkt ist die Schwierigkeit, Daten in einen Quantencomputer einzuspeisen. Dies liegt an der langsamen Natur quantengatterbasierter Operationen und den Einschränkungen der aktuellen Quantensysteme. Ezratty erwähnt, dass hybride Algorithmen, die klassisches und Quantencomputing kombinieren, eingesetzt werden, um dieses Problem zu lösen.
Rauschen ist eine weitere bedeutende Herausforderung im Quantencomputing. Aktuelle Qubits erzeugen eine beträchtliche Menge an Fehlern, und eine Fehlerkorrektur ist notwendig, um die Berechnungen nützlich zu machen. Es gibt zwei Ansätze, um dieses Problem zu lösen: flache Algorithmen, die eine geringe Anzahl von Gattern und Operationen besitzen und Rauschen tolerieren können, sowie fehlerkorrigierende Codes, die Redundanz nutzen, um Fehler bei jeder Operation zu korrigieren.
Quantum Error Mitigation ist ein weiterer Ansatz, der untersucht wird, bei dem Machine Learning eingesetzt wird, um das System zu trainieren, Fehler nach Abschluss der gesamten Berechnung zu erkennen und zu korrigieren. Es wird erwartet, dass diese Methode die Leistungsfähigkeit verrauschter Quantencomputersysteme erweitert, obwohl die Schwelle für nützliches Quantencomputing für Enterprise-Anwendungen noch nicht erreicht ist.
Im Interview wird auch auf die Arten von Algorithmen eingegangen, die in kurzfristig verfügbaren Quantensystemen implementiert werden können. Dazu gehören chemische Simulationen, Optimierungsalgorithmen und Quanten-Machine Learning. Allerdings hat jeder dieser Anwendungsbereiche seine eigenen Herausforderungen und Einschränkungen.
Ezratty betont, dass die Wissenschaft, Quanten-Geschwindigkeitsvorteile zu verstehen, noch im Entstehen begriffen ist, da eine erhebliche Lücke zwischen theoretischem Wissen und praktischer Umsetzung besteht. Obwohl Fortschritte gemacht werden, bleibt noch viel Arbeit, um wirklich nützliche Quantencomputer zu entwickeln, die reale Vorteile gegenüber klassischen Systemen bieten können.
Das Gespräch wendet sich dann der Wechselwirkung zwischen Qubits und klassischer Elektronik zu. Qubits, die Grundeinheiten des Quantencomputings, können durch klassische Elektronik gesteuert werden, wobei Photonen an das Qubit gesendet werden, um dessen Zustand zu ändern. Die Diskussion geht dann auf die Notwendigkeit extrem niedriger Temperaturen für das Quantencomputing ein. Die meisten Technologien des Quantencomputings erfordern kühle Umgebungen, wobei supraleitende Qubits etwa 15 Millikelvin benötigen. Der Kühlprozess kann komplex sein und erfordert einen mehrstufigen Ansatz.
Silizium-Qubits, oder Silizium-Spin-Qubits, werden als Alternative erwähnt, die bei etwas höheren Temperaturen, zwischen 100 Millikelvin und einem Kelvin, betrieben werden können. Eine weitere besprochene Technologie ist die Steuerung einzelner Photonen bei Raumtemperatur mittels Wellenleitern. Obwohl an beiden Enden des Systems weiterhin Kühlung notwendig ist, wird sie dazwischen nicht benötigt.
Das Thema wechselt dann zu neutralen Atomen, die mithilfe von Lasern in einer Technik, bekannt als Magneto-Optische Falle, gekühlt und positioniert werden können. Dieser Prozess führt zu Temperaturen im Nanokelvin-Bereich, obwohl für die Pumpe, die Atome aus der Kammer entfernt, weiterhin gekühlt werden muss.
Eine weitere besprochene Quantentechnologie sind NV-Zentren, die potenzielle Anwendungen im Bereich des Rechnens und der Sensorik haben. Ein australisches Unternehmen, Quantum Reliance, hat ein Fünf-Qubit-System entwickelt, das bei Raumtemperatur arbeitet, obwohl seine Skalierbarkeit unsicher ist.
Das Gespräch hebt die Komplexität und Vielfalt der Quantentechnologien hervor, mit vielen verschiedenen Arten von Qubits und unterschiedlichen Kühlungsanforderungen. Ezratty betont die Bedeutung, sich mit einer Vielzahl von Wissenschaftlern, Ingenieuren und Informatikern zu treffen, um ein besseres Verständnis des Gebietes zu erlangen.
Ezratty hebt die Wichtigkeit hervor, wissenschaftliche Arbeiten zu lesen und vielfältige Perspektiven von Experten in verschiedenen Teilbereichen der Quantentechnologie einzuholen. Trotz der Komplexität und ständigen Weiterentwicklung des Feldes ist es essenziell, das eigene Wissen kontinuierlich zu aktualisieren, um mit den Entwicklungen Schritt zu halten.
Ezratty teilt seine Erfahrungen beim Erlernen der Quantentechnologie und beim Treffen mit verschiedenen Wissenschaftlern und Experten auf diesem Gebiet. Er betont die Bedeutung von Serendipität, also dem glücklichen Zusammentreffen von Menschen, die wertvolle Einblicke und Informationen liefern können. Während er sich in der Landschaft der Quantentechnologie orientiert, sucht Ezratty in wissenschaftlichen Arbeiten und in den Mitteilungen der Anbieter nach Hinweisen, um den Stand der Technik zu verstehen.
Im Interview zieht Vermorel Parallelen zwischen dem Feld der Quantentechnologie und seinem eigenen Fachgebiet, supply chain optimization. Beide Bereiche zeichnen sich durch eine Vielzahl von Nischenperspektiven, Anbietern und konkurrierenden Philosophien aus. Vermorel unterstreicht die Wichtigkeit, eine kritische Haltung einzunehmen, um Behauptungen zu evaluieren und verborgene Kosten oder versteckte Nachteile aufzudecken.
Ezratty weist darauf hin, dass das Verständnis der in der Quantentechnologie verwendeten Metriken entscheidend ist, um die Qualität der Qubits und die Leistung der Quantencomputer zu bewerten. Allerdings kann es schwierig sein, konsistente Metriken zu finden, da unterschiedliche Messtechniken und Benchmarks im Feld existieren. Er bemerkt auch, dass die jüngste Verfügbarkeit von Quantencomputern in der Cloud es Forschern erleichtert hat, verschiedene Systeme auf konsistente Weise zu benchmarken und zu vergleichen.
Trotz der Komplexität des Feldes und der Schwierigkeiten beim Verständnis wissenschaftlicher Veröffentlichungen ist Ezratty der Meinung, dass das Quantentechnologie-Ökosystem recht offen ist. Er räumt ein, dass Anbieter ihre Leistungen manchmal übertreiben mögen, ist jedoch der Ansicht, dass das Feld im Allgemeinen für diejenigen zugänglich ist, die bereit sind, Zeit und Mühe in das Lernen darüber zu investieren.
Vermorel und Ezratty erörtern die Auswirkungen großer Unternehmen auf das Feld und stellen fest, dass diese oft Risikokapital anziehen, aber auch unter unternehmerischen Verzerrungen leiden können. Sie sprechen auch die Rolle von Marktanalysten an, die häufig aufgrund finanzieller Anreize seitens der Anbieter voreingenommen werden und somit die Entwicklung der Branche potenziell verzerren.
Ezratty erklärt, wie einige Technologien im Bereich des Quantencomputings in den nächsten Jahren praktische Vorteile bieten könnten, wie zum Beispiel analoge Quantencomputer. Allerdings bleibt der Zeitrahmen für eine breite Einführung unsicher, wobei viele Experten schätzen, dass es 10–15 Jahre dauern wird, bis die Technologie ihr volles Potenzial erreicht.
Eine der großen Herausforderungen bei der Skalierung der Quantencomputing-Technologie besteht darin, von Hunderten von Qubits auf Millionen zu wechseln – ein Schritt, der erhebliche ingenieurtechnische und energetische Herausforderungen mit sich bringt. Das Feld ist geprägt von einer Vielzahl konkurrierender Technologien, wodurch es schwierig ist, vorherzusagen, welche letztendlich erfolgreich sein wird.
Ezratty weist darauf hin, dass derzeit eine enorme Kreativität und Innovation im Feld vorhanden ist, insbesondere in Bezug auf Techniken zur Fehlerkorrektur. Trotz des Skeptizismus hinsichtlich der Realisierbarkeit von Millionen verschränkter Qubits ist er überzeugt, dass die Genialität von Ingenieuren und Wissenschaftlern letztlich zu Durchbrüchen führen könnte.
Das Interview behandelt die Bedeutung, stets über Entwicklungen in der Quantentechnologie informiert zu bleiben. Da sich das Feld ständig wandelt, ist es entscheidend, sich fortlaufend weiterzubilden, um die Bedeutung neuer Ankündigungen und Durchbrüche zu verstehen. Ezratty teilt sein persönliches Interesse an diesem Gebiet und seine Pläne für zukünftige Projekte, wobei er die intellektuelle Herausforderung und die Begeisterung hervorhebt, die die Quantentechnologie umgibt.
Olivier erwähnt, dass er derzeit an der sechsten Auflage seines Buches arbeitet, wissenschaftliche Arbeiten verfasst und sich an Aktivitäten beteiligt, die das französische und europäische Quantentechnologie-Ökosystem stärken. Er ist auch in der Lehre, Weiterbildung und bei der Durchführung von zwei Podcast-Serien mit Fanny Piat aktiv, die zu einer Quantum Leaderin bei OVHcloud geworden ist. Oliviers letztendliches Ziel ist es, zum Erfolg des französischen und europäischen Quantentechnologie-Ökosystems beizutragen.
Beide Sprecher betonen die Bedeutung des Schreibens als Methode, Gedanken zu strukturieren und zu teilen. Joannes ist der Ansicht, dass die Übung des Schreibens unglaublich vorteilhaft ist, selbst wenn das Material nie veröffentlicht wird. Diese Überzeugung wird von Olivier geteilt, der einige seiner Organisationstechniken vorstellt – zum Beispiel die Verwendung eines Word-Dokuments mit demselben Inhaltsverzeichnis wie sein Buch, um Aktualisierungen und neue Informationen im Blick zu behalten.
Olivier unterhält zudem eine Vielzahl von Datenbanken, darunter eine Liste der Nobelpreisträger in der Quantenphysik, Quantenfirmen und Qubit-Fidelitäten. Er ist der Meinung, dass es entscheidend ist, organisiert zu bleiben und Inhalte auf clevere Weise wiederzuverwenden, wenn man unabhängig arbeitet.
Bezüglich Vorschlägen an CEOs und CTOs von Unternehmen, die sich in undurchsichtigen Feldern wie dem Quantencomputing bewegen, empfiehlt Olivier, sein Buch zu lesen, um eine Vorstellung davon zu bekommen, was Quantencomputing ihren Geschäften bringen könnte. Er betont die Wichtigkeit, sich nicht ausschließlich auf die Presse zu verlassen, sondern spezialisierte Meinungen einzuholen und die Quellen der Informationen zu diversifizieren.
Die Teilnahme an Konferenzen, das Anschauen von Lehrvideos auf YouTube und die Mitwirkung an Veranstaltungen, die ein tiefgehendes Verständnis der Quantentechnologie vermitteln, werden ebenfalls für Interessierte empfohlen. Letztlich ist Olivier der Ansicht, dass sich ein gutes Verständnis des aktuellen Stands und des Potenzials von Quantensystemen durch verschiedene Bildungsformate – etwa Vorträge oder Präsentationen von ein bis zwei Stunden – erzielen lässt.
Vollständiges Transkript
Joannes Vermorel: Willkommen bei Lokad TV. Ich bin Joannes Vermorel, CEO und Gründer von Lokad, und heute habe ich Olivier Ezratty als Gast. Soweit ich das beurteilen kann, ist Olivier seit mehr als zwei Jahrzehnten Technologe und Futurist – und das ist als höchstes Lob zu verstehen. Er verfolgt eine sehr eigenartige Methodik, bei der er ein sehr wichtiges und breit gefächertes Thema auswählt und zu verstehen versucht. Das Thema des Tages für diese Episode wird Quantencomputing und Unternehmenssoftware sein. Es kommt gerade so, dass Olivier in seinem ganz eigenwilligen Stil vor einigen Jahren einen absolut gigantischen Bericht von 1100 Seiten plus zu all den Quantentechnologien erstellt hat.
Ich werde zuallererst dem Publikum gestehen, dass mein eigenes Wissen in der Quantenmechanik etwa den ersten 200 Seiten eines Buches namens “Introduction to Quantum Mechanics” von Griffiths entspricht, das im Grunde ein Lehrbuch für Studenten ist. Also werde ich nicht behaupten, ein Experte zu sein, aber wir werden diese Reise gemeinsam durchlaufen. Und um zu beginnen, vielleicht, Olivier, könntest du uns ein wenig mehr darüber erzählen, wie du – so wie ich es verstehe – vor etwa fünf bis sechs Jahren in diese Quantenreise eingetaucht bist? Hast du eines Morgens entschieden: “Ich werde ein Experte auf diesem Gebiet” und bist dann am Ende wohl zum größten Kompendium gelangt, das ich je zu diesem Thema gesehen habe, das in etwa ein massiver Bericht ist, der eigentlich mehr einem massiven Buch gleicht?
Olivier Ezratty: Nun, ich hatte nicht geplant, was ich im Bereich Quanten tun würde. Es begann vor etwa acht Jahren, im Jahr 2015, als ich entdeckte, dass Google, die NASA und D-Wave über diese Art von seltsamem Computer kommunizierten, den D-Wave herstellten. Es wurde berichtet, dass bestimmte Prozesse 100 Millionen Mal schneller ablaufen als auf einem gewöhnlichen Laptop, was mich ziemlich verblüffte. Was mich damals überraschte – und ich denke, das gilt auch heute noch – war, dass all die wissenschaftlichen Arbeiten, die diesen Computer und das, was Google damit machte, beschrieben, unglaublich komplex waren. Ich war mir sicher, dass all diese Menschen, die darüber schrieben, gar nichts von dem verstanden, und sagte mir: “Vielleicht werde ich das eines Tages verstehen.”
Also beschloss ich 2016, bis 2018 in der Lage zu sein, nur eine einstündige, sehr einfache Konferenz zu halten. Ich tat mich mit einem Freund namens Fran Ibuto zusammen – unsere Geschichte werde ich später erzählen. Wir entschieden uns, diese Konferenz 2018 zu veranstalten, und daraufhin schrieb ich 18 Beiträge in meinem Blog. Das wurde zur Basis meines Buches, das 300–350 Seiten umfasste. Anschließend wechselte ich für die erste, die vierte und dann die fünfte Ausgabe, die im letzten September 2022 erschienen ist – diese hat tatsächlich mehr als tausend Seiten – zur englischen Sprache.
Inzwischen habe ich in dieser Welt Unmengen an Dingen gemacht. Ich arbeite mit Forschern zusammen, bin Lehrer an verschiedenen Schulen, kooperiere mit der Regierung an diversen Aktivitäten, bin Trainer in Unternehmen, berate in vielen Situationen und fungiere unter anderem als Experte für Bpifrance. Sogar auf ministerieller Ebene arbeite ich mit der Regierung zusammen, um zukünftige Versionen des französischen Plans zu gestalten.
Das Wichtigste, was ich im letzten Jahr lancierte, ist die sogenannte “Quantum Energy Initiative”. Dabei handelt es sich um eine Forschungsinitiative, die ich zusammen mit ein paar Freunden aus der Forschung ins Leben gerufen habe, insbesondere mit Alexis Feb, einem lieben Freund, der inzwischen in Singapur lebt. Wir haben diese Initiative gestartet, um sicherzustellen, dass die Menschen, die Quantencomputer und andere Quantentechnologien entwickeln, bereits in der Entwurfsphase auf die Umweltauswirkungen dieser Technologien achten. Wir wollen also gewährleisten, dass ein skalierbarer Quantencomputer nicht mehr Energie verbraucht, als ein Kernkraftwerk liefert. Und dafür ist noch einiges zu tun. Ich habe deine Berichte gelesen – übrigens las ich die ersten 300 Seiten und habe den Rest dann überflogen. Ich bin direkt zum letzten Abschnitt über Quantensensorik gesprungen, der sehr interessant ist. Daher entschuldige ich mich beim Publikum: Ich mache etwas, was viele in Talkshows tun, nämlich über Bücher zu sprechen, die sie nicht vollständig gelesen haben. Ich habe sie also nur teilweise gelesen. Eines der sehr interessanten Dinge war, dass ich intellektuell wusste – aber niemals die Zusammenhänge erkannt hatte – dass Transistoren tatsächlich ein Quanteneffekt sind. Das ist der Feldeffekt, und genau das argumentierst du im allerersten Abschnitt deines Berichts.
Joannes Vermorel: Obwohl Quantencomputing in jüngerer Zeit zu einem angesagten Schlagwort geworden ist, stellt sich heraus, dass das herkömmliche Rechnen bereits in der ersten Quantenrevolution verwurzelt ist, die bis in die 1950er Jahre zurückreicht. Die Festplatten, die wir mit riesiger Magnetresistenz besitzen, sind ebenfalls ein Quanteneffekt – das gilt für den Spin-Drive, also die neueren Modelle mit Terabyte und mehr Speicher. Alle existierenden Technologien basieren auf Quantenphysik.
Olivier Ezratty: Ja, ich meine, alles davon. Sogar die Astrophysik, wie das James-Webb-Teleskop, nutzt Quantenphysik. Glasfaserkabel für die Telekommunikation beruhen ebenfalls auf Quantenphysik. Alles funktioniert auf der Ebene von Elektronen, Atomen oder Photonen nach den Regeln der Quantenphysik. Allerdings sind die Phänomene nicht identisch. Die in den heutigen Technologien verwendeten quantenphysikalischen Effekte unterscheiden sich von denen, die wir im Quantencomputing nutzen wollen. Dort liegt der kleine Unterschied. In der heute angewandten Quantenphysik nutzen wir hauptsächlich das gut verstandene Zusammenspiel von Licht und Materie. So führt es beispielsweise dazu, dass ein Photon ein Elektron verschiebt und Strom erzeugt – wie bei einer Solaranlage.
Olivier Ezratty: In der Transistor-Technologie gibt es ein sehr starkes Verständnis der Energieniveaus in halbleitenden Materialien wie Silizium. In den Quantentechnologien der zweiten Revolution, insbesondere im Quantencomputing, nutzen wir drei sehr spezifische Mechanismen, die wir bisher nicht angewandt haben. Einer davon ist die Überlagerung von Quantenzuständen, ein reales Phänomen mit einer mathematischen und physikalischen Interpretation, die übrigens ziemlich schwer zu durchdringen ist. Der zweite Mechanismus ist die Verschränkung, also die Tatsache, dass einige Teilchen eine gemeinsame Vergangenheit und Zukunft haben können. Sie verhalten sich wie ein einziges Teilchen, und das ist die Quelle beträchtlicher Rechenleistung in der Informatik, Kommunikation und sogar Sensorik.
Olivier Ezratty: Dann kommt noch, dass wir experimentell jetzt in der Lage sind, einzelne Nanopartikel zu kontrollieren. Das war in einem Transistor, in dem Milliarden von Elektronen ein- und austreten, oder in einem Laser mit Milliarden von Photonen nicht möglich. Heute können wir ein einzelnes Elektron, ein einzelnes Photon und ein einzelnes Atom erzeugen, steuern und messen. Wir können sogar ein einzelnes Atom in einem Vakuum mit einem Laser kontrollieren. Das ist neu und genau das, was wir jetzt in der Quantentechnologie tun.
Joannes Vermorel: Ja, obwohl mein eigenes Verständnis darin besteht, dass, wenn man sich genau anschauen will, was ein Atom eigentlich ist, es schnell ein wenig verschwimmt. Wissen Sie, was ein Atom ist? Es kann sich an einer bestimmten Stelle befinden, bewegt sich aber dennoch ein wenig. Ein unbewegtes Teilchen gibt es nicht, denn es ist immer in Bewegung. Andernfalls würde das Heisenbergsche Prinzip nicht gelten. Ich habe mir die Quantenphysik angesehen und festgestellt, dass es ein sehr weites Feld ist. Das Erstaunlichste, was ich entdeckt habe, ist, dass Vakuum nicht existiert.
Olivier Ezratty: Ja, genau. Das bedeutet, dass es nirgendwo auf der Welt im Raum so etwas wie Nichts gibt. Zum Beispiel, wenn du ein Experiment mit einer geschlossenen Box machst, verwendest du eine sogenannte Ultrahochvakuumpumpe und entfernst alle Atome. Dann kühlt man sie auf eine sehr niedrige Temperatur, sagen wir ein paar Nano-Kelvin, um sicherzustellen, dass sich nichts darin befindet – keine Mikrowellen, keine elektromagnetischen Wellen, nichts. Wenn du dort misst, wirst du feststellen, dass einige Teilchen erzeugt und zerstört werden. Das nennt man Vakuumfluktuationen. Und dieses Nichts existiert nicht, was so erstaunlich ist.
Joannes Vermorel: Das ist faszinierend. Eines meiner persönlichen Interessen ist die Geschichte der Wissenschaft, und das sehr Merkwürdige ist, dass dies weitgehend das Konzept des Äthers rehabilitiert. Zu Beginn des 20. Jahrhunderts verzichteten die Menschen auf diese Idee, um Platz für das Vakuum zu schaffen, da man glaubte, dass die Natur ein Vakuum nicht mag. So schafften es die Menschen, sich von dieser altmodischen Idee zu verabschieden und zu sagen: “Okay, wir haben jetzt ein tatsächliches Vakuum.” Und der Äther, der der alte Begriff war, wurde als im Grunde genommen veraltete Wissenschaft abgetan.
Das Interessante ist, dass wir von “die Natur mag kein Vakuum, also brauchen wir diesen Äther” zu einer anderen Generation von Wissenschaftlern übergegangen sind, die sagen: “Nein, wir haben ein Vakuum, das Unmengen an Dingen erklärt.” Und das tat es auch. Und jetzt kommen wir zurück zu: “Nun, es stellt sich heraus, dass wenn man noch präziser misst, man erkennt, dass das Vakuum eigentlich ein besseres Verständnis bot, als man zuvor vom Äther annahm.”
Olivier Ezratty: Genau, denn die Vakuumfluktuationen bewegen sich auf einem sehr niedrigen, quantenmechanischen Niveau. Es ist ein sehr schwaches Phänomen. Man kann auch ein Experiment mit dem Casimir-Effekt durchführen, bei dem zwei Goldplatten sehr nah beieinander liegen. Wenn du diese beiden Platten in ein Vakuum bei einer sehr niedrigen Temperatur stellst, werden sie sich anziehen, und das liegt an diesen Vakuumfluktuationen. Aber es handelt sich nicht um eine Art spontane Energie, denn wenn sie zusammenkleben, muss man sie auseinanderschieben und Energie zuführen, um sie zu trennen. Somit wird der zweite Hauptsatz der Thermodynamik stets bewahrt; er funktioniert weiterhin. Dennoch gibt es diese Art von dauerhafter Bewegung, und dies erklärt, warum kein Teilchen wie ein Atom oder ein Elektron völlig unbewegt sein kann. Es bewegt sich immer ein wenig.
Joannes Vermorel: Also, wenn wir auf diese Idee des Quantencomputings und der Enterprise-Software zurückkommen, fällt mir als Unternehmer im Bereich Enterprise-Software auf, dass meine Kollegen im Allgemeinen kein Interesse an mechanischer Sympathie zeigen. Was ich mit mechanischer Sympathie meine – und ich spreche hier nicht von Menschen allgemein, sondern speziell im Umfeld der Enterprise-Software – ist, dass aufgrund der Tatsache, dass sich die Rechenhardware seit Jahrzehnten rasant weiterentwickelt, im Allgemeinen ein Desinteresse an der Hardware besteht. Es war wirklich, würde ich sagen, Ursache und Wirkung. Wenn du Hardware hast und erwartest, dass sie innerhalb eines Jahrzehnts tausendmal besser wird, und du als Anbieter an dem, was du tust, nichts ändern musst, warum sollte es dich kümmern? Du setzt dich einfach hin, genießt die Fahrt, lässt andere ihr Zauberwerk vollbringen, und deine Software, egal wie ineffizient sie ist, wird das Problem für dich lösen. Das war, glaube ich, die vorherrschende Haltung vieler Menschen in der Enterprise-Software und der Ingenieure.
Olivier Ezratty: Das ist bis heute so, aus guten wie auch aus schlechten Gründen. Die guten Gründe sind, dass die Idee eines Quantencomputers vor etwa 40 Jahren geboren wurde, und der Fortschritt zwar wichtig war, aber nicht so rasant wie bei der klassischen Datenverarbeitung. Wenn man den ersten Computer, den ENIAC, aus dem Jahr 1946 nimmt und 40 Jahre addiert, kommt man auf 1986. Im Jahr 1986 hattest du Mikrodatenverarbeitung und den Mac, sodass es einen enormen Fortschritt gab. Wir gingen vom Großrechner über den Minicomputer zu Workstations und PCs – alles innerhalb von 40 Jahren. Im gleichen Zeitraum im Quantenbereich haben wir noch Prototypen. Es läuft träger und langsamer, aber wenn du mit einem Physiker sprichst, wird er dir sagen, dass in den letzten 10 Jahren enorme Fortschritte erzielt wurden, nur eben nicht in einem Maßstab, der die Industrie nachhaltig transformiert.
Die große Frage ist, wann wir den sogenannten Quantenvorteil oder die Schwelle erreichen, also eine Situation, in der Quantencomputer Dinge tun können, die auf einem klassischen Computer nicht effizient möglich sind. Das wissen wir wirklich nicht. Einige Paradigmen könnten in weniger als fünf Jahren Wert schaffen, während andere vielleicht mehr Zeit benötigen, möglicherweise 10 bis 20 Jahre. Es gibt vieles Unsicherheit. Einer der Gründe, warum es sinnvoll ist, sich für Quantencomputing zu interessieren, ist, dass man nicht weiß, in welchem Tempo es Fortschritte machen oder Industrien transformieren wird. Falls und wenn es funktioniert, könnte es enorm transformativ sein und viele Branchen verändern, in denen du komplexe Optimierungsprobleme managen musst. Diese Probleme ließen sich mit Quantencomputern effizienter lösen. Man muss sich also zumindest informieren und verstehen, wo wir stehen, selbst wenn man skeptisch oder vorsichtig hinsichtlich des Fortschrittstempos in dieser Branche ist.
Du musst in der Lage sein, Ankündigungen von IBM, Google und anderen zu entschlüsseln. Wenn du nicht die intellektuellen Fähigkeiten dazu hast, könntest du etwas verpassen oder in die Irre geführt werden und glauben, dass es besser oder schlechter funktioniert, als es tatsächlich der Fall ist. Man muss sich über jeden neuen Trend informieren, genauso wie man sich über das Metaversum oder Kryptowährungen informieren muss, auch wenn man sich möglicherweise nicht aktiv einbringen muss.
Joannes Vermorel: Ich betrachte mich als einen dieser Unternehmer mit einer tiefen mechanischen Sympathie. Ich kann nicht für jeden einzelnen Mitarbeiter bei Lokad sprechen, aber persönlich habe ich ein tiefes Interesse an all den physischen Schichten, die das, was wir tun, antreiben. Dieses Verständnis, so glaube ich, ist wichtig und hat tonnenweise Auswirkungen auf die Herangehensweise an Probleme. Wenn ich etwas sehe, bei dem mein Bauchgefühl mir sagt, dass die Hardware in diesem Bereich fantastische Fortschritte machen wird, dann sage ich, dass wir es uns leisten können, einen völlig anderen Ansatz zu verfolgen. In anderen Bereichen könnten wir jedoch feststecken. Zum Beispiel wird sich die Lichtgeschwindigkeit höchstwahrscheinlich in absehbarer Zeit nicht verbessern, vielleicht niemals. Das hat sehr reale Konsequenzen dafür, was du im Hinblick auf verteiltes Rechnen tun kannst.
Wenn wir so viele Daten verarbeiten, gibt es Dinge, die höchstwahrscheinlich niemals sehr praktikabel sein werden, wie zum Beispiel die Verteilung unserer Rechenressourcen über den Globus. Aus zahlreichen Gründen ist es viel einfacher, all diese Ressourcen an einem Ort zu konzentrieren. Es gibt viele Gründe zu der Annahme, dass es harte Grenzen gibt, bei denen es niemals vorteilhaft sein wird, es auf andere Weise zu tun.
Nun, was interessant ist – und ich las deinen Bericht – ist, dass mein erstes Missverständnis darin bestand, dass ich in Begriffen des Quantencomputings dachte, obwohl der korrekte Ausdruck eigentlich Quanten-Technologien wäre. Es gibt mehrere Dinge, die für mich sehr interessant waren, wie Quantenkommunikation, Telekommunikation und Quantensensorik. Kannst du uns einen kleinen Überblick darüber geben, was die großen Ambitionen sind, diese Fronten zu verbessern? Was sind die Bereiche, in denen Menschen dieses Verständnis der Quantenmechanik nutzen, um zu sagen, dass wir möglicherweise Dinge tun werden, die vielleicht zuvor unmöglich waren, oder vielleicht doch möglich, oder sie einfach viel besser zu machen?
Olivier Ezratty: Die einfachste Art, Quantencomputing zu beschreiben, ist, dass es uns ermöglichen soll, Berechnungen durchzuführen, die klassisch nicht möglich sind – also vielleicht schneller oder besser zu einem bestimmten Zeitpunkt und möglicherweise auch mit weniger Energieverbrauch. Das ist einer der Vorteile des Quantencomputings.
Quantenkommunikation hingegen funktioniert in beide Richtungen. Sie kann als ein Weg gesehen werden, die Sicherheit der Kommunikation zu verbessern, da eine der Technologien in der Quantenkommunikation das sogenannte QKD, also die Quantum Key Distribution, ist. Es ist ein Weg, Verschlüsselungsschlüssel zu verteilen, die sicherer sind als die klassischen digitalen Schlüssel, die wir mit RSA-Protokollen und Ähnlichem im offenen Internet verwenden. Darüber hinaus ist Quantenkommunikation aber weitaus ausgefeilter als nur Sicherheit. Sie wird in Zukunft helfen, ein sogenanntes Quanten-Internet oder ein Quantennetz zu schaffen, das Quantencomputer miteinander verbindet, und wird irgendwann verteiltes Quantencomputing ermöglichen.
Es kann auch die Schaffung präziserer Quantensensoren ermöglichen, denn wenn du verschiedene Quantensensoren hast, die kontinuierlich über ein Quantennetz verbunden sind, kannst du sie verbessern. Diese Sensoren ermöglichen es, die Präzision bei der Messung jeglicher physikalischer Parameter, den du messen möchtest, zu erhöhen. Es kann Gravitation, Druck, Temperatur, Zeit, Frequenz, Magnetismus sein – alles lässt sich potenziell mit höherer Genauigkeit messen dank der Quantensensorik. Da gibt es tonnenweise Anwendungsmöglichkeiten.
Joannes Vermorel: Das ist interessant, denn wieder haben wir diese Technologiebereiche, die sehr unterschiedliche Ziele verfolgen. Ich meine, ganz unterschiedliche Ambitionen.
Olivier Ezratty: Ja, wir haben das Rechnen, das wirklich auf ein neues algorithmisches Paradigma hinausläuft. Wir wollen das physikalische Substrat für verschiedene Arten von Problemen haben. Aber wir haben auch die Quantenkommunikation, die völlig neue Klassen von Sicherheitsmaßnahmen ermöglicht. Das ist interessant, denn es geht über reine Sicherheit hinaus.
Joannes Vermorel: Oh ja, und es geht weit darüber hinaus.
Olivier Ezratty: Sicherheit ist nur ein Aspekt. Es gibt auch andere, klassischere Lösungen zur Verbesserung der Sicherheit, wie zum Beispiel die Post-Quanten-Kryptografie. Aber Quantenkommunikation, über die Quantensicherheit hinaus, ist weitaus interessanter. Sie ist futuristisch und gehört eher zur Zukunft, denn es gibt viele Technologien, die noch nicht existieren, wie etwa Quantenrepeater. Wenn das funktioniert, werden wir in der Lage sein, sehr mächtige Dinge zu tun, wie die Kommunikation zwischen zwei Quantencomputern. Es kann letztlich alles gemeinsam ermöglichen.
Zuerst kannst du die Leistung steigern, wenn du zwei Quantencomputer über eine Quantenverbindung koppeln. Das wird die Leistung dieser beiden Systeme vervielfachen – mehr als nur addieren; es ist exponentiell, was völlig anders ist, als man es bei klassischen Computern kennt. Zweitens, wenn du zwei Quantencomputer über eine Quantenverbindung verbindest, erhöhst du die Sicherheit dieser Verbindung. Wenn jemand die Glasfaser, die diese Systeme verbindet, abfängt, kann er nichts erlangen. Es ist das beste Verschleierungssystem, das eine sichere Kommunikation zwischen zwei Parteien ermöglicht.
Du könntest einen leichteren Quantenclient haben, der mit einem großen Quantensystem am anderen Ende der Leitung verbunden ist, und das würde eine sehr sichere Kommunikation ermöglichen. Übrigens, es gibt ein Protokoll namens “The Blind Quantum Computing”, das dies ermöglicht. Es wurde von einigen Forschern entwickelt, darunter eine, die in Frankreich lebt. Ihr Name ist Anne, und sie war vor mehr als 15 Jahren die Miterfinderin dieses Protokolls.
Und Quantensensorik ist auch etwas, von dem ich gar nicht wusste, dass es existiert.
Joannes Vermorel: Wenn du von präziseren Messungen sprichst, könntest du uns einen Eindruck davon vermitteln, was üblicherweise gemessen wird – wie Magnetismus oder Gravitation? Siehst du in diesem Bereich ein Potenzial im unglaublich kleinen Maßstab?
Olivier Ezratty: Was ich über Quantensensoren weiß, ist, dass sie sperriger sind als die aktuellen IoT-Sensoren, die wir derzeit haben, aber sie bieten eine um mehrere Größenordnungen höhere Präzision. In einigen Fällen ist dies sehr nützlich. Wenn du die Gravitation mit einer wesentlich besseren Positionsbestimmung messen möchtest, kann es dir helfen, das zu erkennen, was sich unter der Erde befindet. So kann es in vielen Situationen nützlich sein. Eine typische Situation ist, wie man Tunnel detektiert, während man eine Stadt umgestaltet – wie man Wasser aufspürt. Es könnte auch zur Öldetektion verwendet werden, auch wenn ich nicht sicher bin, ob wir mehr Öl suchen sollten. Es gibt sogar potenzielle militärische Anwendungen, denn wenn du hochpräzise magnetische und gravitative Messungen kombinieren kannst, um diese beiden Dinge zusammen auszuwerten, könntest du womöglich einen Atom-U-Boot unter dem Meer aufspüren. Das kann also viele nukleare Abschreckungsstrategien für zahlreiche Länder verändern. Auch Magnetismus könnte auf nanoskaliger Ebene genutzt werden. Es gibt sogenannte NV-Zentren-Sensoren, bei denen ein Defekt in einer Diamantstruktur – ein sehr kleiner Defekt, bei dem lediglich ein Kohlenstoffatom fehlt, ein anderes durch ein Stickstoffatom ersetzt wurde, und ein paar freie Elektronen in der Lücke zirkulieren – verwendet wird. Diese können mit Lasern eingesetzt werden, um sehr kleine Veränderungen im Magnetismus zu detektieren, und sie können z. B. für MRTs genutzt werden. Sie können Variationen des elektromagnetischen Feldes im Gehirn messen. Sie könnten dazu verwendet werden, biologische Untersuchungen auf atomarer Ebene durchzuführen. Es gibt also enorme Fortschritte sowohl im nanoskaligen Bereich auf Atomniveau als auch im Makromaßstab mit Gravimetrie.
Und als vielleicht eine kleine Abschweifung: Als du sagtest, “Oh, wir haben diese Technologie, und sie könnte U-Boote aufspüren”, musste ich innerlich schmunzeln, weil ich nie daran gedacht hätte. Aber ja, wenn du einen Massendetektor oder etwas Ähnliches hast, das ein wenig wie eine Infrarotkamera agiert, dir jedoch die Massendichte der Umgebung anzeigt, dann macht das vollkommen Sinn. Übrigens gibt es auch positivere Anwendungen. Wenn du einen Quantengravitationssensor in einen Satelliten einbaust, der um die Erde kreist, kannst du viele geodätische Studien durchführen. Du kannst verstehen, wie sich die Erde bewegt, und die Auswirkungen des Klimawandels auf die Erdoberfläche und das Wasser feststellen. Es gibt viele sehr positive Anwendungsfälle, um zu verstehen, was auf der Erde vor sich geht.
Joannes Vermorel: Genau. Ich meine, der Großteil des wissenschaftlichen Fortschritts wurde in hohem Maße durch die Verfügbarkeit neuer Sensorklassen vorangetrieben. Und das führt mich zu einem kleinen Exkurs. Olivier Ezratty ist in Frankreich seit Jahrzehnten bekannt, und bevor er Berichte über Quantentechnologie machte, verfasste Olivier einen gigantischen Bericht über Startups und KI. Der Bericht über Startups hatte für mich eine sehr tiefgreifende Bedeutung, weil er ein höchst einflussreiches Dokument für mich beim tatsächlichen Start von Lokad war. Und ich denke, dass einer der Punkte, die Ihre Dokumente so absonderlich, eigenartig, verdreht und ungewöhnlich machen, darin besteht, dass Sie diese super holistische Betrachtungsweise haben, die die üblichen Grenzen völlig verwischt.
In der Welt der Unternehmenssoftware, und der Großteil des Publikums dieses Kanals ist in supply chains tätig, werden supply chains immer durch Schichten von Unternehmenssoftware betrieben. Man interagiert nicht physisch mit der supply chain, sondern hat zahlreiche Schichten von Umwegen, um Dinge zu erledigen. Eines der Probleme ist, dass es alle möglichen Diskursebenen von all den Anbietern gibt, die alle etwas zu sagen haben. Ich habe mich lange Zeit für Quantencomputing interessiert, und ich sehe, dass viele Behauptungen aufgestellt werden, manchmal großspurige Behauptungen, wie Google die Quantum Supremacy erreicht habe. Schon allein der Begriff wirkt beeindruckend. Supremacy, okay.
Olivier Ezratty: Übrigens, sie haben das Wort nicht erfunden.
Joannes Vermorel: Oh, ja?
Olivier Ezratty: Ich habe vor etwa zwei Wochen mit dem Typen gesprochen, der das Wort erfunden hat. Sein Name ist John Preskill, er ist Lehrer und ein sehr berühmter Akademiker am Caltech in Kalifornien. Er prägte dieses Wort, glaube ich, bereits im Jahr 2011. Google verwendete diese Formulierung, aber sie beschrieb eine Situation, in der ein Quantencomputer in der Lage ist, eine Berechnung durchzuführen, die man klassisch nicht in angemessener Zeit durchführen kann, egal ob sie nützlich ist oder nicht. Es stellt sich heraus, dass Quantum Supremacy von Google und von anderen aus China keine Berechnung durchführt, wie wir sie in der Unternehmenssoftware gewohnt sind. Es gibt keine Daten als Eingabe, keine Daten als Ausgabe, es ist lediglich eine Art Zufallszahlengenerator, und man muss überprüfen, dass die Abtastung des Generators in der klassischen Emulation etwa gleich ist wie im Quantensystem. Aber es handelt sich nicht um eine echte Berechnung.
Interessanterweise, als Google sein eigenes System nutzen musste, um eine nützliche Berechnung durchzuführen, konnten sie nicht die 53 Qubits verwenden, die sie für das Supremacy-Experiment einsetzten, welches übrigens in nur 0,14 % der Fälle ein gutes Ergebnis lieferte. Das ist die Wahrscheinlichkeit eines guten Ergebnisses. Sie konnten nur bis zu 15 von 53 Qubits verwenden, und 15 Qubits können effizienter emuliert werden, also schneller auf Ihrem eigenen Laptop. Das ist interessant. Irgendwann sagten sie, sie würden Dinge durchführen, deren Berechnung auf einem klassischen Computer oder sogar dem größten Jahre dauern könnte, und andererseits, wenn sie nützliche Dinge berechnen, ist es enttäuschend.
Joannes Vermorel: Vielleicht für den Kontext des Publikums: Ein Bit ist etwas, das der klassischen Version entspricht, also nur eine Null und eine Eins, und es ist im Grunde der fundamentale Baustein sehr niedrigstufiger Information, die man auf der Erde erzeugen kann.
Olivier Ezratty: Genau.
Joannes Vermorel: Dies ist eine sehr dezente, elegante Sichtweise, die in der grundlegenden Mathematik verankert ist. Ich denke, das Publikum hat ein sehr gutes Verständnis davon, was ein Bit ist, aber vielleicht nicht. Die meisten Programmierer haben keine Ahnung, wie ein Prozessor funktioniert.
Olivier Ezratty: Ja, aber nehmen wir an, dass das Publikum zumindest ein allgemeines Verständnis von einem Bit hat, nur um die Grundlage dieser Episode zu bilden.
Joannes Vermorel: Ich bin mir sicher, dass unser Publikum ein sehr gutes Verständnis davon hat, was ein Bit ist, aber die meisten Programmierer wissen nicht, wie ein Prozessor funktioniert. Nehmen wir also an, dass es zumindest ein allgemeines Verständnis von einem Bit gibt, nur um dieser Episode willen.
Olivier Ezratty: Genau, also haben wir die grundlegende Logik und so weiter. Wenn wir in den Bereich der Qubits eintreten, herrscht so viel Verwirrung, weil ich online alles Mögliche und auch das genaue Gegenteil über diese Qubits gelesen habe. Vielleicht könntest du uns einen Überblick über die wesentlichen Erkenntnisse geben, was einen Qubit zu einem Qubit macht und wie er sich völlig vom klassischen Teil unterscheidet.
Joannes Vermorel: Interessanterweise kann ein Qubit als ein mathematisches Objekt oder als ein physikalisches Objekt beschrieben werden, aber beides ist miteinander verflochten. Das ist aus physikalischer Sicht dasselbe.
Olivier Ezratty: Fangen wir mit dem physikalischen Aspekt an. Ein Qubit ist ein sogenanntes TLS, ein Zweiniveausystem. Es ist ein Quantenobjekt, das zwei Niveaus besitzt, wie beispielsweise ein Atom, das zwei Energieniveaus hat: einen Grundzustand ohne Erregung und einen angeregten Zustand. In der realen Welt gibt es in einem Atom viele verschiedene angeregte Zustände. Diese beiden Energieniveaus können mit Lasern oder anderen Mitteln kontrolliert werden. Zum Beispiel kann man den Spin eines Elektrons steuern, der quantisiert ist, sodass er in eine bestimmte Richtung nur auf oder ab sein kann, was Ihnen zwei Werte gibt. Wenn man ein Photon betrachtet, kann es unterschiedliche Polarisierungen haben.
Es gibt auch zusammengesetzte Objekte wie supraleitende Schleifen. Ein supraleitender Qubit ist kein einzelnes Objekt; es sind Milliarden von Elektronen, die in einer Schleife zirkulieren. In dieser Schleife, die bei sehr niedriger Temperatur gehalten wird, gibt es eine Barriere namens Josephson-Kontakt. Diese Barriere ermöglicht die Entstehung eines Tunneleffekts, was zu einem merkwürdigen Phänomen führt, bei dem man eine Superposition zweier unterschiedlicher Energieniveaus oder Phasen und Amplituden des in der Schleife zirkulierenden Stroms erhalten kann, wodurch ein Zweiniveausystem entsteht.
Da es sich um ein Quantensystem handelt, kann ein Qubit in zwei verschiedenen Zuständen überlagert sein. Man kann gleichzeitig den Grundzustand und den angeregten Zustand eines Atoms haben, eine Superposition des Spins eines Elektrons in aufwärts oder abwärts oder eine Superposition verschiedener Polarisierungen eines Photons.
Nun, wenn man den mathematischen Teil betrachtet, kann die Superposition als ein Gewicht für die Null und die Eins ausgedrückt werden, welche dem Grundzustand bzw. dem angeregten Zustand entsprechen. Diese Koeffizienten, meist Alpha und Beta genannt, sind komplexe Zahlen und müssen normiert werden. Man könnte die Superposition dieser beiden Zustände in einem Qubit als zwei Zahlen beschreiben. Häufig werden sie in der sogenannten Bloch-Kugel dargestellt, einer Kugel, in der ein Vektor den Zustand Ihres Qubits beschreibt. Befindet sich der Vektor am Nordpol, bedeutet dies, dass Sie Null sind; befindet er sich am Südpol, ist es Eins. Alle Zwischenpositionen, etwa am Äquator, entsprechen einem überlagerten Zustand, der aus einem Anteil Null und einem Anteil Eins besteht. Befindet man sich auf der Südhalbkugel, bedeutet das, dass man mehr Einsen als Nullen hat; auf der Nordhalbkugel wiederum mehr Nullen als Einsen. Dreht man sich am Äquator, bedeutet das, dass man eine andere Phase des Signals hat. Tatsächlich fand ich es interessant, einen Vergleich zwischen einem Qubit und einem elektronischen Signal zu ziehen. Wenn man ein Netzwerksignal wie ein sinusförmiges Signal handhabt, hat man eine Phase und eine Amplitude, und ein Qubit ist mehr oder weniger so. Es besitzt eine Phase und Amplitude, und diese beiden Werte werden mit den zwei Werten gemessen, die Ihr Qubit beschreiben.
Was ist also diese Superposition? Die Superposition resultiert daraus, dass all die Quantenobjekte, mit denen man in der Quantenphysik zu tun hat, sich als Teilchen oder als Welle verhalten können, abhängig davon, wie man sie beobachtet oder handhabt. Der beste Weg, um zu verstehen, was ein Qubit ist, besteht darin, sich das Wellenverhalten dieser Quantenobjekte anzusehen. Es ist leicht zu begreifen, dass wenn man zwei Wellen hat, die einem Grundzustand und einem angeregten Zustand entsprechen, man diese beiden Wellen addieren kann, woraufhin eine dritte Welle entsteht. Das basiert übrigens auf der Schrödinger-Gleichung. Eine Lösung der Schrödinger-Gleichung für den Grundzustand ist eine Lösung, eine Lösung für den angeregten Zustand eine andere, und es stellt sich heraus, dass – da in der Schrödinger-Gleichung lineare Algebra verwendet wird – eine lineare Kombination dieser beiden Lösungen eine weitere Lösung ergibt.
Das ist also eine mathematische Sichtweise der Schrödinger-Gleichung. Eine lineare Kombination von zwei Wellen ergibt eine weitere Welle, wie zwei Klaviernoten, ein Do und ein C, die zusammen eine weitere Note ergeben. Aber das erklärt nicht, woher die Rechenleistung stammt. Diese Leistung resultiert daraus, dass, wenn man mehrere Qubits nebeneinander hat und diese miteinander verbinden kann, der Datenraum, den man verwaltet, exponentiell mit der Anzahl der Qubits wächst. Das bedeutet, dass, wenn man ein Qubit, ein drittes Qubit, ein viertes Qubit hinzufügt, der Datenraum jeweils um das Doppelte wächst. Nehmen wir an, Sie haben 100 Qubits. Mit 100 Qubits verwaltet dieses zusammengesetzte Quantenobjekt einen Informationsraum, dessen Größe 2 hoch 100 komplexe Zahlen beträgt. Es ist eine Menge an Daten, aber es ist analog. Man verwaltet einen analogen Datenraum, der jedoch riesig ist und weitaus schneller wächst als bei klassischen Bits.
Joannes Vermorel: Ich denke, etwas, das sich wirklich vom klassischen Paradigma unterscheidet, ist, dass, wenn Menschen von einem Bit sprechen, sie an etwas denken, bei dem das Hinzufügen von Bits ein rein additiver Prozess ist. Wenn man Bits an Speicher hinzufügt, ist das linear. Man hat doppelt so viel Speicher, was cool ist, sodass man zum Beispiel doppelt so viele Slack-Tabs auf seinem Computer öffnen kann. Aber es ist grundsätzlich völlig linear. Und hier wird gesagt, dass wir offensichtlich Computersysteme haben, in denen nicht einmal in Bits gesprochen wird, weil die Zahlen so gewaltig wären. Zuerst spricht man in Bytes, die aus Paketen von acht bestehen, und dann spricht man üblicherweise nicht mehr in Bytes, sondern in Megabytes, Gigabytes oder Terabytes. Die Zahlen, an die wir gewöhnt sind, sind absolut gigantisch. Aber weil es im klassischen Sinn gewaltige Zahlen braucht, um Dinge von wirklichem Interesse zu tun, beeindruckt es einen nicht, wenn man sagt: “Ich habe etwas, das 53 Bits wären.” Die Leute würden sagen: “Wissen Sie, da ist eigentlich nichts dran. Ich meine, das war zur Zeit des ENIAC, ja, aber heutzutage hat man mehr Speicher.”
Olivier Ezratty: Ja, genau. Das waren schon Tausende von Bits. Es wirkt also wenig beeindruckend, aber genau das verfehlt den Punkt. Der Punkt, wenn ich es richtig verstehe, ist, dass, wenn Menschen sagen, sie haben 20, 50, 60 oder 100 Qubits, sie meinen, dass sie ein System haben, in dem alle vollständig miteinander verschränkt sind. Sie sind Teil eines Systems und können gemeinsam Dinge tun. Zwei Systeme, die beispielsweise 50 Qubits plus 50 Qubits ergeben, sind absolut nicht dasselbe wie 100 Qubits.
Joannes Vermorel: Genau. Aber da gibt es viele Missverständnisse.
Olivier Ezratty: Zum Beispiel kann man in die Irre geführt werden, zu denken, dass die Geschwindigkeit des Quantencomputings aus dem Rechenraum stammt. Das stimmt nicht. Es gibt einen Raumvorteil und einen Geschwindigkeitsvorteil, und diese hängen zwar zusammen, sind aber unterschiedlich. Tatsächlich, wenn Sie n Qubits haben, besitzen Sie einen Rechenraum von 2^n komplexen Zahlen. Genauer gesagt, entspricht das 2^(n+1) reellen Zahlen oder Gleitkommazahlen, wenn man im Sinne der Informatik spricht. Aber das erklärt nicht, warum man schneller rechnen kann.
Wenn man schneller rechnet, bedeutet das, dass es eine Anzahl von Operationen gibt, sogenannte Quantengatter, die nicht so schnell wachsen wie im klassischen Rechnen. Im klassischen Rechnen sind die Arten von Problemen, die uns mit Quantencomputing interessieren, solche, die exponentiell skalieren. Es gibt viele kombinatorische Probleme, die exponentiell mit der Anzahl der Variablen wachsen, und wir möchten, dass diese Probleme nicht exponentiell in der Rechenzeit auf dem Quantencomputer skalieren. Das heißt, man muss eine geringere Anzahl von Operationen haben, die – sagen wir – linear, logarithmisch oder sogar polynomial und nicht exponentiell auf dem Quantencomputer skalieren, während sie auf dem klassischen Computer exponentiell skalieren. Und dann gibt es noch Konstanten, die den Vergleich erschweren können, aber trotzdem.
Die Länge des Algorithmus bestimmt die Geschwindigkeit des Quantencomputers. Der Algorithmus nutzt viele Verschränkungen, also die Verbindungen zwischen den Qubits. Man muss einen Weg finden, einen Algorithmus zusammenzustellen, der effizient ist – und darin liegt die Wissenschaft des Quantencomputings, die komplementär zur Größe ist.
Und es gibt noch einen weiteren Aspekt, der zwar kein Missverständnis ist, aber auch nicht wirklich bekannt. Wenn Sie am Ende das Ergebnis Ihres Algorithmus messen, erhalten Sie n Bits, nicht n Qubits. Das heißt, Sie bekommen für jeden der 100 Qubits, die Sie haben, eine 0 oder eine 1. Am Ende erhalten Sie also nur eine geringe Menge an Information. Sie verarbeiten während des Rechnens einen Reichtum an Informationen, 2^100 komplexe Zahlen, und am Ende erhalten Sie lediglich 100 Bits, klassische Bits.
Also fragt man sich, warum all dieser Aufwand? Es bedeutet, dass die Rechenleistung des Quantencomputers aus der Fähigkeit stammt, einen großen Informationsraum zu erkunden, der am Ende jedoch ein kleineres Resultat liefert. Nehmen wir an, Sie möchten eine große Zahl faktorisieren. Die Faktorisierung verwendet einen komplizierten Algorithmus, der den Raum mittels des Shor-Algorithmus erkundet – das ist eine der Lösungen dafür. Am Ende liefert er Ihnen eine kleine Zahl, eine Zahl, die aus Bits besteht.
Das erklärt die Sache, und außerdem berechnet man in vielen Algorithmen seinen Algorithmus mehrere Male und bildet den Durchschnitt der Ergebnisse, um für jedes der Qubits eine Gleitkommazahl zu erhalten. Ein weiteres Missverständnis ist, dass Quantencomputing gut für Big Data sei.
Joannes Vermorel: Ja, darum wollte ich darauf hinaus, denn offensichtlich funktioniert es nicht. So verstehe ich es jedenfalls auch: Es sieht quasi so aus, als ob es per Design so ist – es sei denn, wir können irgendwie Qubit-Systeme entwickeln, die in der Lage wären, beispielsweise tera Qubits zu haben, was irgendwie verrückt wäre. Ich meine, Milliarden und Abermilliarden von Qubits, ja, aber bis wir so weit sind, sehen wir, dass wir einen Engpass haben, um überhaupt Daten in das System zu leiten.
Daten in einen Quantencomputer einzuspeisen ist ein großes Problem. Es ist immer noch ein Forschungsfeld, denn ein Quanten-Gate, das Daten in einen Qubit lädt, benötigt einige Zeit. Übrigens, es ist sehr langsam. Ich habe etwas von etwa 10 Kilohertz gelesen, also so in der Größenordnung – IBM liegt derzeit zwischen 2 Kilohertz und 10 Kilohertz, was die Anzahl der Zyklusoperationen pro Sekunde bedeutet. Es ist nicht sehr schnell.
Olivier Ezratty: Ja, es war sogar ein „trapped ion“, ein alkalisches System von IonQ oder Honeywell in den USA, und es ist noch langsamer. Also, es ist nicht sehr schnell, Informationen dort einzuspeisen. Meistens verwenden wir sogenannte hybride Algorithmen, bei denen der komplizierte Datenpfad von klassischen Algorithmen durchgeführt wird und dann der Quantenalgorithmus mit den reinen bitweisen, komprimierten Daten gefüttert wird, die nicht viele Kontroll-Gates erfordern. Anschließend durchkämmt die Berechnung diesen riesigen Informationsraum und liefert ein kleines Ergebnis.
Aber es gibt noch etwas anderes, das derzeit stört. Wenn wir einen Quantenalgorithmus entwerfen, denken wir meistens an ein perfektes mathematisches Objekt, diesen mathematischen Qubit, der lineare Algebra betreibt. Es ist sozusagen Vektor mal Matrix und man erhält einen Vektor – im Grunde handelt es sich um reine Matrix- und Vektor-Multiplikation, wenn man die Mathematik nachvollzieht. Das Problem ist, dass die Qubits, die wir heute haben und in Zukunft haben werden, verrauscht sind. Sie erzeugen bei jeder Berechnung einen signifikanten Fehler. Daher müssen die Daten im Durchschnitt dort verarbeitet werden.
In bestehenden Quantensystemen erzeugt jede Operation einen Fehler von 1 %. Das bedeutet, dass, wenn man nur eine Operation am Ende durchführt, man kein brauchbares Ergebnis erhält. Es ist etwas vereinfacht dargestellt, aber es vermittelt einen Eindruck. Viele Algorithmen, die eine exponentielle Beschleunigung bringen sollen, benötigen etwa 10 hoch 9 oder 10 hoch 14 Operationen. Es wird also nicht funktionieren, wenn zu viel Rauschen vorhanden ist. Wir landen in einer Situation, in der wir einen Workaround für dieses Rauschen finden müssen.
Es werden zwei Ansätze erforscht. Der eine besteht darin, Wege zu finden, Algorithmen zu entwickeln, die dieses Rauschen verkraften können – sie werden als flache Algorithmen bezeichnet. Dies sind Algorithmen mit einer geringen Anzahl an Gates und Operationen, sodass es nicht zu einem vollständigen Zusammenbruch kommt. Der andere Ansatz ist die Verwendung sogenannter gesteuerter Operationen. Gesteuerte Operationen sind eine Methode, logische Qubits zu erzeugen – also Qubits, die von außen betrachtet von hoher Qualität sind. Genau diese benötigt man für einen bestimmten Algorithmus, wobei diese logischen Bits aus vielen redundanten physischen Qubits bestehen, und die Redundanz ist enorm.
Die aktuellen Pläne besagen, dass man für einen Qubit von sehr guter Qualität 10.000 Qubits benötigt. Um aus rein mathematischer Sicht einen quantenmechanischen Vorteil zu erzielen, sollte man mindestens 50 Qubits, eher 100 Qubits haben. Übrigens liegt diese Zahl zwischen 50 und 100. Somit ergeben 100 logische Qubits multipliziert mit 10.000 physikalischen Qubits 1 Million Qubits. Man benötigt also 1 Million physikalische Qubits von sehr hoher Qualität, um einen wirklich nützlichen Quantencomputer zu schaffen, der einen quantenmechanischen Vorteil bringt. Derzeit ist der neueste Rekord von IBM. Sie kündigten im vergangenen November an und werden in ein paar Wochen online ein System veröffentlichen, das 433 Qubits besitzt. Aber diese Qubits haben sehr niedrige Fidelitäten, wahrscheinlich weniger als 99 % Fidelität. Das bedeutet mehr als 1 % Fehler pro Operation, sodass es, würde ich sagen, derzeit nicht geeignet ist, etwas wirklich Nützliches zu bewirken. Es ist ein Schritt auf einem langen Fahrplan von IBM, der durchaus Sinn macht, aber nur ein Zwischenschritt ist. Es besteht also ein großer Unterschied zwischen 433 Qubits und 1 Million Qubits von sehr hoher Qualität, die Fehlerkorrekturen implementieren könnten, um diesen echten quantenmechanischen Vorteil zu erreichen. Es gibt hier viel zu tun.
Es gibt eine weitere Lösung; sie stammt übrigens von IBM, Google und anderen. Sie verwenden eine vor ein paar Jahren entwickelte Methode namens Quantum Error Mitigation. Mitigation unterscheidet sich von Correction. Correction bedeutet, dass man Fehler bei jeder Operation durch Redundanz korrigiert. Mitigation ist etwas anders; es ist eine Methode, bei der – übrigens – künstliche Intelligenz eingesetzt wird und es wird viel maschinelles Lernen verwendet. Man trainiert sein System, um die Fehlerphänomene im System zu verstehen, und führt eine Art Nachselektion-Korrektur durch. Man berechnet seine Ergebnisse viele Male, und nach einem gewissen Training kann man die Ergebnisse korrigieren, allerdings erst nachdem die gesamte Berechnung abgeschlossen ist. Dies soll die Leistungsfähigkeit der sogenannten verrauschten Quantensysteme erweitern. Der gleiche Typ, der den Begriff “quantum supremacy” prägte, erfand einen weiteren Begriff namens “NISQ”, was für Noisy Intermediate-Scale Quantum Computer steht. Er prägte diesen Namen genau vor fünf Jahren, im Jahr 2018 – also wieder John Preskill. Und die sogenannten verrauschten Systeme mit Quantum Error Mitigation sollen nützliches Quantencomputing für Unternehmen ermöglichen. Aber diese Schwelle haben wir noch nicht erreicht; es könnte in ein paar Jahren so weit sein, aber es bestehen einige Unsicherheiten.
Joannes Vermorel: Das hat meine Neugier geweckt. Und nochmals, dies ist höchst spekulativ. Für mich ist der Weg über flache Algorithmen wahrscheinlich die kurzfristige Perspektive, um es einfach zum Laufen zu bringen. Die langfristige Sicht der Fehlerkorrektur – es könnte auch andere Ansätze geben, die sagen: “Ich habe ein Substrat, ein physikalisches Substrat, das Operationen ausführt, die verrauscht sind. Vielleicht lässt man das Rauschen einfach zu, bei denen Fehler nicht so problematisch sind.” Und vielleicht sehe ich im Machine Learning, dass es viele Schritte gibt, bei denen beispielsweise Arbeiten zeigen, dass einer der Engpässe, würde ich sagen, einer der modernen Ansätze der KI, nämlich deep learning, darin besteht, dass man letztlich eine Matrixmultiplikation hat, die viele Ressourcen verbraucht. Es gab einige sehr interessante Arbeiten, die zeigen, dass Matrixmultiplikation aus mathematischer Sicht genau das ist, was wir wollen – aber brauchen wir das operativ wirklich? Meine Frage bezieht sich darauf, ob es Bereiche gibt, in denen Menschen einfach mit Operatoren spielen, die auf ihre eigene Weise sehr mächtig sind, selbst wenn sie verrauscht sind, um Dinge zu tun, die vielleicht spekulativ sind. Diese Ansätze werden wahrscheinlich nicht einmal durchgeführt, aber siehst du Bereiche, in denen Menschen mit Quantencomputing Probleme lösen würden, die nicht einmal als besonders interessant galten? Häufig ist es eben gerade die Möglichkeit, es tun zu können, die es interessant macht.
Olivier Ezratty: Ich würde sagen, die Antwort ist größtenteils Nein, und ich werde das näher erläutern. Es gibt im Wesentlichen drei Arten von Algorithmen, die man in kurzfristigen Systemen implementieren könnte. Die erste Art ist die chemische Simulation, bei der man die Schrödinger-Gleichung simuliert, die Orbitale der Elektronen in einem Molekül betrachtet und versucht, die Struktur eines Moleküls zu verstehen. Man muss den Grundzustand, also das niedrigste Energieniveau, finden – bei allen Molekülen. Das erfordert tatsächlich viel Präzision. Deshalb funktioniert es nicht gut und erfordert gerade dann viel Präzision, wenn man besser als klassische Computer rechnen will. Es gibt bereits Systeme, die auf Tensor-Netzwerken und verschiedenen Techniken für chemische Simulationen auf klassischen Systemen basieren, die gut funktionieren, aber sie sind begrenzt. Wenn man ein komplizierteres Molekül auf einem Quantensystem simulieren möchte, benötigt man eine sehr hohe Präzision.
Die zweite Art von Algorithmen sind Optimierungsalgorithmen, mehr oder weniger binäre Optimierung, wie das SAT-Problem, Max-Cut und viele verschiedene Suchalgorithmen oder das berühmte Reisenden-Problem. Diese Systeme vertragen Fehler ebenfalls nicht gut.
Die letzte Art ist Quantum Machine Learning (QML). Das sind Systeme, bei denen man einer gewissen Art von Rauschen toleranter gegenübersteht. Aber soweit ich weiß, gibt es einige Einschränkungen dessen, was man mit Quantum Machine Learning machen kann. Zum einen haben all diese Algorithmen einen sehr großen klassischen Anteil und einen sehr kleinen quantenmechanischen Anteil. Zum anderen ist das Einspeisen der Daten in das System sehr kostspielig. Bisher ist Quantum Machine Learning einer der Bereiche, in denen es in kurzfristigen Systemen kaum Belege für einen echten Geschwindigkeitsvorteil in der Berechnungszeit gibt. Es bleibt ein offenes Forschungsgebiet.
Das gilt für alles im Quantencomputing, aber zu verstehen, wo die echten Geschwindigkeitsvorteile in jeder der von mir beschriebenen Kategorien liegen – und selbst für die Kategorien, die für logische Qubits geschaffen werden, sofern diese jemals realisiert werden – ist noch in Arbeit. Es gibt viel Theorie, aber diese Theorie muss der Realität der Hardware, dem gesamten Overhead der Quanten-Fehlerkorrektur und all dem übrigen Overhead gegenübergestellt werden. Selbst die Länge der Gates ist eine Überlegung, denn je nach Art des verwendeten Qubits ist das Gate nicht gleich lang.
Zum Beispiel, wenn man einen supraleitenden Qubit heranzieht, der heute dominiert, beträgt die Gate-Länge für eine Ein-Qubit-Operation etwa 20 Nanosekunden, was ziemlich kurz ist. Aber die Gate-Länge für ein Zwei-Qubit-Gate beträgt üblicherweise ein paar hundert Nanosekunden. Zudem gibt es die Elektronik, die das Gate steuert, denn das Gate ist nicht quantenmechanisch. Es entsteht durch die Aussendung eines Signals, das von einem klassischen elektronischen Gerät stammt. Das Signal wird als eine Art Mikrowellenimpuls erzeugt, der eine bestimmte Dauer hat, und es wird von klassischer Elektronik erzeugt – entweder bei Raumtemperatur oder manchmal bei sehr niedriger Temperatur. Dieses System hat eine Verzögerung; es dauert eine gewisse Zeit, die Daten zu generieren, und anschließend muss dieses System von einem klassischen System gesteuert werden, denn ein Quantencomputer ist in den meisten Fällen stets ein klassischer Computer, der klassische Elektronik steuert, um eine Art Photon zu erzeugen. Das Photon kann sich im Mikrowellenbereich befinden – sagen wir fünf Gigahertz – oder im optischen Bereich, im sichtbaren oder infraroten Spektrum, normalerweise nicht im UV-Bereich. Diese Photonen werden an den Qubit gesendet, ändern dessen Zustand, und dann senden wir andere Arten von Photonen oder Signale mit welcher Frequenz auch immer auf den Qubit. Man sieht, was vom Qubit ausgesendet wird, man betrachtet das Signal, wandelt es von analog zu digital um, analysiert es und erkennt so, ob es eine Null oder Eins ist. So entsteht eine Art Kreislauf zwischen klassischem Rechnen, klassischer Elektronik und dem Qubit in beide Richtungen.
Joannes Vermorel: Das führt mich zu einer Frage, die erneut dazu dient, mein Verständnis ein wenig zu testen. Es bedeutet auch, dass ich tatsächlich nicht wusste, dass Quantencomputer auf der Gate-Ebene so stark von Elektronik gesteuert werden. Aber meines Erachtens, wenn man eine dieser schönen emergenten Eigenschaften der Quantenmechanik haben möchte, muss man doch bei extrem niedrigen Temperaturen arbeiten.
Olivier Ezratty: Das kommt darauf an. Meistens ist das wahr, aber es gibt viele Unterschiede zwischen den Qubit-Arten. Die Qubits, die die strengsten Anforderungen an die Temperatur stellen, sind supraleitende Qubits – man benötigt etwa 15 Millikelvin. Das bedeutet, dass, wenn ein klassisches elektronisches System sie steuert, stets Energie hinzugefügt wird und es eventuell etwas aufgewärmt wird. Deshalb muss man den Energieverbrauch auf jeder Ebene kontrollieren, denn man erreicht nicht sofort 15 Millikelvin. In der Regel handelt es sich um einen großen Zylinder: Man beginnt bei 50 Kelvin, dann geht es auf 4 Kelvin, weiter auf 1 Kelvin, dann auf 100 Millikelvin und schließlich auf 50 Millikelvin. Es gibt also viele Stufen, um diese Temperatur zu erreichen, und man stellt sicher, dass jedes Mal, wenn ein elektronisches Signal in diese Schleife gelangt, die Anzahl der Photonen reduziert wird. Das Signal wird gedämpft, um überflüssige Photonen auf dem richtigen Niveau zu eliminieren, sodass die Erwärmung auf 15 Millikelvin minimiert wird. Und in die entgegengesetzte Richtung gibt es Verstärker – an dieser Stelle kommt ein Verstärker zum Einsatz, um das System für das Qubit-Readout zu verstärken. Aber das gilt für supraleitende Qubits. Dann gibt es sogenannte Silizium-Qubits oder Silizium-Spin-Qubits. Diese funktionieren mit Halbleitersystemen, sie nutzen den Spin des Elektrons und können bei einer höheren Temperatur betrieben werden. Wenn ich “höher” sage, meine ich, dass statt 15 Millikelvin ein Bereich zwischen 100 Millikelvin und 1 Kelvin erreicht wird. Es ist trotzdem sehr kalt. Es liegt weit unter der Temperatur, bei der Stickstoff flüssig wird (77K). Es liegt sogar unter der Temperatur, bei der Wasserstoff flüssig wird. Es liegt sogar unter der Temperatur, bei der Wasserstoff flüssig wird. Es ist Helium – ja, Helium liegt über 1 Kelvin, und es gibt zwei Isotope von Helium, Helium-3 und Helium-4, die unterschiedliche Temperaturen benötigen, um dorthin zu gelangen. Im Grunde genommen ist es also nicht dein Haushaltsgefrierschrank.
Joannes Vermorel: Ja, der Gefrierschrank kostet mehr als eine Million Euro, also ist er ziemlich teuer. Aber es gibt andere Technologien, die anders funktionieren. Nehmen wir zum Beispiel Photonen.
Olivier Ezratty: Wenn man Photonen in einem Prozessor steuern möchte, kann das bei Raumtemperatur geschehen, aber man benötigt dennoch Kryotechnik, da meistens die Photonquelle gekühlt werden muss – in den meisten Fällen basiert sie auf einem Halbleitereffekt, der gekühlt werden muss. Nehmen wir ein Beispiel aus Frankreich: Wir haben ein Startup namens Candela. Sie verfügen über ihre eigene Photonquelle, die auf einem sogenannten Drei-Fünf-Halbleitersystem basiert, das auf Galliumarsenid und Aluminium beruht, mit vielen Schichten, Bragg-Spiegeln und sogenannten Quantenpunkten im Inneren. Dieses winzige Gerät muss auf etwa 4 Kelvin gekühlt werden, um einen Strom einzelner Photonen zu erzeugen, die dann in der Berechnung verwendet werden. Anschließend gelangen die einzelnen Photonen in einen Stromkreis mit Waveguides, die bei Raumtemperatur betrieben werden, und am Ende müssen die Photonen einzeln detektiert werden. So kann man bei Raumtemperatur ein System haben, bei dem Photonen individuell gesteuert werden.
Joannes Vermorel: Oh, das ist interessant. Ich wusste nicht, dass die Waveguides miteinander interagieren können.
Olivier Ezratty: Ja, und am Ende muss man die Anzahl der Photonen auf jedem Waveguide zählen. Der Photonendetektor selbst muss gekühlt werden, da die vielversprechendste Technologie zur Detektion einzelner Photonen auf einem supraleitenden Effekt basiert – und diese Systeme werden ebenfalls auf etwa 4 Kelvin gekühlt. Man benötigt also Kühlung an beiden Enden des Systems, jedoch nicht dazwischen. Nehmen wir nun neutrale Atome; das ist ein ganz anderes Tier.
Joannes Vermorel: Auf den Datenblättern dieser Anbieter steht, dass keine Kühlung erforderlich sei, aber das stimmt nicht.
Olivier Ezratty: Was sie machen, ist, dass sie die Atome kontrollieren müssen, um sie an einen bestimmten Ort im Vakuum zu setzen. Dazu verwenden sie Laser in drei Richtungen und eine sogenannte Magneto-Optical-Trap-Technologie, die von Jean Dalibard erfunden wurde, einem der Doktoranden von Alain Aspect. Diese Technik wird verwendet, um die Position des Atoms zu kontrollieren, aber nicht zum Kühlen des Systems. Sie verwenden ein anderes System mit einem weiteren Laser und einer anderen Art von Spezialgerät, das die Position des Atoms individuell kontrolliert. Wenn die Atome gut gekühlt und positioniert sind, liegt ihre Temperatur im Nano-Kelvin-Bereich. Überraschenderweise wurde kein Kühlschrank eingesetzt; stattdessen hat man eine Pumpe verwendet, um die Atome aus dem System zu entfernen, und Laser eingesetzt. Also basiert die Kühlung auf Lasertechnik.
Joannes Vermorel: Aber es fühlt sich dennoch kontraintuitiv an, weil es scheint, als würde man Energie hinzufügen, indem man Photonen einwirft, aber tatsächlich ist der Nettoeffekt eine Abkühlung.
Olivier Ezratty: Ja, mittels des Dopplereffekts. Der Dopplereffekt funktioniert so, dass wenn ein Atom auf dich zukommt und du ihm mit einem Photon Energie zuführst, das Photon wie ein Ball wirkt und das Atom in die entgegengesetzte Richtung drängt. Es wird abgebremst. Und jene Atome, die in die entgegengesetzte Richtung bewegen, erhalten aufgrund des Dopplereffekts nicht die gleiche Energie – sie bekommen weniger, sodass sie nicht beeinflusst werden. Im Durchschnitt werden also alle Atome, die auf dich zukommen, abgebremst; die anderen weniger. Wiederholst du das über sechs Generationen, verlangsamt sich die Bewegung aller Atome progressiv. Und es wird keine mechanische Kraft eingesetzt; nur Licht verlangsamt die Atome. Trotzdem kühlt es das System, denn was ist Temperatur? Temperatur ist ein Maß für die Bewegung der Atome in einem bestimmten Medium – also wird dennoch gekühlt.
Und was interessant ist, ist, was sie entdeckt haben, zum Beispiel bei Pasqal, dem französischen Unternehmen, oder bei Q-CTRL, dem Konkurrenten mit Sitz in Harvard in den USA. Sie stellten fest, dass, wenn sie mehr als ein paar hundert Atome in diese Vakuumkammer einbringen, um ein Vakuum von hoher Qualität zu gewährleisten, eine Kühlung in der Pumpe notwendig ist. Nun erfolgt die Kühlung also nicht an den Qubits selbst, sondern an der Pumpe, die die Atome aus der Kammer entfernt. Diese Ingenieurskunst – die liebe ich. Solche Dinge sind echtes Engineering.
Und so ist die letzte Technologie, die ich erwähnen könnte, die der NV-Zentren. Wir haben sie bereits im Zusammenhang mit Sensoren angesprochen, aber sie kann auch fürs Rechnen genutzt werden. Es gibt ein in Australien ansässiges Unternehmen namens Quantum Brilliance, und tatsächlich handelt es sich um ein deutsch-australisches Unternehmen. Dieses Unternehmen hat bereits ein Fünf-Qubit-System entwickelt, das bei Raumtemperatur funktioniert. Ich bin mir zwar nicht sicher, ob es sehr gut skalieren könnte, aber dennoch könnte diese Technologie potenziell bei Raumtemperatur arbeiten.
Joannes Vermorel: Was ich an dieser Diskussion wirklich liebe, ist, dass sie zeigt, dass es, sobald Anbieter ins Spiel kommen, Anreize gibt, sich zu profilieren. Und für mich, als jemand, der eine gewisse Neugier dafür hat, ist es interessant zu sehen, dass im Feld nicht ein endloser Strom unglaublicher Behauptungen verborgen liegt. Was ich also besonders interessant finde, ist, dass es so viele Behauptungen gibt – und, bemerkenswerterweise, geht es dabei nicht darum, dass die Leute lügen. Das ist das Faszinierende daran: Es kann vieles bedeuten oder es können zahlreiche Vorbehalte unter unterschiedlichsten Bedingungen bestehen.
Olivier Ezratty: Genau. Und das ist in Ordnung. Man kann als Anbieter eben nicht jedes Mal alles sagen. Man muss Entscheidungen treffen; man muss die Dinge vereinfachen.
Joannes Vermorel: Genau, ich meine, ich kann nicht alles sagen, was es über jede einzelne unserer Tätigkeiten zu wissen gibt. Und hier ist übrigens eine Kopie des Quellcodes und eine Kopie all unserer durchgeführten Experimente. Man könnte sich das theoretisch vorstellen. In der Praxis ist es schlimmer, weil das um so viel mehr Lärm erzeugen würde.
Also, wie gehe ich vor? Meine Wahrnehmung ist, dass dieses Feld der Quanten-Technologie für Außenstehende ziemlich undurchsichtig ist. Dein Bericht wirft tonnenweise Licht darauf, und das Interessante ist, dass mich vor allem eines fasziniert – obwohl das ein kleiner Exkurs ist – nämlich wie man agiert, wenn man mit Dingen zu tun hat, die, gelinde gesagt, sehr kompliziert sind. Ich denke, wir sind uns einig, dass es nicht einfach ist. Es gibt viele Behauptungen, viel Lärm, und weil Enterprise-Software so ziemlich dasselbe ist – jemand behauptet, etwas Fantastisches zu leisten –, mag das stimmen, aber es gibt dazu immer noch viele Feinheiten, Abhängigkeiten und Kosten. Man arbeitet in einem Feld, das in gewisser Weise sehr komplex ist. Man könnte argumentieren, dass die Komplexität in der supply chain nur zufällig ist – es sind letztlich einfach Menschen, die Dinge viel komplizierter gestalten, als sie sein müssten. In der Quanten-Technologie hingegen wird die Komplexität tatsächlich reduziert. Man hat es mit dem Universum zu tun, das einfach ist, wie es ist – weniger zufällig, aber dennoch ergeben sich enorme Herausforderungen.
Olivier Ezratty: Wie erklärt man also den Fortschritt in diesem Bereich?
Joannes Vermorel: Ich meine, du hast gesagt, dass du mit Leuten sprichst, aber eines der Dinge, die die meisten meiner Interessenten verwirren, ist, dass in diesen Zusammenhängen fast jeder ein Anbieter ist. Wie identifiziert man also, wem man vertrauen kann? Denn zum Beispiel gibt es so viele Menschen, dass – wenn ich in diesen Quantenbereich eintauche – einfach so viel auf einen zukommt. Wie sortiert man Betrug von Nicht-Betrug? Ja, du hast mir gesagt, dass es eine Lösung gibt, nämlich mit einem Nobelpreisträger in der Physik zu sprechen, aber auch er ist nicht allwissend. Das ist eine Möglichkeit, das Problem zu lösen, aber wie identifiziert man Personen, die als Vermittler dienen können, um ein fundiertes Verständnis zu erlangen, wenn es so viele potenzielle Betrüger und offensichtliche Behauptungen gibt und man gleichzeitig so wenig Zeit hat, sich da einzulesen?
Olivier Ezratty: Wie navigierst du dabei?
Joannes Vermorel: Im Grunde versuche ich, so viele Wissenschaftler wie möglich zu treffen, vor allem in der Grundlagenforschung. Ich bemühe mich, die Vielfalt der Personen, mit denen ich mich treffe, zu erhöhen – es ist also wichtig, Treffen mit Physikern und Ingenieuren sowie mit Leuten aus dem Bereich der Algorithmen und Informatik zu organisieren. Obwohl ich in diesem Feld eigentlich noch mehr Menschen treffen sollte, treffe ich derzeit mehr Physiker als Informatiker. In deinem früheren Leben hast du ja mehr Experten für Hochleistungsrechnen oder Supercomputing getroffen, was eine andere Sparte der klassischen Informatik ist.
Ich versuche, so viele wissenschaftliche Arbeiten wie möglich zu lesen und deren Fachsprache zu verstehen. Das ist der erste Schritt, wenn man ein neues Papier liest. Aber es ist ein fortlaufendes Spiel, eine tägliche Herausforderung. Einer der Gründe, warum es so kompliziert ist – und das ist derzeit auch ein Vorteil für die Branche – ist die Vielfalt. Wenn ich von Vielfalt spreche, meine ich, dass es momentan mindestens 20 bis 30 verschiedene Arten von Qubits gibt. Bei Transistoren und klassischen Chips gibt es dagegen meist nur eine Art von CMOS-Transistor. Es gibt zwar einige Variationen, aber der Unterschied zwischen dem Transistor in deinem iPhone, deinem Mac, deinem PC oder deinem Server liegt bei etwa einem Prozent. Es ist mehr oder weniger dieselbe Technologie, dieselbe Technik – immer handelt es sich um Silizium-NP-Dotierung und Gates. Das ist in der Quanteninformatik immer die gleiche Sache. Es gibt eine Reihe unterschiedlicher Technologien – das ist erstaunlich. Und manchmal gibt es bei einer bestimmten Technologie weltweit vielleicht nur, sagen wir, 50 Experten. Ein Beispiel: Vor zwei Wochen war ich in Las Vegas – nicht für die CES, da war ich vor drei Jahren das letzte Mal – sondern für das APS-Treffen, der American Physics Society. Das ist die größte Gruppe von Physikern weltweit, 13.000 Physiker am selben Ort.
Olivier Ezratty: Und ich habe mit einem Unternehmen gesprochen, das zu mir kam. Der Firmenname ist Iroquo, niemand kennt sie wirklich gut. Sie haben ihren Sitz in den USA, in der Region Chicago, und sie arbeiten an einem Silizium-Qubit, nicht an einem Spin-Qubit. Das heißt, sie kontrollieren den Spin eines Elektrons, aber dieses Elektron liegt auf einem Heliumsubstrat – einem kalten, flüssigen Helium – auf dem sich Elektronenspins befinden. Es ist seltsam, wirklich sehr seltsam. Und warum nutzen sie das? Weil das Helium die Spins von den umliegenden Schaltkreisen isoliert. Es ist eine von vielen, vielen seltsamen Technologien, die es gibt. Und bei jeder dieser Technologien gibt es nur wenige Wissenschaftler, die genau erklären können, worum es geht und was die Vor- und Nachteile sind.
Man muss damit leben, also mit Ungewissheit. Man muss mit unvollständigen Informationen auskommen. Man braucht ein Bauchgefühl und zudem ein breites ingenieurtechnisches Wissen in allen Dimensionen. Zum Beispiel habe ich kürzlich – zum Teil als Mitgründer der Quantum Energy Initiative zusammen mit Alexa und anderen Forschern – herausgefunden, wie wichtig es ist, einen Blick auf die Elektronik zu werfen. Allein die Qualität der Elektronik, die die Laser oder die Mikrowellen steuert, welche an das Qubit gesendet werden, ist ebenso wichtig wie die Qubits selbst.
Und so ist Elektronik nicht alltäglich. Wenn du Informatiker bist, hast du kaum Ahnung von dieser Thematik. Deshalb musste ich mich wieder mit Fourier-Transformationen und der Signaltheorie auseinandersetzen, verstehen, was Jitter ist – also die Schwankungen in Phase, Amplitude oder Frequenz eines durch klassische Elektronik erzeugten Signals. Ebenso musste ich die Leistung verstehen, die benötigt wird, um eine Mikrowelle zu erzeugen, sowie die Dämpfung, die Filterung und all das – und die elektronische Ingenieurskunst beeinflusst das Engineering des Quantencomputersystems maßgeblich.
Joannes Vermorel: Und was mich persönlich sehr beeindruckt, ist, dass – wenn ich mein eigenes Feld betrachte, Enterprise-Software, supply chain – es auch eine verwirrende Vielfalt an Nischenperspektiven, Nischenanbietern und Ähnlichem gibt. Nehmen wir zum Beispiel das Problem der supply chain: Es gibt wahrscheinlich 20 konkurrierende Philosophien, wie man ein Problem angehen sollte. Da gibt es die Mainstream-Methode, Flow Casting, DDMRP, SNOP. Das sind buchstäblich unterschiedliche Standpunkte, und es gibt Dutzende davon. Und dann gibt es noch zahlreiche Anbieter. Was mich wirklich interessiert, ist, dass in dem, was du beschreibst, die Möglichkeit besteht, sich eine relativ fundierte Meinung zu bilden – eine relativ genaue Einschätzung darüber, ob diese Dinge funktionieren, ohne dass man selbst ein direktes Kontroll-Experiment durchführt. Du siehst, du hast kein Labor eingerichtet, um zu überprüfen: “Repliziert dieses Papier?” Es herrscht diese naive Vorstellung, dass der einzige Weg, herauszufinden, ob das, was dieser Anbieter behauptet, wahr ist, darin besteht, das Experiment durchzuführen und zu testen. Ja, du kannst deine Software online testen. Aber bei Enterprise-Software liegt das Problem oft darin, dass selbst wenn du einen Test machen möchtest, du sie an vielen Orten gleichzeitig einsetzen musst. Das ist extrem unpraktisch. Deshalb bieten die meisten Anbieter nicht einmal eine kostenlose Testversion an – es würde einfach keinen Sinn ergeben. Man müsste das Ganze an 20 verschiedenen Standorten implementieren, um überhaupt anzufangen.
Olivier Ezratty: Das Interessante daran – und ich glaube fest an diesen Ansatz – ist, zu einer Person zu gehen, die eine Behauptung aufstellt, sie diese verteidigen zu lassen und dann zu einer anderen Person zu gehen, idealerweise zu jemandem mit einer sehr vielfältigen Perspektive und eventuellen Konflikten, um so etwas Neues zu lernen. In meinem Fall treffe ich regelmäßig viele Wissenschaftler, und da spielt Serendipität eine große Rolle. Manchmal treffe ich Leute, die sagen: “Oh, du solltest diesen Typen oder jene Dame treffen”, und dann treffe ich sie, und sie lehren mich etwas. Zum Beispiel war ich im November letzten Jahres in Grenoble und habe an einem Tag wahrscheinlich 15 Wissenschaftler getroffen. Ich war erstaunt, denn ich traf einige Personen, die an sogenannten topologischen Qubits arbeiteten – einem Bereich, in dem Microsoft dafür bekannt ist, der einzige Anbieter zu sein, der auf diese Art von Qubit setzt. Ich fand diese vier Personen in Grenoble und fragte: “Okay, aber mit wem arbeitet ihr?” Sie sagten: “Oh, wir arbeiten mit diesem Typen in den USA.” Ich kannte den Namen dieses Typen, weil ich wusste, dass er es geschafft hatte, dass ein Paper in Nature von Leuten aus Microsoft zurückgezogen wurde. Er ist an der Universität Pittsburgh tätig. So habe ich viel gelernt, indem ich diese Leute getroffen habe.
Joannes Vermorel: Zurück zu deinem Bericht – ich entnehme etwas, das mir in deinem Bericht aufgefallen ist: Im allerersten Abschnitt gibst du Hinweise dazu, wie man wissenschaftliche Arbeiten liest. Das ist sehr interessant, denn diese Arbeiten haben 20 Autoren, und man weiß nicht, ob all diese Personen wirklich relevant sind. Dann sagst du: “Okay, der Name der ersten Person gehört einem Doktoranden, der tatsächlich die Arbeit durchgeführt hat, die anderen unterstützen die Arbeit jeweils auf ihre eigene, aber nebensächliche Weise, und der letzte ist tatsächlich der Betreuer oder Labordirektor, der vielleicht gar nicht genau versteht, was im Paper vor sich geht.”
Olivier Ezratty: Das Faszinierende daran ist, dass du etwas sehr Interessantes aufgedeckt hast – nämlich, wie man Hinweise sammelt und sich im Feld zurechtfindet. Und es ist keine Magie; mit solchen Hinweisen kann man sich recht einfach orientieren. Ich weiß nicht, ob ich das in diesem Teil meines Buches beschrieben habe, aber wenn man etwa ein Labor hat, das behauptet: “Ah, ich habe eine neue Art von Qubit entdeckt, die besser ist” – besser in was denn? – dann versucht man, die veröffentlichten Zahlen zu finden. Meistens werden nicht alle Zahlen angegeben. Nehmen wir an, sie behaupten, es sei ein sogenannter T1-Wert von einigen Mikrosekunden stabilisiert, aber überraschenderweise geben sie keine Zahl für die Qubitilitäten an. Vielleicht sind sie dort nicht so gut. Und manchmal fehlt sogar die Angabe der Anzahl der Qubits im Experiment, was darauf hindeutet, dass es nicht viele Qubits gibt. Manchmal kann man also an den fehlenden Informationen einen Hinweis entdecken.
Typisch in der Quanteninformatik – vor allem bei der Kommunikation durch Anbieter: Ich kenne ein Unternehmen, das ich nicht namentlich nennen werde und das in Nordamerika ansässig ist. Sie stellen die Qualität ihrer Qubits heraus, geben jedoch nicht deren Anzahl an. Das ist interessant, denn wenn sie keine Zahl nennen, bedeutet das zweierlei: Es bedeutet, dass die Anzahl sehr gering ist, und außerdem, dass die angegebenen Qubit-Fidelitäten irreführend sind. Denn normalerweise wird es schwieriger, bei einer großen Anzahl von Qubits eine gute Fidelity zu erreichen, während es bei wenigen Qubits einfacher ist. Wenn man also eine hohe Fidelity angibt, aber nicht erwähnt, dass es sich nur um drei, vier oder fünf Qubits handelt, führt das zu einer Irreführung. Das ist ein sehr interessantes Beispiel.
Joannes Vermorel: Ja, denn sehen Sie, ich denke, im Kern geht es um intelligente Menschen, die die gleichen Neigungen haben wie andere Menschen in anderen Bereichen. Wenn ich mir supply chain Software ansehe, was ein besonderes Interesse von mir ist, sehe ich, dass, obwohl die Hinweise nicht dieselben sind, sie genauso vorhanden sind. Sie unterscheiden sich – zum Beispiel: Wenn ein Anbieter keine Screenshots hat, ist es fast sicher, dass seine Benutzeroberfläche schrecklich aussieht. Denn wenn die Benutzeroberfläche großartig aussehen würde, hätte er tonnenweise Screenshots. Wenn die Algorithmen, die er hat, nur eine glorifizierte Version des gleitenden Durchschnitts sind, spricht er nicht darüber. Er sagt einfach: “Wir haben super fortschrittliche KI”, was im Grunde nur ein gleitender Durchschnitt für die Prognose ist. Aber dann würde er es einfach so sagen. Im Gegenteil, wenn Leute etwas haben, würden sie endlose Abschnitte auf ihrer Website darüber haben. Umgekehrt, wenn seine Software super langsam ist, wird er überhaupt nicht über Geschwindigkeit sprechen. Er wird betonen, dass er die Denkweise dieses vertikalen Bereichs vollkommen versteht, aber er spricht dann überhaupt nicht darüber, dass seine Software langsam ist. Also gefällt mir diese Idee, nach diesen eher meta Aspekten zu suchen, wirklich gut. Grundsätzlich bedeutet das, dass man so eine Art adversarische Denkweise haben muss. Wenn mir jemand etwas Bemerkenswertes erzählt, ist der erste Filter zu entscheiden, ob dieses Etwas bemerkenswert genug ist, um dieser Person nachzujagen. Aber das bedeutet, dass dann dein Instrument sagen würde: “Was ist der wahrscheinlichste Preis, den man für diese Behauptung zahlen muss? Was sind die versteckten Kosten?”
Olivier Ezratty: Nun, es gibt noch etwas anderes, das die Angelegenheit im Quantencomputing komplizierter macht. Man muss lernen, welche Arten von Metriken existieren, wie sie gemessen werden und auch, welche Vielfalt an Benchmark-Techniken es gibt. Im Quantencomputing gibt es viele solcher Dinge. Es gibt intensive Bemühungen von Standardisierungsgremien wie der ISO und anderen, und wir, als Frankreich, beteiligen uns an diesen Bemühungen. Aber man braucht auch viel Ausbildung, um zu verstehen, wie diese Dinge gemessen werden. Zum Beispiel habe ich herausgefunden, dass die Messung der Qualität der Qubits bei Festkörper-Qubits, wie halbleiterbasierte oder supraleitende Qubits, und bei den Leuten, die mit gefangenen Ionen arbeiten, nicht wirklich gleich ist. Sie verwenden unterschiedliche Metriken, und man muss verstehen, warum das so ist. Man muss also die Zahlen verstehen. Schon einen Anhaltspunkt über die verwendeten Zahlen zu bekommen, ist sehr wichtig. Ich habe kürzlich versucht, ein Diagramm zu erstellen – ein Log-Log-Diagramm der Qualität der Qubits. Es war mühsam, weil es schwierig war, auf konsistente Weise an die richtige Zahl zu kommen. Wenn man also die Qualität der Qubits misst, muss man sicherstellen, dass sie mit dem sogenannten randomized benchmarking gemessen wird, was eine mehr oder weniger standardisierte Methode zur Berechnung der Qubit-Qualität ist. Man muss sehr vorsichtig sein; man kann von den Zahlen in die Irre geführt werden.
Joannes Vermorel: Absolut. Ich meine, bei supply chain ist es überall. Bei alltäglichen Dingen stellt man sich beispielsweise die Frage: Wie genau ist dein Prognosesystem? Das Problem ist, dass es unglaublich abhängig von der Genauigkeit der Daten ist, die du als Eingaben hast. Offensichtlich gibt es deshalb keine Zahlen, die in diesem Sinne sinnvoll wären, denn die Antwort lautet: Nun, es hängt von deinen Daten ab. Der einzige Weg, den die Community gefunden hat, um ein Gefühl dafür zu bekommen, wer genauer ist, besteht darin, etwas wie einen Kaggle-Wettbewerb zu veranstalten, bei dem die Leute gegeneinander antreten. Aber grundlegend haben wir Probleme dabei, etwas zu definieren, das als intrinsische Messung der Prognosefähigkeiten dienen könnte. Olivier Ezratty: Was sich in letzter Zeit geändert hat, ist, dass wir mehr Quantencomputer und vorhandene Informationen in der Cloud verfügbar haben. Manchmal ist der Zugang kostenintensiv, aber das spielt keine Rolle. Du hast diese Systeme bei IBM, Amazon, Microsoft, und sogar Google hat ein IonQ-System. Ich denke also, weltweit gibt es etwa 60 Computer in der Cloud. Das bedeutet, dass die Leute diese benchmarken können, und man erhält sehr interessante wissenschaftliche Arbeiten, die Vergleiche zwischen diesen verschiedenen Systemen anhand von konsistent durchgeführten Benchmarks zeigen. Man bekommt fundierte Schätzungen, wo sie wirklich stehen. Das ist interessant und positiv. Es ist ein offenes Ökosystem. Joannes Vermorel: Aber es ist offen und zugleich kompliziert. Man braucht viel wissenschaftlichen Hintergrund, um den wissenschaftlichen Inhalt beurteilen zu können. Es gibt viele wissenschaftliche Veröffentlichungen, sogar Anbieter publizieren Papers, aber schon ein Paper zu lesen, ist mühsam. Es ist manchmal so kompliziert. Ich erinnere mich, vor vier Jahren, als ich das 70-seitige Quantum Supremacy Paper von Google entdeckte – ich musste lachen. Der Grund, warum ich lachte, war: Wer kann angesichts der Vielzahl an Themen, die in diesem Paper behandelt werden, eine klare Vorstellung davon bekommen, was darin steht? Da gibt es Quantenphysik, Algorithmen, Vergleiche mit klassischem Rechnen, Elektronik, Kryotechnik und so viele verschiedene Dinge auf 70 Seiten mit Diagrammen, die sehr schwer zu verstehen sind.
Olivier Ezratty: Ich erinnere mich, vor vier Jahren konnte ich wahrscheinlich nur 5 bis 10 Prozent des Papers verstehen. Jetzt glaube ich, dass ich über 50 Prozent verstehe. Nicht das ganze Paper, aber es dauert eine Weile. Jedes Mal, wenn ich das Paper erneut lese, entdecke ich etwas Neues, weil ich anderswo etwas gelesen, Schulungen erhalten oder Videos gesehen habe. Es ist immer noch offen, aber man kann gleichzeitig offen und verschlossen sein, denn Komplexität ist Vernebelung. Das Fehlen von Vergleichen kann ebenfalls eine Form der Vernebelung sein. Zum Beispiel, wenn man Daten von sehr unterschiedlichen Anbietern in Einklang bringen möchte, muss entweder jemand einen Bericht verfasst haben, der diese Daten konsolidiert, oder man macht es selbst, wie ich es für dieses Diagramm, an dem ich kürzlich gearbeitet habe, gemacht habe. Ich würde sagen, es gibt immer noch Raum für Datenintegration – die Fähigkeit, Daten aus sehr unterschiedlichen Quellen zusammenzutragen und herauszufinden, wo wir wirklich stehen. Ich schreibe derzeit zwei Papers dazu.
Olivier Ezratty: Ich erinnere mich, vor vier Jahren konnte ich wahrscheinlich nur 5 bis 10 Prozent des Papers verstehen. Jetzt glaube ich, dass ich über 50 Prozent verstehe. Nicht das ganze Paper, aber es dauert eine Weile. Jedes Mal, wenn ich das Paper erneut lese, entdecke ich etwas Neues, weil ich anderswo etwas gelesen, Schulungen erhalten oder Videos gesehen habe. Es ist immer noch offen, aber man kann gleichzeitig offen und verschlossen sein, denn Komplexität ist Vernebelung. Das Fehlen von Vergleichen kann ebenfalls eine Form der Vernebelung sein. Zum Beispiel, wenn man Daten von sehr unterschiedlichen Anbietern in Einklang bringen möchte, muss entweder jemand einen Bericht verfasst haben, der diese Daten konsolidiert, oder man macht es selbst, wie ich es für dieses Diagramm, an dem ich kürzlich gearbeitet habe, gemacht habe. Ich würde sagen, es gibt immer noch Raum für Datenintegration – die Fähigkeit, Daten aus sehr unterschiedlichen Quellen zusammenzutragen und herauszufinden, wo wir wirklich stehen. Ich schreibe derzeit zwei Papers dazu.
Joannes Vermorel: Aus meiner Sicht ist es absolut notwendige Arbeit und ungemein nützlich, diese Arbeit zu leisten. Aber sie geht auch mit langfristigen, schrecklichen Anreizen einher. Dass du diese Arbeit machst, kenne ich, aber ich denke, was dich so einzigartig macht, ist, dass du dich nicht leichtfertig von irgendwelchen Anbietern beeinflussen lässt. Es erfordert eine sehr spezifische Denkweise. Du warst in der Vergangenheit selbst Anbieter. Du warst bei Microsoft und warst Teil des Spiels. Ich denke, das hat dir eine Art intellektuelle Antikörper verliehen. Microsoft ist, was es ist, keine Schwarz-Weiß-Meinung. Es besteht aus vielen Menschen, es ist grau wie jede Sammlung von über 200.000 Menschen. Du hast sehr gute Leute, sehr schlechte Leute und so weiter. Ich denke, es verleiht dir eine Art intellektuelle Antikörper in Bezug auf die unternehmerischen Probleme, die typischerweise bei großen Menschensammlungen auftauchen.
Olivier Ezratty: Ja, denn sie müssen Gelder einwerben.
Joannes Vermorel: Genau. Für eine große Firma erfordert es mehr Anstrengung, für einen VC in diesem Bereich attraktiv zu sein. Der Punkt, den ich hier machen möchte, ist, dass, wenn du diese Rolle übernimmst, als Experte zu agieren, es Unternehmen gibt – und ich werde nicht die Namen jener Unternehmen nennen, die mit einem G beginnen im Bereich Enterprise Software – die super prominente Marktanalysten sind. So wie ich es sehe, besteht der langfristige Anreiz, wenn man Marktanalyst ist, ähnlich wie das, was du tust, darin, das ausgelagerte Pressemanagement für die Anbieter zu übernehmen. Genau das passiert buchstäblich im Bereich Enterprise Software, besonders im supply chain.
Olivier Ezratty: Richtig, und was ich sehe, ist, dass Menschen, die diese Rolle spielen, schnell viel mehr Geld verdienen. Als Analyst werden sie immer behaupten, dass sie den Großteil ihres Umsatzes mit Kunden erzielen, bei denen sie die Erklärungen liefern, aber in Wirklichkeit zahlen die Anbieter mehr dafür, einen parteiischen Experten zu haben, der einfach das sagt, was der Anbieter lieber hätte, dass dieser externe Analyst dem Markt im Allgemeinen mitteilt. So endet man mit dieser Verzerrung.
Joannes Vermorel: In deinem Fall ist dein Bericht wirklich so gut wie möglich, wenn es darum geht, eine unvoreingenommene Einschätzung von etwas zu erhalten, das super kompliziert und im Wandel begriffen ist. Aber was mich auch interessiert, ist, dass in Bereichen, in denen es im Quantencomputing nicht viele etablierte Anbieter gibt, diejenigen, die eigentlich deine Rolle spielen sollten, korrumpiert worden sind und letztendlich die Botschaften der Anbieter übernehmen.
Du machst diese Art von Arbeit mit viel Unterstützung, aber im Grunde genommen fast auf dich allein gestellt. Was mir auffällt, ist, dass moderne Unternehmen dazu neigen, das, was eine einzelne Person in nur wenigen Jahren leisten kann, zu unterschätzen. Wenn man sich Quantencomputing anschaut, erstaunt es die Firmen, und sie gehen typischerweise an das Problem heran, indem sie Berater hinzuziehen und viel Geld dafür ausgeben, ein Team von 20 Personen für drei Monate einzusetzen. Aber du bist der Beweis, dass das Verständnis, das man erreichen kann, wenn man sich voll und ganz auf eine intelligente, motivierte Person über Jahre konzentriert, genauso effektiv sein kann.
Olivier Ezratty: Ja, und ich sollte noch ein paar weitere Kontaktpunkte hinzufügen. Einer davon sind die Kunden selbst, da IBM und andere versuchen, ihre neue Technologie bei großen Kunden voranzutreiben. Es gibt viele Großkunden weltweit, die sie evaluiert haben, und einige haben sogar von Kunden in Frankreich veröffentlichte Papers unterzeichnet, wie Total, EDF und MBDA. Wenn du diese Wissenschaftler aus diesen Unternehmen triffst, erhältst du ebenfalls viele Einblicke, da sie verschiedene Technologien und echte Algorithmen an realen Geschäftsproblemen getestet haben.
Joannes Vermorel: Ich würde es absolut lieben, im supply chain zu sehen, dass Kunden Papers produzieren. Was wir aktuell haben, sind Fallstudien, die komplette Werbeanzeigen sind. Der Punkt bei Fallstudien ist, dass es sich nur um ein für Werbezwecke aufbereitetes Informationsstück handelt.
Olivier Ezratty: Ich bin an einem Projekt beteiligt, bei dem die gute Mischung darin besteht, Leute aus der Forschung, aus dem Anbieterumfeld und von den Kunden zusammenzubringen. Wenn du ein Forschungsteam mit diesen drei Komponenten zusammenstellen kannst, entsteht eine gute Kombination. Es funktioniert gut, wenn es lokal ist, zum Beispiel wenn die Forschungsteams, Startups und Kunden alle im selben Land oder an demselben Ort sind. Das ist sehr hilfreich, um einen neuen Ansatz für die Forschung zu entwickeln und die Forschung in einem neuen Bereich anzuwenden.
Joannes Vermorel: Also, wenn wir uns weiter den Zeitplänen zuwenden, ist Quantencomputing seit Jahrzehnten in Entstehung. Es gibt sehr grundlegende Gründe, warum wir hoffnungsvoll sein können, in dem Sinne, dass es buchstäblich die Art und Weise ist, wie das Universum selbst funktioniert. Die Schönheit der Quantenmechanik liegt darin, dass sie das Universum auf eine Weise bereichert hat, verglichen mit dem, was davor war. Plötzlich hattest du Dinge, die du tun konntest, die aus der alten Perspektive einfach unmöglich erschienen. Es schränkt ein, ermöglicht aber zugleich Unmengen von Möglichkeiten. Wir nutzen bereits viele Komponenten davon, wie zum Beispiel Transistoren und den gigantischen Magnetowiderstand bei Spin-Festplatten und so weiter. Also, welchen Zeitrahmen siehst du für die aufkommende Industrialisierung dieser zweiten Welle von Computing-Technologien? Können wir überhaupt auf etwas bauen?
Olivier Ezratty: Nun, ich kann dir sagen, was die Leute darüber sagen. Die beste Antwort lautet: “Ich weiß es nicht.” Meistens erhält man eine Gaußsche Kurve, die sich um 15 Jahre zentriert. Genau zu diesem Zeitpunkt glauben die Leute, dass wir den großen Quantencomputer haben werden, der Dinge tun kann, die mit klassischen Computern nicht möglich sind. Das ist ein wenig naiv, weil es eine durchschnittliche Sicht darauf ist, wo es herkommen könnte.
Ich denke, es gibt einige Situationen bei bestimmten Rechenparadigmen, wie den sogenannten analogen Quantencomputern, die sich von den gate-basierten Quantencomputern unterscheiden. Diese analogen Computer könnten in den nächsten Jahren einen quantenmechanischen Vorteil bringen, ohne dass man 10 bis 15 Jahre warten muss.
Der NISQ (Noisy Intermediate-Scale Quantum) Quantenvorteil, den wir mit den lauten Systemen haben, die wir heute besitzen, ist unsicher. Ich habe keine Ahnung, ob wir dieses Niveau erreichen werden. Es hängt von der Qualität der Qubits ab, die Unternehmen wie IBM in Zukunft produzieren. IBM ist das weltweit größte Unternehmen, das in diesem Bereich investiert, und sie verfügen über führende Technologie im Bereich supraleitender Qubits. Sie könnten in den nächsten 18 Monaten, was ein sehr kurzer Zeitraum ist, eine große Veränderung herbeiführen. Sie könnten uns als Gemeinschaft in einen Bereich führen, in dem wir anfangen können, nützliche Dinge mit Quantencomputern zu tun.
Aber dann muss es skalieren, und die Herausforderung besteht darin, von ein paar hundert Qubits auf Millionen von Qubits zu kommen. Das ist eine riesige Herausforderung – in der Physik, im Ingenieurwesen und in puncto Energie. Alles ist dort herausfordernd. Ein weiterer Umstand, der es schwer macht, Vorhersagen zu treffen, ist die Existenz von so vielen unterschiedlichen Technologien. Nehmen wir zum Beispiel an, Microsoft gelingt es in ein paar Jahren, topologische Qubits mit Majorana-Fermionen zu entwickeln. Viele Menschen sind skeptisch, aber wenn es ihnen gelingt, könnten sie die Landschaft sehr schnell verändern.
Also, man mag einen langsamen Trend in Form einer Gaußschen Kurve haben, aber es kann auch Überraschungen geben. Man könnte neue Algorithmus-Designs oder neue Fehlerkorrektur-Designs entdecken. In den letzten zwei Jahren habe ich noch nie so viel Kreativität im Bereich Fehlerkorrektur gesehen. Es gibt einen Typen in Frankreich namens Anthony, und es ist erstaunlich, was er macht. Er erfindet Fehlerkorrekturcodes, die auch mit minderwertigen Qubits zurechtkommen, zum Beispiel. Er weiß, dass man, wenn man die Vernetzung zwischen den Qubits anpasst, die Effizienz des Fehlerkorrekturcodes verbessern kann. Die Verbesserung der Vernetzung ist schwierig, aber nicht unmöglich oder allzu schwer.
Es gibt so viele Feinabstimmungen in der Technologie, so viele Umgehungslösungen und so viele Variationen, dass immer noch Hoffnung besteht. Allerdings kenne ich einige Leute, sowohl in Frankreich als auch im Ausland, die sehr skeptisch sind. Es gibt einen wissenschaftlich fundierten Skeptizismus, warum es schwierig sein wird, das Niveau zu erreichen, auf dem wir Millionen von Qubits miteinander verschränkt haben. Aber dennoch kann man an die Fantasie und den Einfallsreichtum von Ingenieuren und Wissenschaftlern glauben. Es gibt so viele unterschiedliche Optionen, die derzeit in Betracht gezogen werden, dass wir sehen werden.
Die wahre Antwort ist, dass wir es nicht wissen. Aber wir müssen uns ständig weiterbilden, um zu verstehen, wie sich die Dinge ändern. Wir müssen so geschult sein, dass wir neue Ankündigungen interpretieren und herausfinden können, ob sie wichtig sind oder nicht. Das ist die Schönheit dieses Bereichs; deshalb bin ich immer noch dabei. Es ändert sich ständig, es bewegt sich ständig, und vielleicht ist es intellektuell herausfordernd.
Joannes Vermorel: Um zurückzukommen und vielleicht zum Abschluss zu kommen, aber auch zum Anfang dieses Interviews – du hattest die Dinge erwähnt, die dein Interesse auf sehr praktische Weise geweckt haben. Was machst du als Nächstes? Was ist dein persönlicher Fahrplan in diesem Bereich? Welche Dinge beanspruchen gerade deine Zeit und Aufmerksamkeit?
Olivier Ezratty: Oh, ich habe viele Dinge auf dem Teller. Eines davon ist, dass ich Mitbegründer der Quantum Energy Initiative bin, die noch keine formale Organisation ist, sondern eine Gemeinschaft von Forschern weltweit. Wir haben im November in Singapur unseren ersten Workshop organisiert, mit weltweit führenden Wissenschaftlern aus aller Welt. Wir müssen unsere Website launchen, eine Community aufbauen, einen YouTube-Kanal starten, und dafür sorgen, dass die Energien dieser Momente wirklich beachtet werden, denn wir leben in einer Welt mit begrenzten Ressourcen. Das können wir nicht vermeiden, und wir müssen den Wissenschaftlern und Anbietern erklären, dass es unmöglich ist, eine neue Technologie auf den Markt zu bringen, die einen Mehrverbrauch an Ressourcen verursacht, ohne darauf zu achten. Bitcoin hat das gemacht, ja, aber wir denken, es macht viel Sinn, wenn man eine neue Technologie einführt, die geheimnisvoll und kompliziert ist mit unbekannten Anwendungsfällen, um die Industrie und das gesamte Ökosystem dazu zu bewegen, sich wie ein verantwortungsvoll handelndes Innovationsökosystem zu verhalten.
Die zweite Sache ist, dass ich mit dem Schreiben der sechsten Ausgabe meines Buches beginnen muss, was eine Menge Bandbreite beanspruchen wird. Ich fange an, wissenschaftliche Artikel zu verfassen, sodass ich meinen ersten Artikel zur Begutachtung in einer Physikzeitschrift über supraleitende Qubits geschrieben habe. Ich werde sehen, ob er angenommen wird; er ist noch nicht fertig. Ich muss immer daran arbeiten, das lokale Ökosystem auf französischer und europäischer Ebene zu stärken, daher knüpfe ich jetzt viele Kontakte in Europa. Und ich helfe weiterhin Startups hier in Frankreich, aber informell. Obendrein betreibe ich zwei Podcast-Serien zusammen mit Fanny Bouton, und sie hat vor fünf Jahren wie ich im Quantum-Bereich angefangen. Nun ist sie die Quantum-Leaderin von OVH Cloud, einem führenden europäischen Cloudanbieter, und sie hat das Cloud-Angebot dieses Anbieters für Quantum launcht, also ist das eine sehr schöne Geschichte.
Ich habe wahrscheinlich vieles vergessen, aber ich habe viele Kunden, ich gebe Schulungen und unterrichte an der Épitech. Alles, was ich tue, nährt den anderen Teil dessen, was ich mache – etwa als Trainer zu agieren, denn das Unterrichten von Quantum Computing zwingt einen, seine Gedanken zu strukturieren. Das Buch zu schreiben ist ebenso: Man strukturiert und teilt seine Gedanken. Artikel zu verfassen, Menschen in Podcasts zu interviewen, bei denen man auf vielfältige Persönlichkeiten trifft, ermutigt dazu, einen breit gefächerten Menschenkreis kennenzulernen. Bei der Arbeit mit Kunden versuche ich, möglichst vielfältige Arbeitsweisen zu pflegen – das ist meine Lebensweise. Ich möchte ein kleiner Beitrag zum Erfolg des französischen und europäischen Ökosystems sein. Das ist das angestrebte Endziel. Ich möchte zum Erfolg meiner Freunde in der Forschung beitragen, insbesondere für die Quantum Energy Initiative. Ich möchte durch OVH Cloud, bei der ich ebenfalls helfe, eine sogenannte souveräne Quantum Cloud in Frankreich haben. Es gibt also verschiedene Dinge, die mehr oder weniger darauf abzielen, dem Ökosystem zu helfen und dabei zu lernen sowie offen zu teilen.
Joannes Vermorel: Ich glaube, dass dein Ansatz, alles selbst schriftlich festzuhalten, unglaublich tugendhaft ist – nicht nur, um Wissen zu verbreiten, sondern selbst wenn du es überhaupt nicht veröffentlichen würdest. Allein der Akt, das Ganze zusammenzufügen, ist eine unglaubliche Übung. Ich denke, das ist auch eine der Lektionen für meine Unternehmenskunden. Viele Großunternehmen, die sich auf Projekte über Jahrzehnte einlassen, sollten den langfristigen Nutzen darin sehen, das Ganze zu dokumentieren, selbst nur für sich selbst. Manager sollten versuchen, ihr eigenes Lebenswerk des Verständnisses ihres Fachgebiets zu sammeln, damit das Unternehmen besser wird. Das Interessante ist – man könnte sagen: „Oh, aber vielleicht verlassen uns diese Leute in zwei Jahren.“ Aber wenn ich mit einem supply chain Direktor spreche, sind das typischerweise Positionen, in denen Menschen schon seit 30 Jahren im selben Unternehmen tätig sind. Das ist also ein bisschen eine Ausrede, anstatt den Wert der Schreibübung allein für sich selbst anzuerkennen.
Olivier Ezratty: Das habe ich schon immer gemacht, seit ich jung war, und ich denke, das ist auch eine Lebensweise, eine Superkraft. Man muss ein wenig organisiert sein. Ich habe einige einfache Organisationstricks, um Informationen an verschiedenen Stellen wiederzuverwenden und Notizen zu machen. Zum Beispiel ist die Art und Weise, wie ich mein Buch aktualisiere, ein wenig speziell, aber nicht sonderlich. Was ich mache, ist, dass ich ein kleines Word-Dokument habe, das dasselbe Inhaltsverzeichnis wie mein Buch besitzt, und in das ich alle täglichen Aktualisierungen eintrage – sei es neue archivierte Artikel, Neuigkeiten oder Ankündigungen. Diese werden an der richtigen Stelle, am richtigen Platz abgelegt, wie ein Zwilling meines Buches. Es ist natürlich kleiner, da es nur Aktualisierungen enthält. Und wenn ich dann mein Buch aktualisiere, habe ich bereits alles thematisch sortiert.
Sagen wir, ich möchte den Kapitelteil über Algorithmen aktualisieren; es gibt bereits ein Kapitel über Algorithmen mit allen Links. Und da ich einige Kunden habe, für die ich techno screening mache, und es auch Neuigkeiten gibt, die noch nicht veröffentlicht sind, habe ich viele schriftliche Erklärungen zu diesen Neuigkeiten, die ich zur Aktualisierung meines Buches verwenden kann. Wenn man alles selbst in die Hand nimmt, muss man organisiert sein und den Inhalt auf clevere Weise wiederverwenden. Ich erstelle auch viele Diagramme, die ich kontinuierlich aktualisiere. Ich habe meine eigene Datenbank von Unternehmen in der Quantentechnologie, eine Excel-Datei mit vielen Tabellen und so weiter. Ich habe sogar eine Datenbank aller Nobelpreisträger in der Quantenphysik, eine Datenbank über Unternehmen, eine Datenbank über Qubit-Fidelitäten – alles, was zu einer Datenbank werden kann, befindet sich in meinem Excel Spreadsheet.
Joannes Vermorel: Und falls du etwas nicht weißt, fragst du ChatGPT, und vielleicht wird es dir antworten und einige Daten liefern. Ich selbst bin nicht so organisiert, aber ich versuche, ein schriftliches Verständnis meines eigenen Fachgebiets zu pflegen. Als abschließende Worte: Was wäre dein Rat an CEOs oder CTOs von Unternehmen, die sich in sehr undurchsichtigen Bereichen bewegen? Sie können nicht voll in Quantum Computing einsteigen wie du. Was wäre dein Vorschlag an diese Leute in Bezug auf Quantum Computing?
Olivier Ezratty: Mein Vorschlag wäre, sich mein Buch anzusehen – natürlich ohne es komplett zu lesen, aber einen Blick darauf zu werfen, was enthalten ist. Wenn Sie eine Bank sind oder in der chemischen Industrie oder im Transportwesen tätig sind, gibt es immer ein Kapitel für Sie in meinem Buch, denn es gibt einen langen Abschnitt, in dem alle identifizierten Anwendungsfälle aufgelistet werden, auch wenn sie noch nicht funktionieren. Das gibt Ihnen eine Vorstellung davon, was Quantum Computing für Ihr Geschäft bringen könnte. Es gibt Kapitel für 20 verschiedene Branchen in meinem Buch, sogar für Verteidigung und Geheimdienste, sodass Sie dort etwas Relevantes finden werden. Danach können Sie auch den Podcast hören, den ich zusammen mit Fanny betreibe. Wir machen etwa ein bis zwei Podcasts im Monat. Aber lesen Sie nicht nur die Presse. Und wenn ich von Presse spreche, meine ich jede Art von Presse. Ich kritisiere die Presse nicht – angesichts der Formate, die man in den meisten Zeitschriften, selbst in wissenschaftlichen Journals findet, ist es unmöglich, einen guten Eindruck davon zu bekommen, wo wir wirklich stehen.
Sie müssen die Menschen treffen, Sie müssen Spezialisten sehen – wer auch immer sie sind. Sie werden auch feststellen, dass Sie als Kunde Ihre Informationsquellen diversifizieren müssen. Was ich sage, ist nicht das Gleiche wie das anderer, und es gibt unterschiedliche Meinungen. Es sind dennoch Meinungen, die auf Wissenschaft basieren – es sind nicht nur verschwörungstheoretische Ansichten –, aber man muss verschiedene Perspektiven einholen. Ich würde sagen, Sie brauchen optimistische, pessimistische oder dazwischen liegende Ansichten darüber, wo wir wirklich stehen. So, ich weiß nicht, wo wir wirklich stehen.
Und der kürzeste Weg ist, eine Konferenz zu besuchen, auf der ich oder andere in ein bis zwei Stunden Dinge erklären. Bei der letzten Veranstaltung, an der ich teilnahm – ich halte viele Vorträge, und viele davon sind auf YouTube, also entweder auf Französisch oder Englisch –, waren das die besten Formate, bei denen ich gefragt wurde, Quantum Computing in weniger als einer Stunde zu erklären. Das ist nicht so gut, vielleicht ist es zu kurz. Wenn Sie auf YouTube gehen, finden Sie Formate, bei denen ich entweder allein oder zusammen mit anderen aufgetreten bin. Beispielsweise habe ich vor zwei Jahren im Dezember in Bordeaux etwas mit Elena gemacht. Es war eine sehr schöne Veranstaltung. Im Juni 2022 habe ich noch etwas mit Mod veneer und Fanny Botton bei North gemacht. Das sind die Arten von Veranstaltungen, die zwischen einer und zwei Stunden dauern und, würde ich sagen, gut für die Weiterbildung sind.
Kürzlich habe ich noch eine weitere Veranstaltung für Limited Universal mit Mark DJ gemacht, die zwei Stunden dauerte. Es war also eine eineinundzwanzigminütige Präsentation gefolgt von 40 Minuten Q&A. Ich würde sagen, das ist das richtige Format, um einen guten Überblick darüber zu bekommen, wo wir stehen und was wir mit diesen Systemen alles machen könnten.
Joannes Vermorel: Es war wirklich ein Vergnügen, dich dabei zu haben. Das ist ein sehr interessantes Feld für mich. An das Publikum: Bleibt dran. Bis zum nächsten Mal.