00:00:00 量子物理学の入門と既存技術におけるその役割
00:01:03 オリヴィエ・エズラッティの量子計算への挑戦と彼の広範な研究
00:04:16 環境に配慮した量子技術開発のための Quantum Energy Initiative の開始
00:06:11 現行技術における量子物理学と未来の量子計算との違い
00:08:51 量子物理学における虚無の不存在と真空ゆらぎ
00:10:32 量子物理学における真空とエーテル
00:11:52 エンタープライズソフトウェアと機械的共感
00:14:16 量子アドバンテージ閾値と不確実な進展
00:16:19 量子技術を理解することの重要性
00:18:43 量子技術の潜在的な応用例
00:20:24 量子センシングの紹介とその応用
00:21:19 セキュリティおよび性能向上のための量子通信
00:24:01 様々な分野における精密測定のための量子センシング
00:26:36 測地学研究のため、衛星における量子重力センサーの前向きな利用
00:28:15 量子技術を理解する上での包括的視点の重要性
00:30:11 量子超越性とその限界についての議論
00:32:02 古典的ビットとコンピューティングにおけるその役割の説明
00:33:10 キュービットの紹介と古典的ビットとの違い
00:35:04 キュービットの数学的側面への深掘り
00:37:33 キュービットのパワーと情報空間における指数関数的成長の説明
00:40:01 量子計算に関する誤解の解消
00:43:45 量子計算とビッグデータの課題
00:45:54 量子計算におけるノイズ問題への対処:浅いアルゴリズムとエラー訂正
00:47:46 量子計算の現状とIBMの最新433キュービットシステム
00:49:53 量子計算におけるエラー訂正の探求
00:51:37 機械学習においてノイズ操作を利用する可能性の議論
00:52:59 量子機械学習の制約点の検討
00:57:25 超伝導キュービットとシリコンキュービットにおける温度管理
00:59:49 イオントラップキュービットと位相的キュービットの比較
01:00:53 中性原子、レーザー冷却、マグネトオプティカルトラップ技術
01:03:31 エンヴィセンターと常温量子計算の可能性
01:05:46 量子技術分野における複雑性についての議論
01:07:58 量子技術における信頼性へのアプローチと信頼できる情報源の特定
01:10:30 独自のシリコンキュービット技術の例についての議論
01:12:35 量子計算とエンタープライズソフトウェアのサプライチェーンの比較
01:14:37 科学者との出会いや学びにおけるセレンディピティの役割
01:16:36 科学論文を読み解くためのナビゲーションと解釈のヒント
01:22:47 予測の内在的な有用性とその測定の難しさ
01:24:00 科学出版物の複雑性とそれを理解すること
01:25:17 量子計算エコシステムにおけるオープン性と難解さ
01:28:01 この分野における市場アナリストの役割と潜在的なバイアス
01:33:46 イノベーションのための研究チームにおける適切な組み合わせについての議論
01:34:54 量子計算とその開発のタイムライン
01:37:56 量子計算の未来を予測する上での課題
01:39:41 急速に変化する量子計算分野において学び続けることの重要性
01:40:33 この分野における個人プロジェクト
01:43:15 エコシステムに貢献するための多様な働き方についての議論
01:44:22 個人および組織の成長のためのライティング演習の価値
01:45:37 データベースの維持を含む、コンテンツの整理と更新の技法
01:48:00 CEOおよびCTO向けの、量子計算とその潜在的応用を理解するための提案
01:50:28 会議やYouTubeプレゼンテーションなど、量子計算を学ぶための推奨フォーマット
要約
量子技術の専門家オリヴィエ・エズラッティは、ジョアネス・ヴェルモレルと共に、量子計算、量子通信、量子センシングの可能性について議論します。量子計算は、重ね合わせや量子もつれといった量子現象を活用し、従来のコンピュータでは実現できないタスクを遂行することを目指しています。量子通信は、セキュリティを超えて、量子インターネットや分散型量子計算などの応用が考えられます。量子センシングは、これまでにない精度で物理的特性を測定することが可能です。分野の進展にもかかわらず、理論と実用実装との間には依然として大きなギャップがあり、専門家は量子技術がその完全な潜在能力を発揮するまでに10〜15年かかると見積もっています。
拡張要約
このインタビューでは、Lokadの創設者であるホスト、ジョアネス・ヴェルモレルが、量子技術の専門家オリヴィエ・エズラッティと共に、量子計算およびエンタープライズソフトウェアについて議論しています。エズラッティは20年以上にわたりこの分野で活動し、量子技術に関する包括的な報告書(『Understanding Quantum Technologies』―1000ページ以上)を執筆しました。
エズラッティが量子計算に初めて興味を持ったのは、Google、NASA、D-Waveが通常のノートパソコンより1億倍速く動作するコンピュータの共同開発について知った時でした。当初、彼はこのテーマで1時間のシンプルな講演を行うことを目指していましたが、その研究は最終的に量子技術に関する1,100ページに及ぶ大作の執筆へと結実しました。それ以来、エズラッティは教育、政府関連業務、アドバイジング、そして量子技術の環境影響に対処するための「Quantum Energy Initiative」の立ち上げなど、様々な役割でこの分野に関わっています。
量子計算の発展について議論する中で、エズラッティは既存技術における量子物理学の役割を強調します。現在の全ての技術は量子物理学に基づいている一方で、量子計算はこの分野の異なる現象を活用することを目指しています。量子計算の中心となる三つのメカニズムは、量子状態の重ね合わせ、量子もつれ、そして個々のナノ粒子を制御する能力です。これらのメカニズムは、従来の技術では同じ方法で利用されていませんでした。
インタビューでは、量子物理学の文脈における「無」についても触れられています。粒子が生成され破壊される真空ゆらぎは、無が存在しないこと、そしてこれらのゆらぎにより粒子が常に動いていることを示しています。
エンタープライズソフトウェアの分野では、ソフトウェアベンダーによる変化がなく、性能が指数関数的に向上することが期待されるため、コンピューティングハードウェアへの関心は一般的に低いです。この態度は、古典計算に比べて進捗が遅い量子計算においても変わりません。量子計算の究極の目標は、量子アドバンテージまたは閾値に達し、古典コンピュータでは効率的に実行できないタスクを遂行できるようにすることですが、この閾値に到達するタイムラインは依然として不確実です。
量子技術は、量子計算、量子通信、量子センシングなど、異なるパラダイムに分類することができます。それぞれのパラダイムには実装までのタイムラインがあり、あるものは5年以内に影響を与える可能性がある一方で、他は10〜20年かかるかもしれません。技術業界や産業に関わる人々が、これらの発展について学び続け、その潜在的な影響を理解することが不可欠です。
量子計算は、従来の手法では達成できない計算を、より速く、より優れた方法で、かつ低エネルギーで実現することを目指しています。一方、量子通信はセキュリティ向上を超えた応用があり、量子インターネットの構築や分散型量子計算の実現に寄与する可能性があります。さらに、量子通信は様々な測定の精度を大幅に向上させる、より精密な量子センサーの実現にも繋がり得ます。
量子センシングは、重力、圧力、温度、時間周波数、磁力といった物理的特性を、従来よりもはるかに高い精度で測定することができます。量子センサーは既存のIoTセンサーよりも大きいかもしれませんが、その高い精度により、地下の探査、トンネルの検出、水源の探索、さらには核潜水艦の検知など、数多くの応用が考えられます。
量子センシングには、衛星に量子重力センサーを搭載して地球の動きや気候変動の影響を研究するなど、前向きな応用例もあります。科学の進歩は新しいセンサーの登場によって促されることが多く、量子センシングは研究と理解の新たな道を切り拓く可能性を秘めています。
エズラッティは続いて、2011年にジョン・プレスキルが提唱した「量子超越性」の概念を説明します。量子超越性とは、量子コンピュータが古典コンピュータでは現実的な時間内に実行不可能な計算を行える状況を指します。しかし、現在Googleらが達成している量子超越性は、エンタープライズソフトウェアで通常行われる計算を実際に処理しているわけではなく、実際のデータの入出力を伴わない乱数生成器に近いものです。Googleが有用な計算に量子システムを利用しようと試みた際、53キュービット中15個しか活用できませんでした。これらの15キュービットは、個人のノートパソコン上でより効率的にエミュレーション可能です。
議論は次に、古典計算の基本構成要素であるビットに移ります。ビットは情報の最小単位であり、0または1で表されます。これに対し、量子計算の基本単位であるキュービットは、数学的対象であり物理的対象でもあります。物理的には、キュービットは重ね合わせという量子特性のおかげで、2つのエネルギー準位に同時に存在できる二準位系(TLS)です。数学的には、キュービットはその重ね合わせ状態を記述するための2つの複素数(係数)で表されます。
量子計算の力は、キュービットが扱う情報空間が追加されるごとに指数関数的に拡大する点にあります。これは、古典計算においてはビットの追加がメモリサイズに線形の影響を与えるのとは対照的です。例えば、100キュービットを備えたシステムは、2^100個の複素数という膨大な情報空間を扱うことができ、古典システムが管理できる領域をはるかに超えています。
インタビュー参加者は、キュービットのような量子対象の波動的振る舞いを記述するために用いられるシュレーディンガー方程式にも触れます。キュービットの異なるエネルギー準位に対応する2つの波が組み合わさると、3つ目の波が生成されます。この現象は、量子力学における重ね合わせの概念の核心です。
エズラッティは、量子計算には主に速度と空間という2つの利点があると説明します。量子コンピュータは広大な計算空間を探索し、変数の数に応じて指数関数的に拡大する複雑な問題を解決できます。しかし、速度の優位性は使用されるアルゴリズムと、古典計算に比べて必要な演算回数を削減できる能力に起因します。
もう一つの議論の焦点は、量子コンピュータへのデータ入力の困難さです。これは、量子ゲート操作の遅さと現行の量子システムの制約によるものです。エズラッティは、古典計算と量子計算を組み合わせたハイブリッドアルゴリズムがこの問題に対処するために用いられていると述べています。
量子計算におけるもう一つの大きな課題はノイズです。現行のキュービットは多くのエラーを発生させるため、計算を有用にするにはエラー訂正が不可欠です。これに対処する方法は、ゲートや操作回数を抑えノイズに耐性を持つ浅いアルゴリズムと、冗長性を利用して各操作でエラーを訂正するエラー訂正コードの2通りがあります。
量子エラー緩和は、機械学習を用いてシステムを訓練し、計算後にエラーを理解・訂正する別のアプローチとして模索されています。この方法はノイズの多い量子計算システムの能力を拡張することが期待されるものの、エンタープライズ用途に有用な量子計算の閾値にはまだ到達していません。
インタビューでは、近い将来の量子システムで実装可能なアルゴリズムの種類にも触れられています。これには、化学シミュレーション、最適化アルゴリズム、量子機械学習が含まれます。しかし、これら各応用分野には、それぞれ固有の課題と制約があります。
エズラッティは、量子加速現象を理解する科学はまだ発展途上であり、理論と実用実装との間には大きな隔たりがあると強調します。進展は見られるものの、古典システムに対し実世界で有用な優位性を提供する真に有用な量子コンピュータの実現には、まだ多くの課題が残されています。
その後、会話はキュービットと古典電子機器との相互作用に話題が移ります。キュービットは量子コンピューティングの基本単位であり、古典電子機器によって制御され、キュービットの状態を変化させるために光子が送られます。議論はその後、量子コンピューティングに必要な極低温について進みます。ほとんどの量子コンピューティング技術は冷却環境を必要とし、超伝導キュービットは約15ミリケルビンが求められます。冷却プロセスは複雑で、多段階のアプローチを必要とします.
シリコンキュービット、またはシリコンスピンキュービットは、100ミリケルビンから1ケルビンの範囲というやや高い温度で動作可能な代替案として言及されています。別の技術として、波動ガイドを使用して室温で個々の光子を制御する方法が議論されました。システムの両端では依然として冷却が必要ですが、その中間では冷却は不要です.
次に話題は中性原子に移り、マグネト・オプティカルトラップと呼ばれる技術でレーザーを用いて冷却および位置決めが行われます。このプロセスにより、温度はナノケルビンの範囲に達しますが、チャンバーから原子を除去するためのポンプには依然として冷却が必要です.
別の量子技術としてNVセンターが議論され、これはコンピューティングやセンシングへの応用可能性を秘めています。オーストラリアの企業Quantum Relianceは、室温で動作する5キュービットシステムを開発しましたが、そのスケーラビリティには疑問が残ります.
この会話は、さまざまな種類のキュービットと冷却要件が存在する量子技術の複雑さと多様性を浮き彫りにしています。Ezrattyは、この分野をより深く理解するために、様々な科学者、エンジニア、そしてコンピュータ科学者と出会うことの重要性を強調します.
Ezrattyは、科学論文を読み、量子技術の各サブフィールドの専門家から多様な視点を求めることの重要性を強調します。分野の複雑さと絶え間ない進化にもかかわらず、最新の展開に追いつくためには常に知識を更新し続けることが不可欠です.
Ezrattyは、量子技術を学び、この分野の様々な科学者や専門家と出会った経験を共有します。彼は、貴重な洞察と情報を提供してくれる人々とのセレンディピティ(思いがけない幸運な出会い)の重要性を強調します。量子技術の現状を理解するために、科学論文やベンダーからの情報に手がかりを求めながら、この分野を探求しています.
インタビューの中で、Vermorelは量子技術の分野と自身の専門分野であるsupply chain optimizationとの類似点を指摘します。両分野とも、ニッチな視点、ベンダー、および競合する哲学が多数存在します。Vermorelは、主張を評価し、隠れたコストや欠点を見抜くためには、対立的な思考を持つことが重要であると強調します.
Ezrattyは、量子技術において使用される指標を理解することが、キュービットの品質や量子コンピュータの性能を評価する上で非常に重要であると指摘します。しかし、分野内での異なる測定技術やベンチマークのために、一貫した指標を見つけるのは困難です。また、最近クラウド上で量子コンピュータが利用可能になったことで、研究者が異なるシステムを一貫してベンチマークし比較することが容易になったと述べています.
分野の複雑さや科学論文の理解の難しさにもかかわらず、Ezrattyは量子技術のエコシステムがかなりオープンであると考えています。彼は、ベンダーが時として自社の性能を誇張することがあると認めながらも、この分野は学ぶために時間と労力を惜しまない人々にとっては基本的にアクセス可能であると主張します.
VermorelとEzrattyは、大企業がこの分野に与える影響について議論し、これらの企業がしばしばベンチャーキャピタルを集める一方で、企業的歪曲に陥りやすいことに言及します。さらに、ベンダーからの金銭的インセンティブにより偏りが生じる市場アナリストの役割にも触れ、業界の発展が歪められる可能性についても議論します.
Ezrattyは、アナログ量子コンピュータのような一部の量子コンピューティング技術が、今後数年以内に実用的な利点を提供する可能性があると説明します。しかし、広範な採用に至るまでのタイムラインは依然として不明であり、多くの専門家は技術がその完全な潜在能力を発揮するまでに10~15年かかると見積もっています.
量子コンピューティング技術を拡大する際の主要な課題の一つは、数百のキュービットから数百万のキュービットへと拡大することであり、これには重大なエンジニアリングおよびエネルギー上の課題が伴います。この分野は多数の競合技術によって特徴付けられており、最終的にどの技術が成功するかを予測するのは困難です.
Ezrattyは、特にエラー訂正技術において、この分野に現在非常に多くの創造性と革新が存在することを指摘します。数百万のエンタングル状態のキュービットを実現する実現性に対する懐疑にもかかわらず、エンジニアや科学者の独創性が最終的に突破口をもたらす可能性があると信じています.
インタビューでは、量子技術の進展について常に情報を得ることの重要性が語られます。分野が絶えず変化しているため、新たな発表や突破口の意義を理解するには、その都度学び続けることが非常に重要です。Ezrattyは、自身のこの分野への個人的な興味および将来のプロジェクトについて語り、量子技術を取り巻く知的挑戦と興奮を強調しています.
Olivierは、現在自身の書籍の第6版に取り組み、科学論文の執筆やフランスおよびヨーロッパの量子エコシステムを強化するための活動にも従事していると述べています。彼はまた、教育、研修、およびOVHcloudで量子リーダーとなったFanny Piatとの2本のポッドキャストシリーズの運営にも関わっています。Olivierの最終的な目標は、フランスとヨーロッパの量子エコシステムの成功に貢献することです.
両スピーカーは、考えを構造化し共有する手段としての執筆の重要性を強調しています。Joannesは、たとえその内容が公開されなくても、執筆すること自体が非常に有益であると信じています。この信念はOlivierにも共鳴しており、彼は自身の組織手法、例えば自身の書籍と同じ目次を持つWord文書を用いて更新情報や新たな内容を管理する方法などを共有しています.
Olivierはまた、量子物理学のノーベル賞受賞者のリスト、量子企業、キュービットの忠実度など、様々なデータベースを管理しています。彼は、独立して作業する際に、整理整頓と賢いコンテンツの再利用が極めて重要であると考えています.
量子コンピューティングのような不透明な分野に直面している企業のCEOやCTOに対して、Olivierは、量子コンピューティングが彼らのビジネスにもたらす可能性を理解するために、自身の書籍を読むことを推奨します。彼は、報道にのみ依存するのではなく、専門的な意見を求め、情報源を多様化することの重要性を強調します.
学会に参加すること、YouTubeで教育動画を視聴すること、そして量子技術について深く理解できるイベントに参加することも、この分野に興味がある人々に推奨されます。最終的に、Olivierは、1〜2時間続く講演やプレゼンテーションなど、様々な教育フォーマットを通じて、量子システムの現状と潜在能力を十分に把握できると信じています.
フルトランスクリプト
Joannes Vermorel: Lokad TVへようこそ。私はLokadのCEO兼創設者、Joannes Vermorelです。本日はゲストとしてOlivier Ezrattyをお迎えしています。私の知る限り、Olivierは20年以上にわたり技術者であり未来学者であり、その点は非常に高い評価に値します。彼は、非常に重要かつ広範なテーマを選び、それを理解しようとする独特の手法を持っています。本エピソードのテーマは量子コンピューティングとエンタープライズソフトウェアです。偶然なことに、Olivierは彼独自の風変わりなスタイルで、数年前に1100ページを超える、量子技術に関する途方もないレポートを作成しました.
I率直に視聴者に告白しますが、私自身の量子力学に関する知識は、Griffithsによる「Introduction to Quantum Mechanics」という、学生向けの教科書の最初の200ページ程度に過ぎません。ですので、私が専門家だと主張するつもりはありませんが、一緒にこの旅を進めていきましょう。さて、始めるにあたり、Olivier、恐らく5~6年前にどのようにして量子の道に足を踏み入れたのか、もう少し詳しく教えていただけますか?ある朝、「私はこの分野の専門家になる」と決意し、結果的に私がこれまで見た中でおそらく最大のコンペンディウム、すなわち巨大なレポート、いやむしろ巨大な書籍とも言えるものを作り上げたという理解でよろしいのでしょうか?
Olivier Ezratty: ええ、量子に関して何をするかを最初から計画していたわけではありません。すべては約8年前の2015年に始まりました。Google、NASA、そしてD-Waveが、D-Waveが製造するこの種の奇妙なコンピュータについて連携して情報発信しているのを知ったのです。通常のラップトップよりも1億倍速く動作する何かについて話していたので、非常に不思議に思いました。当時私が驚いたのは、そのコンピュータやGoogleがそれを用いて何をしているのかを記述したすべての科学論文が信じられないほど複雑であったことです。私は、そのコンピュータについて書いている人々が何も理解していないと確信し、「いつの日か私も理解できるかもしれない」と自分に言い聞かせたのです.
それで、私は2016年に、2018年にたった1時間の非常にシンプルなカンファレンスを開催できるような立場に立つことを決意しました。友人のFran Ibutoと組み、その話は後ほどお話しします。私たちは2018年にそのカンファレンスを行い、その後、ブログに18本の投稿を書きました。それが300~350ページの書籍の基礎となったのです。さらに、第1版、第4版、そして昨年9月に出版された第5版では、実際に1000ページを超える内容となりました.
その間、私はこの分野で数え切れないほどの活動を行ってきました。研究者と共に仕事をし、様々な学校で教鞭を執り、政府と様々な活動に従事し、企業でトレーナーとして、また多くの状況でアドバイザーとして活動し、さらにBpifranceの専門家としても貢献しています。さらには、フランス計画の将来の改訂版を設計するために、閣僚レベルで政府と協働しています.
昨年、私が開始した最も重要な取り組みは、いわゆる「Quantum Energy Initiative」です。これは特に、現在シンガポールに拠点を置く親友であるAlexis Febを含む、数人の研究仲間と共に立ち上げた研究イニシアチブです。私たちは、量子コンピュータやその他の量子技術を創出する人々が、設計段階の初期からその技術が環境に与える影響を考慮することを確実にするために、このイニシアチブを立ち上げました。つまり、スケーラブルな量子コンピュータが原子力発電所から供給される電力以上の電力を消費しないようにするのです。そのための作業は残されています。ちなみに、私はあなたのレポートを読んでおり、最初の300ページはしっかり読んだ後、残りは流し読みしました。非常に興味深い量子センシングに関する最終章に飛びました。ですので、視聴者の皆様にはお詫び申し上げます。多くのトークショーで行われるように、読んでいない本について語ってしまったのです。私自身は部分的にしか読んでいませんでした。非常に興味深かった点の一つは、知的には認識していたものの、まだ結び付けられていなかった事実、すなわちトランジスタは実際には量子効果であるということです。これが電界効果であり、あなたのレポートの最初の章で論じられている内容です.
Joannes Vermorel: 最近、量子コンピューティングは流行のバズワードとなっていますが、通常のコンピューティングについて考えると、その根源は既に1950年代に始まる第一次量子革命に遡ることが分かります。巨大な磁気抵抗を持つハードドライブもまた量子効果の産物です。これはスピンドライブのためであり、テラバイト以上の記憶容量を持つ最新のものも同様です。すべての既存技術は量子物理学に基づいています.
Olivier Ezratty: はい、つまり全てがそうです。ジェームズ・ウェッブ望遠鏡のような天体物理学でさえ量子物理学を利用しています。通信のための光ファイバーも量子物理学です。全ては電子、原子、または光子のスケールでの量子物理学ですが、現象は同一ではありません。現在の技術で用いられている量子物理学の現象と、量子コンピューティングで使用しようとしているものは異なります。そこに小さな違いがあるのです。今日用いられている量子物理学では、主に光が物質とどのように相互作用するのかを十分に理解しているという事実を利用しています。例えば、光子が電子を押しのけ電流を生むことで、太陽電池が成立するのです.
Olivier Ezratty: トランジスタ技術では、シリコンのような半導体材料内のエネルギーレベルが非常に良く理解されています。第二の革命の量子技術、特に量子コンピューティングでは、これまで使用されなかった非常に特定の3つのメカニズムを利用します。一つは量子状態の重ね合わせであり、これは数学的かつ物理的な解釈が非常に困難な実際の現象です。二つ目はエンタングルメント、つまりいくつかの粒子が共通の過去と未来を有するという事実です。それらはまるで一つの粒子のように振る舞い、計算、通信、センシングに多大な力を与えています.
Olivier Ezratty: そして、今や実験的に個々のナノ粒子を制御できる事実があります。これは、数十億の電子が出入りするトランジスタや数十億の光子が動くレーザーでは不可能でした。現在では、単一の電子、単一の光子、そして単一の原子を生成、制御、測定することが可能です。さらには、真空中でレーザーを用いて1つの原子を制御することさえ可能になりました。これは新しいことであり、これが現代の量子技術で行っていることです.
Joannes Vermorel: そうですね、ただし私自身の理解では、たとえ「1つの原子」とは何かを理解し始めても、その概念がややあやふやになってしまうようです。例えば、「1つ」とは何か? ある特定の位置に存在することはできても、少しは移動しています。全く動かない粒子なんて存在し得ません。そうでなければハイゼンベルクの原理は成立しないからです。量子物理学を調べてみると、それが非常に広範な分野であることが分かります。私が最も驚いたのは、真空というものが存在しないという事実です.
Olivier Ezratty: はい、その通りです。これは、世界のどこにおいても空間に無は存在しないということを意味します。たとえば、密閉された箱を使った実験で、いわゆる超高真空ポンプを使ってすべての原子を除去します。そして、中に何もないことを確認するために、たとえば数ナノケルビンという非常に低い温度に冷却します。その中を測定すると、何らかの粒子が生成されたり消滅したりしているのが確認できるでしょう。これを真空ゆらぎと呼びます。そして、この「無」というものは実際には存在しないのです。これは非常に驚くべきことです。
Joannes Vermorel: それはとても興味深いですね。私自身が特に関心を持っているのは科学の歴史であり、面白いことに、この現象がエーテルの概念の再評価につながっている点です。20世紀初頭、人々は真空を前面に出すためにエーテルの考えを捨て去りました。なぜなら、自然は真空を好まないという考えがあったからです。こうして、過去の古い考えが取り除かれ、「さて、今や実際に真空が存在する」という結論に至ったのです。そして、エーテルという旧来の用語は基本的に時代遅れの科学として退けられました。
興味深いのは、「自然は真空を嫌うのでエーテルが必要」という考えから、次の世代の科学者たちが「いいえ、たくさんの現象を説明する真空が我々にある」と主張したことです。そして実際にそうなったのです。今や、「より精密に測定すれば、実は真空の理解が従来のエーテルの理解よりも適切であることが明らかになる」という状況に戻ってきています。
Olivier Ezratty: まったくその通りです。なぜなら、真空ゆらぎは非常に低い量子レベルの現象であり、極めて微小な動きなのです。また、カシミール効果を利用した実験も可能で、2枚の金のプレートを非常に近接させます。もしこれらのプレートを極低温の真空中に置くと、互いに引き寄せられますが、これは真空ゆらぎによるものです。しかし、これは自発的なエネルギーの発生ではありません。もしプレートがくっついてしまえば、それを引き離すためにエネルギーを加えなければならないのです。したがって、熱力学の第二法則は常に維持され、作用し続けます。それにもかかわらず、こうした常時の微小な運動が、原子や電子のような粒子が全く動かないという状況を許さない理由を説明しています。
Joannes Vermorel: では、量子コンピューティングとエンタープライズソフトウェアのこの考えに戻りますが、エンタープライズソフトウェアの起業家として衝撃を受けるのは、私の仲間たちが一般的に機械的同情に無関心であるという点です。ここで言う機械的同情とは、計算ハードウェアが数十年もの間猛烈な速さで進化しているために、エンタープライズソフトウェアの分野ではハードウェアに対する関心が薄れてしまっていることを意味します。つまり、計算ハードウェアが10年以内に1000倍にまで進化すると期待され、自分自身が提供するサービスを変更する必要がないのであれば、なぜ気に掛ける必要があるのかという論理なのです。ただただ座って流れに身を任せ、他の人たちに魔法のような技術を任せれば、どんなに非効率であってもソフトウェアが問題を解決してくれる、というのが多くのエンタープライズソフトウェアやエンジニアの主流な考え方だったのだと思います。
Olivier Ezratty: 良い面も悪い面もありますが、その考えは今も続いています。良い面としては、量子コンピュータの概念が約40年前に生まれ、その進歩は重要だったものの、古典的計算機ほど急激ではなかったという点が挙げられます。最初のコンピュータであるENIACが1946年に作られ、その40年後は1986年となります。1986年にはマイクロコンピューティングやMacが登場し、大きな進歩がありました。メインフレームからミニコンピュータ、そしてワークステーションやPCへの移行がわずか40年の間に実現されたのです。一方、量子の場合は、同じ時間内で今もプロトタイプの段階に留まっています。それはより鈍く、進展が遅いものの、物理学者に話を聞けば、この10年で驚くほどの進歩があったと言われるでしょう。ただし、その進歩が業界全体に革命をもたらすほどではないということです。
大きな疑問は、いわゆる量子優位性、または敷居値にいつ到達するかということです。つまり、量子コンピュータが、古典コンピュータでは効率的に行えない処理を実行できるようになる状況です。正確な時期は分かっていません。あるパラダイムは5年以内に価値をもたらすかもしれませんし、またあるものは10年から20年といったもっと長い期間を要するかもしれません。そこには不確実性がたくさん存在します。量子コンピューティングに興味を持つ意味の一つは、その進展や業界の変革のペースが全く予測できないからです。もしそしてその時が来れば、それは非常に大きな変革をもたらし、複雑な最適化問題を抱える多くの産業を根本から変えることになるでしょう。そういった問題は、量子コンピュータによってより効率的に解決される可能性があるのです。ですから、懐疑的であったり慎重であったりしても、我々は現状を学び、その進展を理解する必要があるのです。
IBM、Googleなどの発表を解読できる知識を身につけなければなりません。そうした知的能力がなければ、何かを見逃したり、実際よりもうまく行っている、またはうまく行っていないと誤解してしまう可能性があります。新たなトレンドについては、メタバースや暗号通貨と同様に、関わる必要がなくとも学ぶべきなのです。
Joannes Vermorel: 私は自分自身を、深い機械的同情を持つ起業家の一人だと考えています。Lokadの全社員を代表するわけではありませんが、個人的には、私たちが行う業務を支える物理的な層すべてに大きな興味を持っています。この理解は非常に重要で、問題へのアプローチに多大な影響を与えると信じています。もし直感的に、この分野でハードウェアが飛躍的に進歩すると感じたら、我々は全く異なるアプローチを取る余地があると思うのです。しかし、他の分野では、そう簡単に進展することはないかもしれません。たとえば、光速はおそらく近い将来、あるいは永遠に改善されることはないでしょう。これは分散コンピューティングにおける実際の制約となり得るのです。
これほど大量のデータを処理する場合、計算資源を地球全体に分散することは、ほとんどの場合現実的ではありません。多くの理由から、そうした資源を一箇所に集中させるほうがはるかに容易なのです。いくつかの厳しい限界により、他の方法が有利になることは決してないと考えられるのです。
興味深いのは、あなたのレポートを読んだとき、最初に私が誤解していたのは、量子コンピューティングという枠組みで物事を考えていたことです。本来は「量子技術」と呼ぶべきものでした。量子通信、通信技術、量子センシングなど、私にとって非常に興味深い分野がいくつかありました。そこで、これらの最前線において、量子力学の理解を活用して、以前は不可能だったか、もしくは可能であったがはるかに良い方法で物事が行えるようになるという壮大な目標について、少し概観していただけませんか?
Olivier Ezratty: 量子コンピューティングを一言で説明すると、古典的な方法ではできない計算を、より速く、またはより効率的に、そして場合によってはエネルギー消費を抑えて実行できるようにする技術です。これが量子コンピューティングの利点の一つです。
一方、量子通信は双方向の技術です。これは、量子通信内の技術の一つであるQKD(量子鍵配送)によって、RSAプロトコルなどで用いられる従来のデジタル鍵よりも安全な暗号鍵を配布できるため、通信のセキュリティを向上させる手段とも捉えられます。しかしそれだけではなく、量子通信は従来のセキュリティに留まらず、将来的には量子コンピュータ同士を結ぶ「量子インターネット」や量子ネットワークを構築し、分散量子コンピューティングを可能にするでしょう。
また、量子ネットワークを介して常時接続された複数の量子センサーにより、より精度の高い計測が実現可能になります。これらのセンサーは、重力、圧力、温度、時間、周波数、磁気など、あらゆる物理パラメーターをこれまで以上の精度で測定するために役立ちます。そのため、適用分野は非常に多岐にわたるのです。
Joannes Vermorel: それは興味深いですね。改めて、非常に異なる目的を追求する技術群が存在するということが分かります。つまり、野望も全く異なるということです。
Olivier Ezratty: その通りです。コンピューティングは新たなアルゴリズム的パラダイムに基づき、さまざまな問題のための物理的基盤を提供しようとしています。しかし、同時に量子通信は全く新しいセキュリティの手法を可能にするのです。これは単にセキュリティの向上に留まらない、非常に興味深い分野です。
Joannes Vermorel: ええ、まさにその通りで、さらにその先も見据えていますね。
Olivier Ezratty: セキュリティはその一側面にすぎません。他にも、ポスト量子暗号といった古典的なセキュリティ解決策は存在します。しかし、量子通信は量子セキュリティを超え、はるかに興味深い未来の技術です。例えば、量子リピーターのようなまだ実用化されていない技術が克服されれば、二つの量子コンピュータ間で安全な通信が可能となり、それらすべてが連携して非常に強力なシステムを構築することができるのです。
第一に、量子リンクで接続された二台の量子コンピュータがあれば、それぞれの性能は単なる加算ではなく、指数関数的に増幅されます。第二に、もし二台の量子コンピュータが量子リンクでつながっていれば、その接続自体のセキュリティも向上します。たとえ誰かがそれらを結ぶファイバー光ケーブルを傍受したとしても、情報は何も得られません。これは、二者間で安全な通信を実現する最も優れた難読化システムと言えるでしょう。
より軽量な量子クライアントが、一方で大型の量子システムに接続されることも可能であり、非常に安全な通信を実現します。ちなみに、「The Blind Quantum Computing」というプロトコルがあり、これを実現しています。これは15年以上前に、フランスに住むAnneを含む数名の研究者によって発明されたものです。
そして、量子センシングも、私自身が存在するとは知らなかった技術の一つです。
Joannes Vermorel: より精密な計測という点で、たとえば磁気や重力など、通常どのような物理量の測定を意図しているのか、またそれが極めて微小なスケールで行われる可能性について、概ね教えていただけますか?
Olivier Ezratty: 私の知る限り、量子センサーは現行のIoTセンサーよりも大型ですが、その分、精度が何桁も向上しています。したがって、場合によっては非常に有用です。たとえば、重力をこれまで以上の精度で計測することで、地下に何があるのかを検出することが可能になります。都市の再開発でトンネルをどのように検出するか、水の存在をどう見極めるか、または油を検出する用途にも応用できるでしょう。ただし、もっと油を探すべきかどうかは別問題です。また、軍事的な応用も考えられます。というのも、高精度の磁気検出と重力検出を組み合わせることで、例えば海中の核潜水艦を検出することができ、これにより多くの国の核抑止戦略に大きな影響を与える可能性があるからです。さらに、磁気の検出はナノスケールでも利用可能です。いわゆるNVセンターセンサーは、ダイヤモンド構造内の極小な欠陥、つまり炭素原子が1つ欠落し、代わりに窒素原子が存在し、さらに数個の自由電子がその周囲を移動しているという構造を利用しています。これをレーザーと組み合わせることで、極めて微小な磁気変動を検出でき、MRIなどにも応用可能です。また、脳内の電磁場の変動を検出することにも使え、原子レベルでの生体検査が可能になるでしょう。つまり、ナノスケールの原子レベルから、マクロな重力計測に至るまで、非常に大きな進歩が期待できるのです。
そして、余談かもしれませんが、あなたが「海中の核潜水艦を検出できる」と仰ったとき、内心で微笑んでしまいました。あたかも赤外線カメラが周囲の物質の質量密度を検出するかのような発想ですが、実際にそれは理にかなっています。ちなみに、もっと前向きな利用方法もあります。たとえば、地球を回る衛星に量子重力センサーを搭載すれば、測地学的な研究が大いに進むでしょう。地球の動きを理解し、気候変動が地表や水に与える影響を捉えることができるのです。これにより、地球規模で何が起こっているのかを理解するための非常に前向きな応用例が多く生まれるでしょう。
Joannes Vermorel: その通りです。つまり、ほとんどの科学の進歩は新たなセンサー群の利用可能性によって大いに促進されてきました。そして、ここで少し話がそれますが、Olivier Ezrattyはフランスで何十年も前から知られており、量子技術に関するレポートをする前は、スタートアップとAIに関する途方もないレポートを出していました。スタートアップに関するレポートは、実際にLokadを実践する上で非常に影響力のある重要な文書だったため、私にとっては非常に深い意味を持っています。そして、あなたの資料が非常にフリンジで奇妙、ひねくれていて異質に見える一因は、全く常識の枠を超えた非常に包括的な視点を持っているからだと思います。例えば、私が量子力学について知っているのは、「Introduction to Quantum Mechanics」という本で読んだ内容だと言ったとき、このGriffithsの本は美しく書かれており、最初のページからシュレディンガー方程式を提示し、そこから多くの事柄を導き出しています。これは非常に美しいアプローチですが、同時に非常に狭い見方でもあります。これを行っている教授たちを批判するつもりはないのですが、彼らは素晴らしい仕事をしています。あなたのレポートが非常に興味深いのは、歴史、経済、インセンティブ、規制、持続可能性、数学など、できるだけ多くの視点を取り入れているからであり、全く多様な構造を持ちながらエンタープライズソフトウェアとも結びついている点にあると思います。
エンタープライズソフトウェアの世界では、このチャンネルの視聴者の大半がサプライチェーンに関連しており、サプライチェーンは常にエンタープライズソフトウェアの多層構造を通して運用されています。サプライチェーンと物理的に直接やりとりするわけではなく、物事を遂行するためには無数の間接的な層が存在します。問題の一つは、各ベンダーが自分たちの主張を語るための様々な議論の層があることです。私は長い間量子計算に興味を持っており、多くの主張がなされているのを見ています。時には、「Googleが量子優越性を達成した」というような壮大な主張もあります。その用語自体が印象的に見えるのです。優越性、ですね。
Olivier Ezratty: ちなみに、その言葉は彼らが発明したものではありません。
Joannes Vermorel: ああ、そうですか?
Olivier Ezratty: 約2週間前に、その言葉を作った人物と話をしました。彼の名前はJohn Preskillで、カリフォルニアのCaltechで教鞭を執る非常に有名な学者です。彼は2011年頃にその言葉を作ったと思います。Googleはその表現を使いましたが、それは量子コンピュータが古典的に合理的な時間内には不可能な計算を実行できる状況を記述しているに過ぎず、それが有用かどうかは別問題です。実際、Googleや中国の他の企業による量子優越性は、従来のエンタープライズソフトウェアで行われる計算とは異なります。入力データも出力データも存在せず、単なる乱数生成器のようなもので、生成されたサンプルが古典的なエミュレーションと量子システムでほぼ同じであることを確認するだけです。しかし、実際の計算は行われていません。
興味深いことに、Googleが実用的な計算を行うために自社のシステムを使わなければならなかった際、優越性実験で使用した53量子ビットすべてを利用することができませんでした。ちなみに、その実験では良好な結果が得られる確率はわずか0.14%でした。これが良い結果が得られる確率です。53量子ビットのうち、実際に使えたのは最大で15量子ビットであり、15量子ビットならご自身のラップトップでより効率的、つまり速くエミュレーション可能です。つまり、ある時点で、彼らは古典コンピュータや最大のコンピュータで実行するのに何千年もかかるような計算をしていると言いながら、実用的な計算になると全く役に立たないという状況なのです。
Joannes Vermorel: 聴衆のための文脈として、ビットとは古典的なもので、ゼロと一のみからなるものであり、地球上で作成可能な非常に低レベルな情報の基本的構成要素です。
Olivier Ezratty: その通りです。
Joannes Vermorel: これは、基本的な数学に根ざした非常に控えめでエレガントな見方です。聴衆はビットが何であるかをよく理解していると思いますが、それは必ずしもそうではなく、ほとんどのプログラマーはプロセッサがどのように動作するか全く理解していません。
Olivier Ezratty: はい、しかしこのエピソードの構成上、聴衆にビットについての一般的な理解があると仮定しましょう。
Joannes Vermorel: 私は聴衆がビットの本質をよく理解していると確信していますが、実際にはほとんどのプログラマーはプロセッサの動作について全く知りません。このエピソードのために、ビットについての一般的な理解があると考えましょう。
Olivier Ezratty: その通りです。基本的な論理は備わっています。しかし、量子ビットの領域に入ると、多くの混乱が生じます。というのも、インターネット上では量子ビットについて賛否両論の情報が飛び交っているからです。そこで、量子ビットを量子ビットたらしめる本質的な洞察と、それが古典的な部分とどのように全く異なるのか、その要点を教えていただけますか。
Joannes Vermorel: 興味深いことに、量子ビットは数学的対象としても物理的対象としても記述できますが、それらは密接に絡み合っています。物理的な観点から見ても同じことです。
Olivier Ezratty: 物理的側面から始めましょう。量子ビットは、いわゆるTLS、すなわち二準位系です。これは、原子が持つ二つのエネルギーレベル、すなわち興奮状態のない基底状態と、興奮状態と同様な状態を持つ量子対象です。実際の原子では、多くの異なる励起状態が存在します。これら二つのエネルギーレベルは、レーザーやその他の手段によって制御することが可能です。例えば、電子のスピンは量子化されており、特定の方向において上または下のいずれかしか取り得ず、これにより二つの値が生じます。光子であれば、異なる偏光を持つことができます。
また、超伝導ループのような複合的な対象も存在します。超伝導量子ビットは単一の対象ではなく、ループ内を循環する数十億の電子で構成されています。そのループは非常に低温に保たれており、ジョセフソン接合と呼ばれる障壁があります。この障壁によりトンネル効果が生まれ、ループ内を循環する電流の二つの異なるエネルギーレベルまたは位相と振幅が重ね合わさるという奇妙な現象が起こり、二準位系が形成されます。
量子システムであるため、量子ビットは二つの異なる状態の重ね合わせが可能です。すなわち、原子の基底状態と励起状態を同時に持ったり、電子のスピンの上向きと下向きの重ね合わせ、あるいは光子の異なる偏光の重ね合わせが可能です。
さて、数学的側面を見ると、その重ね合わせは、基底状態または励起状態に対応する0と1の重みとして表現されます。これらの係数は通常AlphaとBetaと呼ばれ、複素数であり正規化が必要です。量子ビットにおける二つの状態の重ね合わせは、二つの数値として記述できます。しばしば、それらはブルッホ球と呼ばれる球面上で説明され、その球面上のベクトルが量子ビットの状態を示します。ベクトルが北極にあるときは0を意味し、南極にあるときは1を意味します。赤道上などその他の中間の位置は、0と1の両方がある重ね合わせ状態に対応します。もし南半球にあるなら1が多く、北半球なら0が多いことを意味し、赤道周辺を回ると信号の位相が変わるのです。実際、量子ビットと単なる電子信号との比較は興味深いと感じました。ネットワーク信号としての正弦波信号には位相と振幅があり、量子ビットもほぼそれと同じです。つまり、位相と振幅であり、その二つの値によって量子ビットの状態が測定されるのです。
では、重ね合わせとは何でしょうか? 重ね合わせは、量子物理学で扱うすべての量子対象が、観察や操作の方法によって粒子としても波としても振る舞うことに由来します。量子ビットを理解する最良の方法は、これら量子対象の波動的な振る舞いを見ることです。基底状態と励起状態に対応する二つの波があれば、その二つを足し合わせると第三の波が生じるのは容易に理解できるはずです。これは、ちなみにシュレディンガー方程式に基づいています。シュレディンガー方程式において、基底状態の解が一つ、励起状態の解がもう一つあり、線形代数が用いられているため、これら二つの解の線形結合がまた別の解を生み出すのです。
これがシュレディンガー方程式の数学的見解です。二つの波の線形結合が別の波を作り出す、まるでピアノの音、例えばドとCが合わさって別の音を奏でるようなものです。しかし、それだけでは計算の速さの根拠は説明できません。その速さは、隣接する複数の量子ビットを接続できることにより、扱うデータ空間が量子ビットの数に応じて指数関数的に拡大する点にあります。つまり、一つの量子ビット、三つ目、四つ目と追加するたびに、データ空間が倍増するのです。例えば100量子ビットがあれば、その複合量子対象は2の100乗個の複素数という規模の情報空間を扱っているのです。これは膨大なデータですが、アナログ的なものです。アナログのデータ空間を扱っているとはいえ、古典的なビットよりもはるかに急速に成長する巨大な空間なのです。
Joannes Vermorel: 私は、古典的パラダイムと大きく異なる点の一つは、人々がビットを話題にするとき、ビットの追加が非常に単純な加法的プロセスだと考えることだと思います。メモリにビットを追加すると直線的に増加し、メモリが倍になれば素晴らしい、つまり例えばコンピュータでSlackのタブを倍に開けるなど、非常に線形的です。しかし、表面的には、数値があまりに巨大なために、人々はビット単位で語らず、まずは8ビットのバイトで語られ、その後通常はメガバイト、ギガバイト、テラバイトで語られます。私たちが普段目にする数値は絶対に巨大です。しかし、本当に興味深いことを行うには膨大な数が必要になるため、「53ビットもあれば十分だ」と言っても印象に残らないのです。人々は「ええ、かつてはENIACの時代ではそうだったかもしれませんが、今はもっと多くのメモリがある」というでしょう。
Olivier Ezratty: そう、まさにその通りです。それは既に何千ものビットに相当します。だから、印象は薄いかもしれませんが、要点はそこではありません。私の理解では、人々が20、50、60、または100量子ビットを持っていると言うとき、それはすべてが完全に絡み合った一つのシステムを持っていることを意味しており、一体となって動作するのです。例えば、50量子ビット+50量子ビットの二つのシステムは、100量子ビットそのものとは全く異なるのです。
Joannes Vermorel: その通りです。しかし、そこで多くの誤解が生じています。
Olivier Ezratty: 例えば、量子計算の速度が計算空間から来ると誤解されることがありますが、これは誤りです。空間的な利点と速度の利点は連動していますが、本質的には異なるものです。実際、n量子ビットを持つ場合、その計算空間は2^n個の複素数となります。厳密に言えば、計算という観点では2^(n+1)個の実数または浮動小数点数となります。しかし、それだけではなぜ計算が速くなるのかは説明できません。
より高速な計算とは、量子ゲートと呼ばれる演算の数が、古典計算ほど急速に増加しないことを意味します。つまり、古典計算で解決したい問題の多くは変数の数に対して指数関数的にスケールする組み合わせ問題ですが、量子コンピュータ上ではその問題の計算時間が指数関数的に増加しないようにしたいのです。つまり、量子コンピュータ上では、演算の数が線形的、対数的、または多項式的にしか増加せず、古典コンピュータのように指数関数的に増加しないようにしなければなりません。そして、比較を難しくする定数も存在するかもしれませんが、それでもなお。
量子コンピュータの速度を決定するのはアルゴリズムの長さです。アルゴリズムは多数のエンタングルメント、つまり量子ビット間の結合を利用しています。効率的なアルゴリズムを組み立てる方法を見いだすことが、量子計算科学の核心であり、これは量子ビットのサイズに対して補完的なものなのです。
そして、誤解ではないもののあまり知られていない点として、アルゴリズムの結果を測定すると得られるのはn量子ビットではなくnビットである、ということがあります。つまり、100量子ビットを持っていても、各量子ビットについて0か1のいずれかの値が得られるのです。最終的にはごく少量の情報しか得られません。計算中は2^100個の複素数という莫大な情報空間を扱っているのに、結果として得られるのはたった100ビット、すなわち古典的なビットに過ぎないのです。
では、なぜこんなに手間がかかるのでしょうか? 量子計算の力は、広大な情報空間を探索する能力に由来しますが、最終的にははるかに小さな結果に収束するのです。例えば、大きな数の因数分解を行うとしましょう。因数分解では、ショアのアルゴリズムという複雑なアルゴリズムを用いて空間を探索しますが、最終的にはビットで表される小さな数を得るのです。
このように説明できます。また、多くのアルゴリズムでは、アルゴリズムを何度も実行し、その結果の平均を取って各量子ビットに対応する浮動小数点数を得るのです。さらに、量子計算がビッグデータに向いているという誤解も存在します。
Joannes Vermorel: そうです。だからこそ私がその点に言及していたのです。明らかにそれはうまく機能していません。私の理解では、設計上、もしテラ量子ビットのような極めて多くの量子ビットシステム、つまり何十億もの量子ビットを持つシステムを実現できなければ、システムにデータを投入する段階で一種のボトルネックが存在するように見えるのです。
量子コンピュータにデータを入れるのは大きな問題です。量子ゲートが量子ビットにデータを入れるのに時間がかかるため、まだ研究分野に留まっています。ちなみに、とても遅いのです。10キロヘルツ程度と読んだ記憶がありますが、つまり現在のIBMのシステムは、1秒あたりの操作サイクルが2キロヘルツから10キロヘルツの間で動作しており、あまり速くはありません。
Olivier Ezratty: はい、アメリカのIonQやHoneywellが提供するアルカリ系システムであるトラップドイオンでも、さらに遅いです。つまり、そこに情報を入れるのはあまり速くありません。ほとんどの場合、複雑なデータパスは古典的なアルゴリズムで処理し、制御ゲートを大量に必要としない純粋なビット単位の圧縮データを量子アルゴリズムに投入する、いわゆるハイブリッドアルゴリズムを使用します。すると、計算が膨大な情報空間を探索し、わずかな結果を生み出すのです。
しかし、今気になるのは別の問題です。量子アルゴリズムを設計する際、ほとんどの場合、線形代数を実行する完璧な数学的対象、つまり数学的量子ビットを前提とします。これは、単にベクトルと行列を掛け合わせて新たなベクトルを得るという数学的操作です。しかし、今日存在する—and これからも存在するであろう—量子ビットはノイジーであり、各計算でかなりの誤差を発生させます。したがって、平均的なデータ処理を行う必要があるのです。
既存の量子システムでは、すべての操作で約1%の誤差が生じます。つまり、最終的に1回の操作を計算しても、正しい結果が得られないということです。これは単純化した説明ですが、概念を掴むには十分です。指数関数的な加速をもたらすとされる多くのアルゴリズムは、約10^9または10^14回の操作を必要とします。したがって、ノイズが多すぎると機能しません。結局、私たちはこのノイズを回避するための対策を見つけなければならない状況にあります。
現在探求されている方法は二つあります。一つは、そのノイズに耐えられるアルゴリズム、いわゆるシャローアルゴリズムを作成する方法です。これらは、ゲートや操作の数が少なく、システムが崩壊するレベルに達しないように設計されています。もう一つは、いわゆる制御操作を使用する方法です。制御操作は、外部から見たときに高品質に見える論理量子ビットを作る手法であり、特定のアルゴリズムに必要なものですが、その結果を得るために、これらの論理ビットは多数の冗長な物理量子ビットから構成され、その冗長性は非常に大きいのです。
現在の計画では、非常に高品質な量子ビットを得るには1万個の量子ビットが必要だと言われています。純粋な数学的観点から量子優位を得るには、少なくとも50量子ビット、実際には100量子ビット程度が必要です。ちなみに、その範囲は50から100の間です。つまり、100の論理量子ビットに対して1万個の物理量子ビットが必要となり、合計で100万個になります。実際に有用な量子コンピュータが量子優位を発揮するためには、100万個の非常に高品質な物理量子ビットが必要です。現時点で最新の記録はIBMのもので、昨年11月に発表され、数週間後にオンラインでリリースされる433量子ビットのシステムがあります。しかし、これらの量子ビットは非常に低い忠実度で、おそらく99%未満です。つまり、各操作で1%以上の誤差が発生しており、現段階で実用的なことを行うには不十分であると言えます。これはIBMの長いロードマップの中の一歩であり、中間段階に過ぎません。433量子ビットと、エラー訂正を実現できる100万個の非常に高品質な量子ビットとの間には大きな違いがあり、実際の量子優位を達成するには多くの作業が残されています。
もう一つの解決策があります。これはIBMやGoogleなどが採用しているもので、数年前に開発された「量子エラー緩和」と呼ばれる新しい手法です。緩和は訂正とは異なります。訂正は各操作ごとに冗長性を利用してエラーを修正しますが、緩和は少し異なり、AI、つまり機械学習を多用します。システムにエラー現象を理解させるための訓練を行い、事後選択的な訂正を実施します。つまり、結果を何度も計算し、訓練後にその結果を修正できるようにするのです。これは計算完了後に行われ、いわゆるノイジーな量子計算システムの性能を拡張することを目的としています。「量子優越性」というニックネームを考案した同じ人物が、さらに「NISQ」(Noisy Intermediate-Scale Quantum computer)というニックネームも考案しました。これは2018年、ちょうど5年前にジョン・プレスキルによって提唱されたものです。そして、量子エラー緩和が施されたノイジーなシステムは、企業向けに実用的な量子計算を可能にするはずです。しかし、私たちはまだその閾値に到達しておらず、数年先になる可能性がありますが、いくつかの不確実性が残っています。
Joannes Vermorel: 非常に興味をそそられました。そして、これはまた非常に憶測的な話ですが、私にとってはシャローアルゴリズムを通じて実現するのが短期的な現実的手段だと思います。エラー訂正の長期的な視点については、『ノイジーな操作を行う物理基盤があるので、そのノイズをあえて利用する』というアプローチもあり得るでしょう。さらに機械学習においては、例えばディープラーニングのような現代のAIの一形態に見られるボトルネックの一つが、資源を大量に消費する行列乗算であるとする研究論文が多数あります。数学的には行列乗算が理想的とされる一方、実際の運用上、本当に必要なのでしょうか?実際には、16ビットから8ビット、あるいは限定的なシステムでは1ビットまで精度を落とすことで消費電力を削減できるなど、ディープラーニングがうまく機能している理由は、純粋な線形演算であるという事実と直接関係していない場合も多々あります。ノイジーであっても独自の強力な演算子を使って、もしかすると憶測的なことを実現しようとする試みがあるのでしょうか?そういった試みは実際にはほとんど行われていないかもしれませんが、あまり注目されなかった量子計算の問題を実際に解決する領域が存在するとお考えですか?結局、実行手段があるかどうかが興味深さを決定づけるのです。
Olivier Ezratty: 答えとしては大部分で「いいえ」だと思います。その理由を詳しく説明します。近未来のシステムで実装可能なアルゴリズムは主に三種類あります。第一は化学シミュレーションで、シュレディンガー方程式をシミュレーションし、分子内の電子軌道を観察して分子構造を理解するものです。分子の基底状態、すなわち最低エネルギー状態を見つける必要があり、これは非常に高い精度を要求します。そのため、古典計算より優れた結果を得るためには、非常に高精度でなければなりません。既にテンソルネットワークなどを用いた古典システムでの化学シミュレーションは存在しますが、限界があります。より複雑な分子を量子システムでシミュレーションするには、極めて高い精度が必要です。
第二のアルゴリズムは最適化アルゴリズム、すなわちSAT問題、最大カット問題、その他多くの探索アルゴリズムや有名な巡回セールスマン問題のようなバイナリ最適化です。これらのシステムもエラーに対して敏感です。
最後のものは量子機械学習(QML)です。これらのシステムはある程度のノイズを許容できる可能性があります。しかし、私の知る限り、量子機械学習で実現可能なことには限界があります。一つは、これらのアルゴリズムは大部分が古典部分で構成され、量子部分が非常に小さいという点です。もう一つは、システムへデータを投入するコストが非常に高いという点です。現状、近未来のシステムにおいて、計算時間の実際の高速化が証明されている分野はほとんどなく、依然として未解決の研究領域です。
これは量子コンピューティング全般に当てはまることですが、上述した各カテゴリーや、将来的に実現する論理量子ビットを用いたカテゴリーにおいて、実際にどこに本当の速度向上があるのかを理解するのはまだ途上の段階です。理論は多く存在しますが、それらはハードウェアの現実、量子エラー訂正のオーバーヘッド、その他の諸要因と対峙しなければなりません。さらに、使用する量子ビットの種類によりゲートの長さも変わるため、これも考慮すべき点です。
例えば、現在主流の超伝導量子ビットの場合、単一量子ビット操作のゲート長は約20ナノ秒と非常に短いです。しかし、二量子ビットゲートの場合、通常は数百ナノ秒かかります。そして、ゲートを制御する電子回路があります。なぜなら、ゲートそのものは量子的なものではなく、古典的な電子デバイスから発せられる信号によって駆動されるからです。その信号はマイクロ波パルスとして生成され、そのパルスには一定の持続時間があり、室温または非常に低温で動作する古典的電子回路によって生成されます。このシステムには遅延があり、データ生成に時間がかかりますし、その後も古典システムにより制御されなければなりません。なぜなら、ほとんどの場合、量子コンピュータは古典コンピュータが電子回路を制御して何らかの光子を生成する仕組みだからです。その光子はマイクロ波領域、例えば約5ギガヘルツ、あるいは可視光・赤外線の光学領域に属し、通常は紫外線ではありません。そして、これらの光子が量子ビットに送られ、状態を変化させ、さらに異なる種類や周波数の光子が量子ビットに送られます。量子ビットから発せられる信号を観測し、アナログからデジタルに変換して、0か1かを判断するのです。つまり、古典計算、古典電子工学、量子ビットとの間で、このようなループが形成されています。
Joannes Vermorel: これで私の理解を試す質問になります。実は、量子コンピュータがゲートレベルで電子回路によって厳しく制御されていることに気付いていなかったのですが、量子力学の美しい新たな性質を享受するには、ほぼ極低温でなければならないという理解でよいのでしょうか。
Olivier Ezratty: それは場合によります。たいていの場合はそうですが、量子ビットの種類によって大きく異なります。温度に対して最も厳しいのは超伝導量子ビットで、約15ミリケルビンが必要です。つまり、これを制御する古典的電子システムが働くと、エネルギーが加わり少し温まる可能性があります。そのため、各層で消費されるエネルギー量を管理しないと、すぐに15ミリケルビンに到達できません。通常、大型のシリンダーを用いて、50ケルビンから始まり、次に4ケルビン、1ケルビン、100ミリケルビン、そして50ミリケルビンへと段階的に冷却していきます。これらの温度に到達するためには多くの段階が必要で、その都度、電子信号が伝達される際に余分な光子が減衰され、15ミリケルビンレベルでの加熱が最小限に抑えられます。一方、増幅器も設置され、この段階で量子ビットの読み出し用に信号を増幅します。しかし、これは超伝導量子ビットの場合です。さらに、シリコン量子ビットやシリコンスピン量子ビットと呼ばれるものもあり、これらは半導体システムを使用し電子のスピンを利用するため、15ミリケルビンの代わりに100ミリケルビンから1ケルビンの範囲で動作可能です。それでも非常に低温であり、液体窒素(77K)や液体水素よりはるかに低温です。実際、家庭用冷凍庫では到底実現できません。
Joannes Vermorel: ええ、冷凍庫自体が100万ユーロ以上するので非常に高価ですが、他にも異なる技術があります。例えば光子を考えてみましょう。
Olivier Ezratty: プロセッサ内で光子を制御する場合、室温でも可能ですが、多くの場合、発光源は半導体効果に基づいており、冷却が必要です。例えばフランスのスタートアップ、Candelaを挙げます。彼らは、ガリウム砒素とアルミニウムに基づいた三五半導体システム、複数の層、ブラッグミラー、そして量子ドットを内包した独自の光子源を持っています。この小型装置は、個々の光子の流れを生成するために約4ケルビンまで冷却され、その後、計算に使用されます。次に、各光子は室温の波導回路に送られ、最終的に一つずつ検出されるのです。つまり、室温でも個別に制御された光子を扱うシステムが構築できます。
Joannes Vermorel: ああ、興味深いですね。波導同士が相互作用できるなんて知りませんでした。
Olivier Ezratty: はい、そして最終的には各波導上の光子数をカウントする必要があります。光子検出器自体も、個々の光子を検出するのに最も有望な技術が超伝導効果に依拠しているため、約4ケルビンまで冷却する必要があります。つまり、システムの両端で冷却が必要ですが、中間部分は不要です。さて、中性原子について見てみましょう;これは全く異なる話です。
Joannes Vermorel: そのベンダーのデータシートでは冷却は不要と記されているが、実際はそうではありません。
【オリビエ・エズラッティ】: 彼らが行うのは、原子を制御し、真空中の所定の位置に配置することです。そのために、3方向にレーザーを用い、いわゆる磁気光学トラップ技術を使用します。この技術は、アラン・アスペの博士課程の学生の一人であったジャン・ダリバールによって発明されました。この技術は原子の位置制御に用いられますが、システムの冷却には使われません。個々の原子の位置を制御するために、別のレーザーと特殊な装置を用いたシステムもあります。原子が十分に冷却され、精密に配置されると、その温度はナノケルビンの範囲にまで下がります。驚くべきことに、冷蔵庫は使わず、システム内の原子を除去するポンプとレーザーだけを使っているのです。つまり、レーザーを利用した冷却ということになります。
【ジョアンネス・ヴェルモレル】: しかし、フォトンを投げ込むことでエネルギーが加わっているように見えながら、実際の全体効果は冷却になっているのは直感に反します。
【オリビエ・エズラッティ】: はい、ドップラー効果を利用しているのです。ドップラー効果とは、原子がこちらに向かってくるときにフォトンを送ると、そのフォトンがまるでボールのように働いて原子を反対方向に押し、速度を落とさせるという現象です。一方、逆方向に動いている原子はドップラー効果で受け取るエネルギーが低いため影響が少なく、結果的に、こちらに向かう全ての原子は平均して減速され、その他の原子はそうでないのです。これを6世代繰り返すことで、全ての原子の運動が徐々に遅くなります。そして、これは機械的な力ではなく、光だけが原子の動きを遅くしているのです。しかし、システムが冷却されるのは、温度自体がその媒体中の原子の運動量の指標であるからです。
そして、興味深いのは、たとえばフランスの企業Pasqalや、米国ハーバードを拠点とする競合企業Q-CTRLで発見された点です。非常に高品質な真空状態を作るために数百個以上の原子を真空チャンバーに入れる際、実はポンプ側に冷却機構を導入しなければならないことが判明しました。つまり、冷却はキュービット自体ではなく、チャンバーから原子を除去するポンプに施されるのです。そのエンジニアリングは本当に魅力的で、まさに現実の工学と言えるでしょう。
そして、もう一つ挙げられる技術はNVセンターと呼ばれるものです。これはセンサー向けに言及されることが多いですが、計算にも応用可能です。オーストラリアに拠点を置くQuantum Brillianceという企業があり、実際にはドイツとオーストラリアの合弁会社です。同社はすでに室温で動作する5キュービットシステムを開発しています。将来的に大規模化できるかは定かではありませんが、この技術は潜在的に室温での動作が可能とされています。
【ジョアンネス・ヴェルモレル】: この議論で私が本当に好きな点は、ベンダーが存在する限り、自己主張するためのインセンティブが生まれることです。そして、私のように好奇心を持つ者にとって、分野に深くコミットしなくても、様々な素晴らしい主張が絶えず並ぶのではなく、条件によっては多くの注意点や前提が隠れていることが分かる点が非常に興味深いのです。
【オリビエ・エズラッティ】: その通りです。そしてそれは問題ではありません。つまり、あなた自身がベンダーである以上、毎回全てを伝えることはできず、選択と単純化をせざるを得ないのです。
【ジョアンネス・ヴェルモレル】: 全くその通りです。私たちが行う全てのことを詳細に語ることはできません。そしてちなみに、こちらがソースコードのコピーと、私たちが実施した全ての実験の記録です。理論上はそのような情報を公開できるのですが、実際には情報があまりにも多いため、むしろ雑音が増える結果となるのです。
では、この量子技術の分野が、外部の人々にとって非常に不透明であるというのが私の認識です。あなたのレポートは非常に多くの光を当てています。特に私が興味を持っているのは、直接自ら実験を行わなくとも、その技術が実際に効果を発揮するかどうかについて、比較的正確な意見を形成できる可能性の話です。つまり、実験室を設置して「この論文は再現されるのか?」と試すのではなく、単にベンダーの主張だけを実験で検証しようとするような、いわゆる単純な考えに陥らない方法です。はい、ソフトウェアはオンラインでテスト可能ですが、エンタープライズソフトウェアの場合、テストするために複数の場所に同時にデプロイしなければならず、非常に実用的ではありません。そのため、多くのベンダーは無料トライアルすら提供しないのです。なぜなら、開始するためには20箇所でのデプロイが必要になるからです。
【オリビエ・エズラッティ】: この分野の進展をどのように捉えていますか?
【ジョアンネス・ヴェルモレル】: 人々と話すとおっしゃいますが、私の見込み客を悩ませる一因として、皆が何らかの形でベンダーであるという事実があります。たとえば、量子分野に入れば覚えるべき情報が非常に多く、詐欺と正当な主張をどう見分けるかが問題となります。物理学のノーベル賞受賞者に話を聞くのが一つの解決策と言われましたが、彼らも全知ではありません。それが一つの解決策であっても、理解を深めるための中継役となる人物をどう見極めるか、そして詐欺的な主張や露骨な虚偽情報が多い中で、限られた時間をどう割くかが重要なのです。
【オリビエ・エズラッティ】: では、どのように舵取りをしていますか?
【ジョアンネス・ヴェルモレル】: 基本的には、できる限り多くの科学者、特に基礎研究に携わる方々と会うようにしています。物理学者やエンジニア、さらにはアルゴリズムやコンピュータサイエンスの分野の方々とのミーティングは非常に重要です。もっと多くの方々と会うべきだと感じながらも、実際には今はコンピュータサイエンスの方々よりも物理学者と会うことが多いですね。以前は、あなたはハイパフォーマンスコンピューティングやスーパーコンピューティングの分野で多くの人と会っていましたが、それは古典的な計算の別の領域なのです。
できるだけ多くの科学論文を読み、その言葉遣いを理解するよう努力しています。新たな論文を読む際の最初のステップです。しかし、これは日々挑戦であり、継続的な課題でもあります。これが複雑な理由の一つであり、現在の業界にとっては多様性という面でむしろプラスなのです。多様性と言えば、現在、20種類から30種類以上の異なるキュービットが存在します。一方、トランジスタや古典的なチップセットでは、基本的には一種類のCMOSトランジスタだけです。多少の変種はあるものの、iPhone、Mac、PC、サーバーに搭載されるトランジスタの違いは1%程度で、ほとんど同じ技術、同じ手法―常にシリコンのNPドーピングとゲート―になっています。量子コンピューティングでは、様々な技術が用いられており、ある技術においては世界で50人ほどしか理解していない場合もあるのです。例を挙げると、2週間前にラスベガスに行きました。CESではなく、3年前から参加していないAPS(アメリカ物理学会)の会合で、そこには1万3千人もの物理学者が一堂に会していました。
【オリビエ・エズラッティ】: そして、ある企業と会う機会がありました。彼らは自ら私のもとに来たのです。その企業名はIroquoで、あまり知られていません。彼らは米国シカゴ地域に拠点を置き、スピンキュービットではなくシリコンキュービットを扱っています。つまり、電子のスピンを制御していますが、その電子は冷たい液体ヘリウム上のヘリウム基板に存在し、上に電子スピンが並んでいるのです。非常に奇妙な技術です。なぜそれを使うかというと、ヘリウムが周囲の回路から電子スピンを隔離するためです。これは数多くある奇妙な技術の一例に過ぎず、それぞれの技術について詳しく説明できる科学者はごくわずかなのです。
そのような状況と共に生きる必要があり、不確実性や部分的な情報の中で判断しなければなりません。ある程度の直感と、全ての側面における広範な工学知識も求められます。たとえば、最近私が発見したことの一つに、Alexaや他の研究者とともにQuantum Energy Initiativeの共同設立者として活動する中で、レーザーやマイクロ波を制御する電子機器の品質が、キュービット自体と同じくらい重要であることが分かったということがあります。
そして、電子工学は日常的なものではありません。コンピュータサイエンティストであってもその方程式については詳しくありません。ですから、私はフーリエ変換や信号理論に立ち返り、古典的電子機器が発生する信号の位相、振幅、周波数の変動(ジッター)を理解する必要がありました。さらに、マイクロ波発生に必要な電力、減衰、フィルタリングなど、全てを理解しなければならず、電子工学は量子コンピューティングシステムの設計にも大きな影響を与えているのです。
【ジョアンネス・ヴェルモレル】: 私にとって非常に興味深い教訓は、私自身の分野であるエンタープライズソフトウェアやサプライチェーンにおいても、非常に多種多様なニッチな視点やベンダーが存在するという事実です。たとえば、サプライチェーンの問題に取り組む方法としては、20種類ほどの相反する哲学が存在します。主流のもの、フローキャスティング、DDMRP、SNOPなど、文字通り異なる視点が数多く存在し、それに応じた多数のベンダーが存在するのです。
私が本当に興味を持つのは、あなたが述べたように、直接実験を行わずとも、比較的精度の高い判断ができる可能性―つまり実際にその技術が機能するか否かを、間接的に評価できる可能性―についてです。実験室を設置して「この論文は再現できるか?」を検証するのではなく、ベンダーの主張だけを実験で確かめるという、やや単純な考え方に囚われない方法です。はい、オンラインでソフトウェアをテストすることは可能ですが、エンタープライズソフトウェアの場合、テストするために複数の場所に同時にデプロイしなければならず、非常に実用的ではありません。そのため、多くのベンダーは無料トライアルさえ提供しないのです。開始するためには20箇所でデプロイしなければならないからです。
【オリビエ・エズラッティ】: 私が非常に信奉しているアプローチは、ある主張をする一人の人物の元へ行き、その主張を防御させた後、次に別の、理想的には多角的な視点や矛盾を持つ人物の元へ行くことで、さらに何かを学ぶというものです。私の場合、定期的に多くの科学者と会い、その中で多くのセレンディピティ(偶然の発見)が生まれます。時には「この人かあの人に会うべきだ」と紹介され、その人たちと会って新たな知見を得ることもあります。たとえば、昨年11月にグルノーブルを訪れた際、1日でおそらく15人の科学者に会いました。ある時、トップロジカルキュービットに取り組んでいる人たちに出会い、彼らはマイクロソフトがこのキュービットに賭けていることで有名だと言いました。4人の方に「どなたと仕事をしていますか?」と尋ねると、「アメリカのあの人と協力しています」との回答があり、その人物は、かつてマイクロソフト関係者によるNatureの論文再撤回を引き起こしたピッツバーグ大学の人物であるということを知っていました。こうして、彼らと会うことで多くのことを学びました。
【ジョアンネス・ヴェルモレル】: あなたのレポートに戻ると、最初のセクションで科学論文の読み方に関するヒントを示している部分があり、とても興味深かったです。多くの論文には20人もの著者が並んでおり、全員が重要かどうかは分かりません。通常、最初の著者は実際に作業を行った博士課程の学生であり、他の著者は様々な形で研究をサポートしたに過ぎず、最後の人物は監督者または研究室の所長で、必ずしも論文の内容を十分に理解しているとは限らないのです。
【オリビエ・エズラッティ】: 興味深いのは、あなたが示した手がかりの見つけ方とその分野をどうナビゲートするかという方法です。魔法のようなものではなく、こういった手がかりさえあれば、その分野をシンプルに探索できるのです。私の著書のその部分で触れたかどうかは定かではありませんが、例えば「新しい、より良いキュービットを発見した」と主張する研究室があったとしましょう。では「より良い」とは何を意味するのか?そこで彼らの発表する数値、例えばマイクロ秒単位のT1が安定しているという数値を探すのですが、驚くべきことに、キュービットの性能に関するその他の数値が提示されない場合があります。おそらく、その部分が良くないからかもしれません。そして、時には実験に使用したキュービット数すら示されない場合もあり、これはキュービット数が非常に少ないことを意味しているのです。情報が欠落していること自体が、一種の手がかりなのです。
量子コンピューティングにおいては、特にベンダーからのコミュニケーションにおいて典型的な現象です。私の知る北米のある企業(名前は出しません)は、自社のキュービットの品質をアピールしているにもかかわらず、キュービット数を明示しません。数値が示されないということは、二つの事柄を意味します。一つは、キュービット数が非常に少ないこと、もう一つは、示されているキュービット品質の数値が誤解を招く可能性があるということです。通常、大量のキュービットを扱えば、優れた品質を維持するのはより困難になります。もし少数のキュービットで良好な品質を示していると謳いつつ、実際には3個、4個、5個程度であるなら、人々を誤解させることになるのです。これは非常に興味深い例です。
Joannes Vermorel: そうだね、根本的には、私たちは知的で、他の分野の人々と同様の傾向を持つ人間を相手にしていると思うんだ。例えば、私が特に興味を持っているサプライチェーンソフトウェアに目を向けると、手がかりは同じではないけれども、確実に存在しているのがわかる。例を挙げると、もしベンダーがスクリーンショットを一切持っていなければ、そのUIはひどい見た目である可能性が非常に高い。というのも、UIが素晴らしければ、たくさんのスクリーンショットがあるはずだからだ。もし彼らのアルゴリズムが、ただ誇大解釈された移動平均のようなものであれば、それを詳細に説明しない。ただ「超高度なAIがある」とだけ言う、それも実際は予測のための移動平均に過ぎない。しかしその場合は、ただそれだけを言うにとどまる。一方、何かしら自慢できるものがあれば、ウェブサイトにはそれについての無限とも言えるセクションが用意される。逆に、ソフトウェアが非常に遅い場合は、速度について一切触れず、その業界の考え方を完全に理解していると強調するだけで、遅さについては口にしない。だからこそ、そうしたよりメタな側面を探るという考え方が本当に好きなんだ。基本的には、対立的なマインドセットを持つ必要がある。誰かが何か注目すべきことを語ったとき、まず最初のフィルターとして、それが本当に追求するに値するほど注目すべきものなのかを判断する。そして、その後で「この主張に対して支払うにあたって最もありそうな代償は何か? 隠れたコストは?」と考えるようになる。
Olivier Ezratty: ええ、量子コンピューティングにおいては、さらに複雑な要素があります。存在する各種指標、それらの測定方法、そして様々なベンチマーク手法を学ばなければなりません。量子コンピューティングでは、このようなものが数多く存在します。ISOなどの標準化団体が強力に推進しており、我々フランスもその取り組みに参加しています。しかし、これらがどのように測定されているのかを理解するには、かなりの教育が必要です。例えば、私はキュービットの品質の測定が、半導体ベースや超伝導キュービットのような固体状態のものと、捕捉されたイオンを管理する側との間で全く同じではないと知りました。彼らは異なる指標を用いており、その違いを理解しなければならないのです。つまり、数字を理解することが大切で、使われている数字のヒントを掴むことは非常に重要なのです。先日、キュービットの品質を表す対数対数グラフを作ろうとしたのですが、一貫した正しい数字を得るのが困難で大変でした。例えば、キュービットの品質を測定するなら、いわゆるランダム化ベンチマーキングという、ほぼ標準化された方法で品質が測定されていることを確認しなければなりません。非常に注意深くなければならず、数字に惑わされる可能性もあります。
Joannes Vermorel: 全くその通りです。サプライチェーンにおいては、あちこちでこの種の問題が見られます。例えば、非常に些細な事柄でも、人々が尋ねる質問の一つに「あなたの予測システムはどのくらい正確ですか?」というものがあります。問題は、それが入力データの精度に非常に依存していることです。したがって、データ次第で答えは変わってしまうため、意味のある数字を示すことはできません。コミュニティが「どちらがより正確か」という感覚を得る唯一の方法は、実際にKaggleのコンペティションのようなものを開催し、競わせることにあるのです。しかし、根本的には、予測能力の本質的な測定方法を定義する上で問題があるのです。
Olivier Ezratty: ところで、最近変わったのは、クラウド上で利用可能な量子コンピュータや既存の情報が増えたことです。時にはアクセスが高額になることもありますが、どうあれ、IBM、Amazon、Microsoftが提供するシステムがあり、さらにはGoogleにもIonQシステムが一台あります。つまり、世界中で約60台のコンピュータがクラウド上で利用可能ということです。これにより、人々はベンチマークを行い、異なるシステム間で一貫して実施された比較を示す非常に興味深い科学論文が現れ始めています。どこに位置するのか、ある程度の推測が可能になっているのです。それは非常に面白く、前向きなオープンなエコシステムと言えます。
Joannes Vermorel: しかし、オープンであると同時に複雑でもあります。科学内容を判断するためには、かなりの科学的バックグラウンドが必要です。多くの科学論文があり、ベンダーも論文を発表していますが、単に論文を読むだけでも骨が折れます。時にはあまりにも複雑です。4年前にGoogleの量子優越性論文70ページを見つけたとき、思わず笑ってしまいました。なぜ笑ったかというと、その論文に含まれる内容、すなわち量子物理学、アルゴリズム、計算機との比較、エレクトロニクス、低温工学など、多数の要素や非常に理解しにくいグラフが70ページにも及ぶ中で、誰が内容を把握できるというのかという点です。
Olivier Ezratty: 4年前を振り返ると、おそらく論文全体の5~10%しか理解できなかったと思います。今では50%以上理解できるようになりました。論文全体を完全に理解しているわけではありませんが、何度読み返すたびに新たな発見があり、他の文献を読んだり、トレーニングを受けたり、動画を見たりした結果です。論文は相変わらずオープンですが、同時にオープンでありながらも閉じた面もあります。なぜなら、複雑さは情報を覆い隠すという側面があるからです。比較が不足していること自体が、情報を曖昧にする一因にもなり得ます。つまり、非常に異なるベンダーからのデータを調和させたい場合、そのデータを統合した論文を誰かが作成するか、私自身が最近作成しているこのグラフのように自力で行う必要があるのです。非常に異なる情報源からデータを集め、我々が本当はどこにいるのかを見極めるためのデータ統合の余地はまだ十分にあると考えています。現在、その点に関して2本の論文を執筆中です。
Joannes Vermorel: 私の観点では、これは絶対に必要な作業であり、非常に有用です。しかし、同時に長期間にわたる厳しいインセンティブも伴います。あなたがこの仕事をしていること、私自身あなたを知っている中で、あなたが非常にユニークなのは、どのベンダーにも簡単には流されないところだと思います。特定のマインドセットが必要なのです。あなたはかつてベンダーとして働いていましたし、Microsoftにも在籍し、この業界の一員として活動してきました。それがあなたに知的免疫を与えたのだと思います。Microsoftは一枚岩ではなく、20万人以上の人々からなる灰色の存在です。優秀な人もいれば、そうでない人もいるなど、多様性に富んでいます。大規模な人間集団から生じる企業問題に対する知的免疫が備わっているように思います。
Olivier Ezratty: そうですね、なぜなら彼らは資金調達をしなければならないからです。
Joannes Vermorel: まさにその通りです。その分野でVCから魅力的と見なされるには、大企業であってもより多くの努力が必要です。ここで言いたいのは、専門家として振る舞う役割を果たす場合、企業が存在するということです。ちなみに、エンタープライズソフトウェアの分野で、Gから始まる名前の企業など、非常に著名な市場分析会社があるのですが、名前は控えます。私の見解では、市場分析家としての長期的なインセンティブは、ベンダー向けのアウトソーシングされたプレス管理になることであり、実際にエンタープライズソフトウェア、特にサプライチェーンの分野でそのような動きが見られるのです。
Olivier Ezratty: その通りです。そして、その役割を担う人々はすぐにより多くの報酬を得るようになります。分析者は、常に「説明業務から収益の大部分を得ている」と主張しますが、実際には、ベンダーが市場全体に対して伝えてほしい内容を、ベンダーが好む形で語る偏った専門家に、より多くの報酬を支払っているのです。結果として、そのような歪みが生じるのです。
Joannes Vermorel: あなたの場合、報告書は非常に複雑で変化し続ける状況について、偏りのない評価を行える最高の形になっています。しかし、私が興味を持つのは、量子コンピューティングの分野のように確立されたベンダーが少ない分野では、本来果たすべき専門家の役割が堕落し、結局はベンダーのメッセージを伝えるだけに終始してしまう点です。
あなたは、多くの助力を受けながらも、ほぼ独力でこの仕事をこなしています。私が驚いたのは、現代の企業が、たった数年で一人の人間が成し遂げられることを過小評価しがちであるという点です。量子コンピューティングに関しては、企業は困惑し、通常はコンサルタントを雇い、20人のチームを3ヶ月間も擁して対処しようとします。しかし、あなたは、長年にわたって一人の知的で意欲的な人物に全てを賭けることで得られる理解が、同様に効果的であることを証明しています。
Olivier Ezratty: はい、そしてもう少し接点を付け加えるなら、顧客自身も重要な役割を果たします。IBMなどが大手顧客と共に新技術を推進しているため、世界中にはそれを評価した多くの大手顧客が存在し、Total、EDF、MBDAのようにフランスの顧客が発行した論文に署名している場合もあります。そうした企業の科学者に会うと、異なる技術や実際のアルゴリズムを実務の問題に適用した経験から、多くの洞察を得ることができます。
Joannes Vermorel: サプライチェーン分野で、クライアント自らが論文を発表するのをぜひ見てみたいものです。現在見られるのは、完全に広告用に作られたケーススタディだけです。ケーススタディの本質は、単に広告用にフォーマットされた情報の一片に過ぎないという点です。
Olivier Ezratty: 私は、研究者、ベンダー関係者、そして顧客が一堂に会するという絶妙な組み合わせのプロジェクトに関わっています。もし、これら三者が揃う研究チームを構築できれば、素晴らしい相乗効果が生まれます。特に、研究チーム、スタートアップ、顧客がすべて同じ国や地域にいる場合、新たな研究のアプローチを構築し、その成果を別の分野に応用するのに非常に役立ちます。
Joannes Vermorel: さて、今後のタイムラインについてさらに話を進めると、量子コンピューティングは何十年にもわたって進化してきた技術です。希望を持てる根本的な理由は、量子力学そのものが宇宙の働き方そのものを示しているからです。量子力学の美しさは、以前にはなかった豊かさを宇宙にもたらしたことにあります。つまり、以前は不可能とされていたことが突然可能になるのです。それは制約となるだけでなく、多くのことを可能にする要素でもあります。すでにトランジスタや、スピンディスクのための巨大磁気抵抗など、多くの要素を活用しているのです。そこで、第二波コンピューティング技術の実用化に向けた産業化のタイムラインについて、どのようにお考えですか? 何か期待できる材料はあるのでしょうか?
Olivier Ezratty: さて、皆が口にするところでは、最良の答えは「わからない」というものです。多くの場合、中心が15年のガウシアン曲線が描かれるのが一般的です。つまり、多くの人は、古典コンピュータでは不可能なことを実現できる大規模な量子コンピュータが、その頃には実現すると考えているのです。これは、平均的な見解であり、やや単純化されたものかもしれません。
私は、いくつかのコンピューティングパラダイム、たとえばいわゆるアナログ量子コンピュータのようなものについて考えています。これはゲートベースの量子コンピュータとは異なり、これらのアナログコンピュータは、10~15年待つ必要なく、今後数年で何らかの量子優位性をもたらす可能性があるのです。
今日存在するノイジーな中規模量子システム(NISQ)による量子優位性は不確実です。将来、IBMのような企業が製造するキュービットの品質に依存しているため、達成できるかどうか全く見当がつきません。IBMはこの分野に投資している世界最大の企業であり、超伝導キュービットの先端技術を有しています。彼らは今後18ヶ月以内に大きな変革をもたらす可能性があり、これは非常に短い時間枠です。コミュニティ全体として、量子コンピュータで役立つことができる分野へと導いてくれるかもしれません。
しかし、その後はスケールアップが必要で、数百のキュービットから何百万ものキュービットへと拡大することが課題です。これは物理学、工学、エネルギーの各面で非常に大きな挑戦です。さらに、予測を難しくしているのは、あまりにも多種多様な技術が存在する点です。たとえば、Microsoftが数年以内にマヨラナ・フェルミオンを用いたトポロジカルキュービットの開発に成功した場合、多くの人は懐疑的ですが、成功すれば状況は非常に速く変わるかもしれません。
ですから、緩やかなガウシアン曲線的な傾向があっても、意外なことが起こる可能性はあります。新たなアルゴリズムの設計や、誤り訂正の新しい設計が見つかるかもしれません。ここ2年間で、誤り訂正においてこれほどの創造性を見たことはありません。フランスにはAnthonyという名の人物がおり、彼の行う誤り訂正コードの発明は驚くべきものです。彼らは、たとえば品質の低いキュービットに対処できる誤り訂正コードを発明しています。キュービット間の接続性を調整することで、誤り訂正コードの効率を向上させられることを知っているのです。接続性の改善は困難ですが、不可能でも非常に困難というわけではありません。
技術には多くの微調整、回避策、様々なバリエーションが存在するため、常に多少の希望は残っています。しかし、フランス国内外で、何百万ものキュービットが互いに絡み合うレベルに達するのは困難だという科学的根拠に基づいた懐疑論を持つ人々もいるのです。それでも、エンジニアや科学者の想像力と独創性を信じることができる、というのが現実です。検討されている選択肢が非常に多いという点で、今後何が起こるかは分かりません。
真の答えは「わからない」ということです。しかし、物事がどのように変化しているかをその場で学び続けなければなりません。新たな発表を解釈し、それが重要かどうかを判断できる知識を得る必要があるのです。これがこの分野の魅力であり、私が今もこの業界にいる理由でもあります。常に変化し、動いており、知的な挑戦を与えてくれるのです。
Joannes Vermorel 戻って、インタビューの冒頭であなたが実用的な面で興味を引かれた事柄に触れた話に戻ると、次は何をするのですか? この分野におけるあなた自身のロードマップはどのようなもので、今、あなたの時間と関心を捉えているのは何ですか?
Olivier Ezratty: ああ、私にはやらなければならないことがたくさんあります。ひとつは、私はQuantum Energy Initiativeの共同創設者であり、これはまだ正式な組織ではありませんが、世界中の研究者が集うコミュニティです。私たちは11月にシンガポールで初めてのワークショップを開催し、世界中のトップクラスの科学者たちを招きました。ウェブサイト、コミュニティ、YouTubeチャンネルを立ち上げ、限られた資源の世界においてその一瞬一瞬のエネルギー管理が確実に行われるようにしなければなりません。それは避けられない現実であり、科学者やベンダーに対して、新たな技術が追加の資源消費を伴いながら市場に出されることは不可能であると説明しなければならないのです。ビットコインも同じことをしましたが、未知の用途を持つ複雑で神秘的な新技術を導入することで、業界やエコシステム全体が責任あるイノベーションを遂げる方向へと進むことに大きな意義があると考えています。
第二に、私の著書第6版の執筆を始めなければなりません。これはかなりの労力を要する作業になります。また、科学論文の執筆も始め、超伝導キュービットに関する物理学ジャーナル向けのピアレビュー用論文を最初に書きました。受理されるかはまだ分かりません。私は常にフランスおよびヨーロッパの地域エコシステムを活性化する活動に従事しており、今ではヨーロッパで多くの連絡先を持つようになりました。また、フランスにおけるスタートアップの支援も引き続き非公式に行っています。さらに、ファニー・ブートンと共に月に1〜2回のポッドキャストシリーズを運営しており、彼女も5年前に私と同様に量子分野に足を踏み入れました。現在、彼女は欧州有数のクラウド事業者であるOVH Cloudの量子リーダーとなり、同社の量子向けクラウドサービスを立ち上げたという、非常に素晴らしいストーリーを持っています。
多くのことを忘れているかもしれませんが、私は多数の顧客を抱え、研修を行い、Épitechで講義もしています。私の行うすべての活動は、互いに補完し合っています。たとえば、トレーナーとして量子コンピューティングを教えることで、自分の考えを整理する必要が生じます。本の執筆も同様に、自分の考えを構造化し、共有する作業となります。論文を書くことや、ポッドキャストで人々にインタビューすることは、多様な出会いを促進します。顧客との仕事においても、できるだけ多様な方法で業務を行うよう努めています。これが私の生き方であり、フランスおよびヨーロッパのエコシステムの成功に微力ながら貢献したいという最終目標でもあります。特にQuantum Energy Initiativeのために、研究仲間の成功に寄与したいのです。また、OVH Cloudを通じてフランスにいわゆる主権的な量子クラウドを構築することにも協力しています。つまり、私の様々な活動は、エコシステムを支援しながら、自分自身が学び、オープンに知識を共有することに直結しているのです。
Joannes Vermorel: 自ら記述するというあなたのアプローチは、知識の普及だけでなく、たとえ公開しなくとも非常に立派な行為だと思います。この作業そのものを行うことが、素晴らしい訓練になると考えています。これは私の企業クライアントへの教訓の一つにもなるでしょう。数十年にわたるプロジェクトに携わる大企業は、自分自身のためだけでなく、そのプロセスを通して専門分野への理解を深め、会社の改善に繋げる長期的な視点を持つべきです。ある人は「でも、その人たちは2年後に辞めるかもしれない」と言うかもしれませんが、例えばサプライチェーンディレクターと話すと、そのような役職は同じ会社に30年間在籍している人が多いのが現実です。つまり、これは単に自己のために書くという行為の価値を認めるための言い訳に過ぎないのです。
Olivier Ezratty: 私は幼い頃からずっとそうしてきましたし、それが生き方、いわばスーパーパワーだと思います。少し整理整頓することが必要です。情報を様々な場所で再利用し、メモするための簡単な整理術を持っています。例えば、本の更新方法は少し特別ですが、決して特殊というわけではありません。具体的には、本と同じ目次を持つ小さなWord文書を用意し、毎日受け取る最新のアーカイブ論文、ニュース、発表などの更新情報をそこに記録しています。それらを正しい場所に配置し、まるで本の双子のように扱います。もちろん、その文書は更新情報のみを収めるため規模は小さいですが、本を更新する際には、すでにトピックごとに整理された情報が全て手元に揃っているのです。
つまり、例えばアルゴリズムの部分を更新したい場合、既に全リンクが揃ったアルゴリズムの章が存在します。また、テクノスクリーンニングを行う顧客向けや、まだ公表されていないニュースに関して、多くの書面による説明も保持しており、それを本の更新に活用しています。自分自身で全てを行う場合、整理整頓と賢い再利用が求められます。さらに、常に更新している多くのチャートも作成しています。私は量子技術企業の独自データベースを持ち、数多くの表が含まれるExcelシートなども管理しています。さらには、量子物理学のノーベル賞受賞者データベース、企業データベース、キュービットの忠実度に関するデータベースなど、データベースになり得るものはすべて私のExcel spreadsheetにまとめています。
Joannes Vermorel: そして、もし分からなければChatGPTに尋ねれば、何らかのデータを提供してくれるでしょう。私自身はそれほど整理されたタイプではありませんが、自分の分野について文書として理解を深めようと努めています。締めくくりとして、非常に不透明な分野に直面している企業のCEOやCTOに対して、量子コンピューティングについてどのような提案をされますか?彼らはあなたのように量子コンピューティングに全力を注ぐことはできません。
Olivier Ezratty: 私の提案は、まず私の本をざっと眺めてみることです。全てを読む必要はなく、中身を見れば十分です。例えば、銀行、化学業界、交通業界に従事されているなら、私の本には必ずあなた向けの章があります。なぜなら、たとえ実用化されていなくても、特定されたすべてのユースケースが長いリストとして掲載されている部分があるからです。それにより、量子コンピューティングがあなたのビジネスにもたらす可能性を垣間見ることができます。私の本には、20以上の異なる業界、さらには防衛や諜報に関する章もあるので、必ずあなたに関係のある情報が見つかるはずです。さらに、ファニーと共に運営しているポッドキャストもぜひお聴きください。私たちは月に1〜2回程度配信しています。しかし、単に報道を読むだけでは不十分です。ここで言う「報道」とは、どのような形式のものであってもという意味です。私は報道そのものを批判しているわけではなく、多くのジャーナル、さらには科学ジャーナルの形式では、実際の状況を正確に把握するのは不可能だからです。
人々に直接会い、専門家の話を聞く必要があります。また、顧客としても情報源を多角化することが求められます。私の意見は他の誰かのものとは異なるかもしれませんが、それでも科学に基づく意見であり、単なる陰謀論ではありません。多様な視点を得ることが大切です。現状については、楽観的な見方、悲観的な見方、もしくはその中間の見方を持つ必要があると思います。正直なところ、私自身も現状がどこにあるのかはっきりとは分かっていません。
そして最も手っ取り早い方法は、私や他の人々が1〜2時間で解説するカンファレンスに参加することです。最近では多くのカンファレンスを開催しており、その多くはYouTubeでフランス語または英語で公開されています。しかし、私が思うに、量子コンピューティングを1時間未満で説明するよう依頼されるフォーマットが、最も効果的な教育手段だと言えます。必ずしも完璧ではなく、短すぎる場合もありますが、YouTubeで探せば、一人で、または誰かと共に登壇する形式のものが見つかるでしょう。例えば、2年前の12月にボルドーでエレナと共に行ったイベントは非常に素晴らしいものでした。また、2022年6月にはNorthでMod veneerとFanny Bottonと共にイベントを実施しました。これらは1〜2時間の範囲で、教育に最適な形式だと感じます。
最近では、Limited UniversalのためにMark DJと共に2時間のイベントを行いました。具体的には、1時間20分のプレゼンテーションと40分の質疑応答があり、かなり長いものでした。これこそ、現状を把握し、システムで何が可能かを理解するのに最適なフォーマットだと言えるでしょう。
Joannes Vermorel: 本日はお招きできて本当に光栄でした。私にとって非常に興味深い分野です。視聴者の皆さんも、ぜひ引き続きご注目ください。それでは、また次回お会いしましょう。