光量子コンピューター各グループの役割
─OptQCと東大,理研,NTTそれぞれの役割を教えてください
光量子コンピューターは,プロセッサーと量子ビットを作る部分とをある程度独立に作れます。プロセッサーは社会実装に向かう段階ですが,量子ビットはまだ基礎研究です。つまり量子ビットを東大古澤研で研究し,プロセッサーをOptQCが作ってクラウドで公開し,商用利用しようというのが我々のやりたいことです。

理研もプロセッサーを作っていますがテスト機みたいなもので,これを実際に作ってクラウドに接続するまでを基礎研究の枠内でやったのが先日の発表(2024 年11月8 日 理研発表「新方式の量子コンピュータを実現」)です。
理研はこれを使って量子コンピューターのアプリケーションの基礎,なぜニューラルネットワークは効率がいいのかといった研究をします。一方,OptQCはプロセッサーの計算精度を上げ,入力数も増やしてクロックも速くし,稼働時間も増やしていきます。NTTはムーンショットを一緒にやる仲間です。
量子ビットを生成するスクイーズド光源を作っていて,その使い方は以前から付き合いのある古澤研やOptQCが得意としています。NTTが進めるIOWNの光増幅器がこの光源で,少し手を加えることで我々の研究に流用できます。
スケーラビリティと価格で勝負
─改めて量子コンピューターにおける光量子コンピューターの優位性を教えてください
量子コンピューターの性能は扱える量子ビットの数でだいたい決まりますが,光量子コンピューターはその数を増やしてもシステム全体をコンパクトにできます。量子コンピューターを実用レベルにするには100 万量子ビットが必要ですが,例えば超伝導量子コンピューターの場合,そのためにはビル一棟分ぐらいの冷凍機を用意して,途方もなく複雑な配線をしないといけません。
IBMの量子コンピューター「IBM Q(IBM Quantum)」は100量子ビットぐらいのシステムですが,50億~ 100億円もします。例えばそれを1 万台並列化して100 万量子ビットにすると100兆円です。仮にその1%の価格で作れても1 兆円ですし,それを買うのは日本です。
光の場合は量子ビットの数が増えても,プロセッサーを構成している部品の数も,制御する箇所も変わりません。光量子ビットが空間中を移動するのを利用して,その時間領域や波長領域で多重化する,つまり通信の考え方を採り入れることができます。現在の100 量子ビットぐらいのシステムだと似たようなサイズですが,これから他の方式はどんどん大きく,価格も高くなる一方で,光方式の場合はそれがかなり軽減されるはずです。
─それはイオンやシリコンなどの方式と比べても同じなのでしょうか?
光との違いは量子ビットが止まっているか,動いているかの差です。止まっている量子ビットを多重化するには空間的に並べるしかなく,それらにアクセスして制御するとなると,量子ビット数に応じてコンポーネントも増えて大きくなるのは当たり前です。ところが光は,空間でも時間でも波長でも多重化ができて明らかに効率的です。
すべての方式でスケーラビリティは壁になっていますが,我々はそれを最初に突破できると理論で示していて,数千~ 1万量子ビットぐらいのプロセッサーを拡張性のある形で作りたいと考えています。そこに追加で投資すれば,2030 年頃には100万量子ビットを扱えるという装置を3 年後ぐらいに示したいですね。
通信技術が広帯域になればなるほど,より短い波束を使え,より多くの量子ビットを詰め込めます。つまりBeyond 5Gが進むほど,我々のスケーリングも良くなります。量子コンピューター業界よりもはるかに大きい光通信業界の技術が使えるというのは,実質的に大規模な投資を受けている,という解釈もできます。