量子コンピュータ技術開発の最前線

開催日 2019年11月28日
スピーカー 川畑 史郎(産業技術総合研究所ナノエレクトロニクス研究部門研究グループ長 / 文部科学省 光・量子飛躍フラッグシッププログラムQ-LEAP量子情報処理 サブプログラムディレクタ)
スピーカー 有馬 伸明(経済産業省商務情報政策局デバイス・情報家電戦略室長)
モデレータ 安藤 晴彦(RIETI理事)
開催案内/講演概要

2019年10月、Googleが自社のプロセッサで量子優位性を実証したとする論文を発表して話題となっているが、近年、量子コンピュータに対する関心が急激に高まっている。量子コンピュータとは量子力学原理を利用して並列計算を実現するコンピュータのことだが、これを用いることによって特定の数学的問題を高速に解くことができ、社会に大きなインパクトを与えると期待されている。本セミナーでは2人の有識者を迎え、量子コンピュータの研究開発動向や実用化に向けた課題、そして将来の展望について紹介。量子コンピュータの研究開発には世界でも数多くの企業が参入し、進展を遂げているものの、実用化に向けてはさらなる大規模化と高性能化が必須である。ハードウェアやソフトウェアの開発のみならず、周辺機器の環境整備や分野融合、産業を超えた企業参画、そして国際連携の促進が欠かせない。

議事録

主要国の量子技術開発動向

有馬伸明写真有馬氏:
これまでムーアの法則に従って半導体の微細化が進み、低消費電力化や高性能化を可能にしてきました。データ処理のニーズがより一層高まっている中、従来の微細化に基づく処理能力向上の方法は限界を迎えつつあります。こういった状況下で新しい原理を用いた次世代型コンピュータへの期待が高まり、世界中で量子コンピュータの開発が加速しています。

量子情報科学における世界の研究開発の動向を見てみると、米国では2018年に国家量子イニシアチブ法が成立され、5年間で総額12.8億ドルが研究開発に投じられています。また、欧州では2016年に量子テクノロジー・フラッグシッププロジェクトの下、10年間で10億ユーロを投資すると公表され、現在取り組みが進められています。

ここでもう1つ注目すべきプレイヤーは中国です。中国科学院は、2015年より中国の巨大IT企業であるアリババとともに、760億元をかけて量子情報科学国家実験室を建設しており、2020年に完成予定です。米国や欧州と比べても中国は桁違いの予算規模を誇り、量子情報分野への投資が活発化しています。

一方、国内では経済産業省の指揮の下、2018年から「AIチップ・次世代コンピューティングの技術開発事業」においてアニーリング型量子コンピュータの研究開発を推進しているほか、ゲート型量子コンピュータの研究開発については、2018年から文部科学省主導によるQ-LEAP事業が立ち上がりましたが、諸外国と比べると日本の投資額が低いのは否めません。

量子ゲート方式と量子アニーリング方式

量子コンピュータは、ゲート型とアニーリング型の2つの方式に大別することができます。ゲート型は通常のコンピュータと同様にさまざまな問題を解くことができる汎用の量子コンピュータです。これに対し、アニーリング型は1998年に西森秀稔氏により提唱された方式で、組み合わせ最適化問題に特化した量子コンピュータです。

アニーリング型量子コンピュータはゲート型よりもノイズに強く、現在、2000量子ビットが実現されています。カナダのベンチャー企業D-Wave Systems社によってすでに商用化されているものの、その活用範囲は限定的であり、社会実装に向けて引き続き研究開発が必要とされています。

これに対して、ゲート型量子コンピュータの実用化には100万から1億量子ビット以上が必要であると言われており、現在、先端を走っているGoogleやIBMでも53量子ビット止まりです。ゲート型はノイズに弱く、量子誤り訂正機構の実装が実用化に向けて必要不可欠ですが、量子誤り訂正機構の実装には膨大なリソースが必要となり、短期間での実現は難しいとされています。このため、量子誤り訂正機構を付帯させない「ノイズが伴った中規模量子Noisy Intermediate-Scale Quantum (NISQ) デバイス」が現在注目を集めています。

量子コンピュータ実用化に向けた取り組み

ゲート型量子コンピュータで最近話題となったのが、Googleの量子コンピュータを使った量子優越性の実証実験です。ある特定の計算タスクにおいて、量子コンピュータが古典コンピュータよりも速く解くことができることを示した論文が発表されました。

一方で、アニーリング型量子コンピュータはノイズに強い性質からゲート型に比べて大きな量子ビット数が実現でき、商用化も進んでいます。組み合わせ最適化問題を解くことに特化した量子コンピュータですが、組み合せ最適化問題は社会の⾄る所に存在しており、広範な産業分野で活⽤される可能性を秘めています。ユースケースとして、デジタル広告を人々のニーズに合わせてコンテンツを配信するように設定したり、金融ポートフォリオ、物流や交通の最適化、人工知能学習の高速化などに応用できると言われています。

経済産業省ではアニーリング型量子コンピュータについて、ハードウェアの研究開発のみならず、ソフトウェアの開発や、様々なアプリケーションへの実装するための技術開発を実施しています。また、内閣府を中心に量子技術イノベーション戦略の検討が進められており、融合領域の設定、量子拠点の形成、国際協力の推進の3つの観点から政府全体で取り組みを進めています。

量子コンピュータとは

川畑史郎写真川畑氏:
これまで半導体のプロセッサやメモリの集積度は、半導体チップ1つあたりのトランジスタの数は18カ月で2倍になるというムーアの法則に従い、長い年月をかけて急激な勢いで成長してきました。その技術がコンピュータやスマートフォンをはじめとする様々な機器に搭載され、われわれの生活に多大なる恩恵を与えてきました。

しかしながら、近年、この微細化によるトランジスタの成長は鈍化し、また消費電力は増大してきており、これまでの原理に則ったコンピュータ性能の成長は頭打ちになっています。そこで、従来のノイマン型コンピュータではなく、新しい原理を利用した量子コンピュータに注目が集められるようになってきました。

量子コンピュータとは、ミクロな世界を記述する力学である量子力学に基づいて動作するコンピュータです。ミクロな世界では不確定性原理によってニュートン力学は破綻しますが、シュレディンガー方程式を解くことでミクロな世界の現象を記述することが可能になります。代表的な量子力学現象としては、トンネル効果、重ね合わせ、量子絡み合いが挙げられますが、なかでも重ね合わせの原理が量子コンピュータに積極的に利用されています。

量子コンピュータはゲート方式とアニーリング方式の2つの方式に分類できます。量子力学的な現象を情報処理に使用するという点ではどちらも共通しているものの、実際に活用できるタスクは異なります。ゲート方式はありとあらゆる問題に適用できる汎用的なコンピュータであり、いくつかの特定の問題については従来のノイマン型コンピュータよりも高速に解くことが可能であることが数学的に証明されています。このため、Google、Intel、アリババなどの世界的なIT企業をはじめ、国内では、理化学研究所や東京大学が中心となって盛んに研究開発を進めています。一方、アニーリング方式は、組み合わせ最適化問題に特化した量子コンピュータですが、このような問題は社会の至る所に存在することが知られており、広範な産業分野で活用される可能性を秘めています。アニーリング方式は、D-WaveやGoogleの他、産業技術総合研究所(産総研)やNECでも積極的に開発を進めているところです。

超伝導量子プロセッサの進化

量子コンピュータ業界において、2017年から2019年のわずか3年は激動の年でした。量子コンピュータの研究は今から約30年前に始まったと言われていますが、テクノロジーという側面から見ると、超伝導を使った汎用量子コンピュータの技術がこの3年で急速に発展しました。

そのきっかけとなったのが、今から20年ほど前にNECの中村泰信氏と蔡兆申氏が開発した超伝導回路を用いた量子ビットデバイスです。その後、多くの研究機関、大学、企業が微細加工技術を利用して集積度の向上を目指しましたが、18年経っても集積度は9量子ビットにとどまっていました。

ところが、その状況が2017年4月から急激に変わりました。IBM、Intel, Googleが激しい研究開発競争を繰り広げ、2018年3月にGoogleが72量子ビットのプロセッサの開発を発表するに至りました。つまり、わずか1年で集積度は8倍に伸びたのです。超伝導量子コンピュータの集積度の推移を見ると、1チップあたりの量子ビット数は指数関数的に増大しています。ムーアの法則が超伝導を使った量子コンピュータでも見事に成り立っていることが見てとれます。

商用量子コンピュータの目標集積度は100万量子ビットと言われており、これはおおむね2035年ぐらいに実現すると予想されています。超伝導量子コンピュータの研究開発についてはGoogle、IBM、Intelに加えて、中国の技術力もここ数年で急速に伸びてきています。

量子優位性の達成に向けて

現在のトレンドとして、量子優位性が挙げられます。量子優位性とは汎用量子コンピュータが古典コンピュータを上回る計算性能能力を有することです。量子優位性を示すには50量子ビットが1つのマイルストーンとなっています。先日、Googleは自社で開発した量子プロセッサと世界最速のスーパーコンピュータである「Summit」に、ある特定の問題を解く時間を競わせたところ、「Summit」では1万年かかるところをGoogleの量子プロセッサは200秒で解き、量子優位性を達成したという論文を発表しました。

この発表内容に対して懐疑的な見解を示す研究者もいますが、この量子優位性の研究はコンピュータサイエンスのみならず、物理学にとって極めて重要な歴史的なマイルストーンが刻まれた成果といえます。とはいえ、今回のGoogleの報告はある特定の問題について量子優位性を示したに過ぎず、実用的な汎用量子コンピュータの登場までには技術的に乗り越えなければならないハードルが山積みであり、20年から30年程度の長い時間が必要だと考えています。

量子コンピュータが産業にもたらす影響

ここで従来の古典コンピュータと量子コンピュータの違いを整理しましょう。古典コンピュータは情報の最小単位であるビットの「0」と「1」の組み合わせで表現され、2進数で数を表現して演算を行います。これに対して、量子コンピュータは「0」と「1」を重ね合わせた量子ビットを用いて並列計算によって演算を行います。この仕組みによって量子計算は指数関数的に高速化され、従来のスーパーコンピュータをも凌駕する計算性能を可能にするのです。

指数関数的に高速化されるのは、数多ある数学的問題の中でもたった60個程度に限られます。しかし、その中にわれわれの生活あるいはビジネスにとって極めて重要な問題が2つ潜んでいます。それが機械学習と量子化学計算です。量子コンピュータを使ってこれらを高速化することによって、創薬や農業、人工知能や新材料開発への応用が期待されています。

超伝導量子アニーリングマシン

量子コンピュータのハードウェア方式においてトップを走っているのが超伝導技術です。超伝導とは物質を冷却した際に電気抵抗がゼロになる現象で、超伝導を示す代表的な物質がアルミニウムです。そういった超伝導材料を利用して小さな電気回路を作成することで、超伝導量子ビットが実現できます。ただし、超伝導量子ビットを動作させるには10mK(摂氏マイナス273度)に保つ高価で大型の冷凍機が必要となります。

D-Wave Systemsによって商用化された量子アニーリングハードウェアは、磁石のイジング模型を超伝導磁束量子ビットの集積回路として実装しています。超伝導磁束量子ビットは超伝導ループから構成されています。この量子ビットにおいては、時計回りに流れる電流と反時計回りに流れる電流の重ね合わせが量子ビットに対応します。超伝導量子アニーリングマシンは、量子ビットの量子力学的重ね合わせを制御することで、組み合わせ最適化問題の最適解を探索します。

量子アニーリングはその活用法が極めて重要となります。国内外のさまざまな企業がビジネス利用に向けた研究開発を展開しており、国内ではデンソー、リクルートコミュニケーションズ、京セラ等がアプリ開発を進めています。産総研は、最近50量子ビット級の大規模超伝導量子アニーリングマシンの設計と製造に成功しました。現在、量子アニーリング動作を評価しております。

展望と課題

大規模な量子コンピュータはさまざまな産業界で役立つことが期待されています。量子化学計算で今、ターゲットとなっているのが、アンモニアの人工合成技術です。現在のアンモニア合成はハーバー・ボッシュ法を使用いています。この古くから使われている方法は、高温、高圧な化学反応プロセスであり、二酸化炭素を大量に排出します。また、ハーバー・ボッシュ法によるアンモニア製造によって、世界のエネルギーの数%が消費されており、このことは極めて深刻な社会問題となっています。

それを代替する方法として、室温で窒素をアンモニアに変換する機能を有するニトロゲナーゼと呼ばれる窒素固定細菌に注目が集められています。その細菌の窒素固定反応機構は明らかになっておらず、量子化学計算によって反応メカニズムが解明されれば、室温下での人工アンモニア合成が可能になると言われています。ニトロゲナーゼの量子化学計算を厳密かつ高速に行うためには100万量子ビットが必要ですが、これが実現すれば深刻なエネルギー問題が解決すると期待されています。また、ゲート型量子コンピュータによる量子化学計算の高速化により、創薬、新素材開発などの分野に対して破壊的なインパクトがあると期待されています。

超伝導量子コンピュータの動作のためには巨大で高価な冷凍機が欠かせません。量子チップは10mK近い温度の冷凍機内に設置されますが、その他のエレクトロニクス装置は冷凍機外に置かれたラックに所狭しと並んでいます。目標の100万量子ビットを実現させるとなると、高額な設備投資が必要になるだけでなく、消費電力の問題やスペースの問題を解決しなければなりません。

併せて、超伝導量子ビットのサイズも深刻な問題に直面しています。半導体トランジスタの場合は、微細化によって高性能化を実現してきましたが、量子コンピュータの場合はこの微細化によるスケーリングを適応できません。なぜならば、超伝導量子ビットのサイズは0.1mm程度と非常に大きく、それ以上小さくすると量子ビットとして動作しなくなったり、性能が劣化するからです。そのため、サイズの決まった量子ビットを大規模に集積化する技術を開発する必要があります。また、熱問題も重要な課題です。量子コンピュータの冷凍機内のチップは冷凍機外の各種装置群と金属のケーブルを介してつながっているため、大規模化した際の熱流入も極めて深刻です。

世界中でこの問題回避に向けた研究開発が進められていますが、現在冷凍機の外に設置されているエレクトロニクス装置群をオンチップ化して冷凍機内に設置する低温COMS技術が今後必要になると考えられます。量子コンピュータ開発にとって量子力学はもちろん主役ですが、電子工学、マイクロ波工学、冷凍工学、製造技術といった、これまで日本が得意としてきた産業技術との協働が鍵となります。業界を超えた協働により、量子コンピュータの開発競争で日本が優位に立てる可能性があると考えています。

質疑応答

Q:

量子アニーリングや最初の超伝導量子ビットは日本が発祥にもかかわらず、わが国が量子コンピュータ開発において劣後している原因は何でしょうか。また、開発にかける予算規模が大きく違う中、今後、日本はどのように国際競争で戦っていけばよいのでしょうか。

川畑氏:

まず劣後の理由は2つあります。まず、当初の期待に反して量子プロセッサの集積度が高まらなかったこと、そして、当時は量子コンピュータを使って速く解けたアルゴリズムが暗号解読に応用できる因数分解のみだったこと、この2点が挙げられます。それにより第1次量子コンピュータブームが去り、日本においては政府からの投資が大幅に縮小し、量子コンピュータ研究者や企業が次々に撤退していきました。

同様の状況の中、米国では第2次量子コンピュータブームの到来を見越して、企業内で基礎研究を地道に継続していました。その代表的な例がIBMです。この先、同じ過ちを犯さないためにも、第3次量子コンピュータブームに向けた長期的な取り組みや国を挙げた支援が必要不可欠だと考えます。

次に、国際的競争に勝つための戦略ですが、私の見解としては、総合的に米国や中国に勝つのは極めて難しいと思っています。ですが、要素技術において勝ち筋は十分あると考えます。冷凍機や周辺エレクロニクス装置の開発は、競争力のある産業や企業と協働することによって勝負できる見込みがあると思います。

また、アプリ開発も重要で、量子化学計算の応用が有望視されています。量子コンピュータが導入された際に迅速にそれを活用できるように、JSRや三菱ケミカル、京セラは汎用量子コンピュータを使ったアプリ開発をIBMのハードウェアにアクセスして進めています。そういった取り組みが今後重要となり、キラーアプリを見出すという点では勝ち目があるのではないでしょうか。

Q:

米国、中国、日本、欧州間で、どのような要素技術が争点になっているのでしょうか。集積度を上げるためには要素技術が焦点になっていくのでしょうか。三次元実装技術ではリソグラフィ技術がポイントになるのでしょうか。併せて、低温CMOS回路について詳細をご説明いただきたいと思います。また、キラーアプリの開発において、どのような取り組みや国の戦略が競争を勝ち抜くために必要か、考えをお聞かせください。

川畑氏:

まず商用化に向けた量子コンピュータの開発競争で大事なのは、プロセッサの集積度を上げていくことです。最初のマイルストーンは50量子ビットでしたが、次のターゲットとなるのはNISQです。われわれは近い将来NISQデバイスを手にするわけで、その規模のプロセッサをどこの会社やどこの国が作るのかというのが争点の1つです。

その上で動くアプリケーションの開発がもう1つの争点です。NISQ用量子・古典ハイブリッドアルゴリズムと呼びますが、アルゴリズムの開発が世界的な技術競争のポイントになります。また、量子コンピュータは高額、高消費電力、高発熱量の3つの問題を抱えています。集積回路技術を使ってチップ化し、冷凍機の中に設置することでシステム全体のサイズを縮小化し、消費電力を低く抑えることが可能となります。ただ、クライオCMOS技術は一筋縄ではいきません。通常の集積回路は常温で起動することを前提に設計されているため、今後はトランジスタレベルから低温でも動くことを前提とした設計が必要となります。

量子コンピュータを利用した機械学習には100万量子ビットほどのプロセッサが必要と言われています。そういう意味でハードウェアの開発は必要ですが、量子で動かすアプリについては既存の機械学習の重い部分を量子コンピュータが代替して計算を行うものなので、実際に使用するデータセットは古典的なデータを使用しています。

Q:

量子機械学習について、100万量子ビットができた場合に可能になるAIの応用例があれば教えてください。

川畑氏:

実ビジネスで利用される膨大な数の画像などのビッグデータを用いて量子機械学習させるために100万量子ビット程度が最低でも必要になります。量子重ね合わせによる並列処理によって高速化できるという効果があります。機械学習には学習と推論の2つのプロセスがありますが、特に大変なのが学習プロセスです。膨大な学習データを何度も積和演算で学習させるので時間も消費電力もかかりますが、量子コンピュータによる並列処理によってその効率性を高めることができます。

この議事録はRIETI編集部の責任でまとめたものです。