ここから本文です

「量子版ムーアの法則」は実現するか 今の量子コンピュータは「さながら1950年代」

7/22(月) 13:56配信

ITmedia NEWS

 「量子コンピュータの早期の実用化には、『量子版ムーアの法則』を実現していく必要がある」──科学技術振興機構(JST)研究開発戦略センターの嶋田義皓フェローは、テラスカイが7月19日に行ったイベントに登壇し、量子コンピュータの現状や、実用化が見込まれる時期を解説した。

量子コンピュータの現在から、実用に至るまでの予想グラフ

量子コンピュータの開発状況は「さながら50年代」

 嶋田フェローは、量子コンピュータの現状を「1950年代のコンピュータのようだ」と表現する。

 50年代にはアセンブリ言語などを除いてはプログラミング言語がほぼなく、計算したいアルゴリズムをアセンブリなどで直接表現するような時代だった。ハードウェアもごく初期のもので、「巨大かつ複雑で信頼性も低かった」と嶋田フェローは話す。

 現在、米IBMやGoogle、Intel、Microsoftなどが量子コンピュータのハードウェアを開発しているが、量子ビット数が少なく、エラーもあることから計算できる問題は限定的だ。計算したい問題をハードウェアへ送るためのAPIやSDKも出てきているが、「(現状は)量子回路をプログラミングで直接書いており、コンパイラも未成熟だ」(同)と、ハード・ソフトともにまだまだ黎明(れいめい)期であることを指摘する。

量子コンピュータの理想と現実

 嶋田フェローは、「現在の量子コンピュータの性能と、量子アルゴリズムが必要とする量子ビット数にも乖離(かいり)がある」という。

 米IBMが19年1月に発表した量子ゲート方式量子コンピュータ「IBM Q System One」は20量子ビット。一方、量子コンピュータが高速に計算できるアルゴリズムの一つとして知られる、素因数分解を解く「ショアのアルゴリズム」を実用するには「1万から10万量子ビット必要だ」と嶋田フェローは話す。

 「ビット数が4年で14倍に増えていけば2030年ごろまでに10万量子ビット。4年で2倍に増えていくなら、1万量子ビットを超えるのは2050年ごろになるのではないか」(同)と予測している。

1/2ページ

最終更新:7/22(月) 13:59
ITmedia NEWS

こんな記事も読まれています

あなたにおすすめの記事