ここから本文です

コンピュータの進化はもう限界? ITの歴史で読み解くその真相

ITmedia エンタープライズ 10/7(金) 14:08配信

 2016年に入ってからも、コンピュータの進化を説明する「ムーアの法則」が限界に近づいていると話題になっています。もうコンピュータは、これまでのような進化を見られないのでしょうか? 実は従来とは異なる形の新しいコンピュータが実現されようとしています。この連載ではその姿を解き明かします。まずはおさらいの意味で、これまでのITの歴史とコンピュータの進化を振り返りたいと思います。

【その他の画像】

●コンピュータ通信からクラウドへ

 1950年代に最初の商用コンピュータの販売から80年代にかけて、コンピュータは徐々に相互接続ができるようになっていきました。ただし、今のように多くのデータをやりとりするわけではなく、バッチ処理などの結果をコンピュータ同士で渡し合うといった程度でした。

 90年代に入るとCPUの性能向上や低価格化によって、PCの処理性能が上がってきます。企業でもLANが普及しと、クライアント・サーバシステムに代表されるような分散型システムの時代になりました。それまで中央のコンピュータ作業させるための端末として使用されていたPCは、中央のコンピュータにおける処理の一部を担うことが可能になり、PC用のアプリケーションがサービスを提供し、必要なデータのやりとりだけが中央のコンピュータに任かされるようになったり、支店業務のほとんどを支店内のサーバ群で処理するようになったりしました。

 分散型になることで個々のコンピュータの規模は小さくなるものの、管理するコンピュータの台数は増えることになります。そこで、管理者がより操作しやすく、アプリケーションの開発もしやすいUNIXやWindows NTといったオープンな環境が増えていくことになりました。またLinuxが登場したのもこの頃です。私が大学で情報工学を学び、IT業界に就職したのはちょうどこんな時代でした。

 90年代後半にインターネットが一般にも普及し始めると、多くのアプリケーションがWeb化していきます。携帯電話の普及と端末の能力向上によって、ユーザーが常に持ち歩く端末もWebの世界へ参加するようになります。それに伴ってAmazonや楽天といったeコマースが普及し始めますが、それでも当初はWebサーバに当てられるようなコンピュータの能力はあまり高くはなかったため、多くのトラフィックをさばくために静的ページを司るサーバと動的なページ生成を行うサーバを分けるといったシステム構成も多くみられました。その頃はx86アーキテクチャがまだ32ビットだったため、扱えるメモリ領域はわずか4Gバイトという制約も起因していたのでしょう。

 2000年代に入り、x86が64ビット化して飛躍的に扱えるメモリ量が増えました。プロセスルールの微細化も進んで、1つのプロセッサに複数のコアを搭載したり、クロック数を向上させたりするなどのアプローチにより、CPU自体の処理能力が大きく向上していきます。

 すると、今度は余ったリソースをより効率的に使うための仮想化技術が脚光をあび始めました。現在ではほとんどのコンピュータシステムに仮想化技術が使われています。同時にネットワーク機器の価格が下がり、一般家庭ではブロードバンドが普及します。携帯電話の能力もさらに向上し、それらを利用したオンラインサービスが普及してきます。この時代はクラウドの始まりでした。

●ITの歴史はハードウェア進化の歴史

 ここまで見てきたとおり、ITの歴史はハードウェアの進化の歴史といえます。ハードウェアが変わり、実現できることが増え、それを実現するようソフトウェアが向上し、潜在的にあったニーズが満たされていく――と、私はとらえています。

 例えば、アドレス空間が32ビットしかなければ、物理的に扱えるメモリ容量は4Gバイトまでに制限されてしまいます。もっと多くの情報をメモリ上に載せて処理したいと思っても、それ以上のメモリ容量を使うようなソフトウェアを作りようがありません。これが64ビット化されるとメモリ容量は飛躍的に増大します。外付けHDDなどの記憶装置がいくら高速化してもメインメモリの速度には遠く及びません。全てのデータ処理はメモリ上で行いたいものですが、ハードウェアがついてこなければできません。

 ネットワークやストレージに関しても同じことが言えるでしょう。10Mbpsもかつては驚くほど高速な通信でしたが、いまやギガビットの世界ですので、できることが違ってきます。家庭にも100Mbpsや1Gbpsの高速回線が引かれれば、人々はストリーミングでHD動画を見ることをためらわなくなります。ダイヤルアップ接続やINS接続をしていた頃のように、データ転送容量や接続時間を気にすることもなくなります。当時は従量課金でしたし、消費者はお金も気になるところでした。

 ストレージはどうでしょうか。外部接続のディスクアレイがオープンシステムに接続され始めた頃はSCSIという規格が主流でした。そこに、FibreChannelが登場して、速度は16倍に向上しました。今ではSASや10GbE、Infinibandで接続する機器も出てきています。またディスクそのものの容量も速度も増え、これからは容量と速度の面でSSDが主流になっていくでしょう。

 アクセス速度ディスクに格納できるデータ量の増大により、データベースなどで扱われるデータの量が増え、処理できる情報量が増えたことで、消費者やビジネスサイドが利用できる情報も増えて、それを利用したサービスやビジネスの意思決定システムなどが進化を遂げました。またサーバ機器の処理能力の向上と回線速度の向上は、「Software Defined Storage」という新しいストレージ形態の出現にもつながります。

 コンピュータシステムの歴史では、よく「分散と集中を繰り返す」といわれます。分散と集中は、地理的な配置について論じられるケースが多いですが、実はシステムのアプリケーションでも起こっていることです。この集中と分散にコンピュータのハードウェアの進化が大きく関わっていることは既にご理解いただけたかと思います。

 最後に潜在的なニーズの話をしましょう。Hewlett Packard Enterpriseの前身であるHewlett Packardは、かつて非常に先進的なアイデアを世に出していました。

 例えば、「e-services」は、当時流行したユビキタスやハンドヘルドコンピュータをワイヤレス接続させて、サービスを提供する構想です。HPは、これによって便利になっていく街の様子を「COOLTOWN」と呼び、4つのシナリオからなるビデオを作成していました。残念ながら当時のテクノロジーでは実現できませんでしたが、現在ではハンドヘルドに変わって通信機能もオンチップで構成したスマートフォンがあり、CPUやネットワークの進化に伴って実現されたクラウドがあります。今後、様々なデバイスのセンサ情報がネットワークを経由して利用されるIoTの時代がやってくることで、おそらく実現されるでしょう。

 また「Utility Data Center」というものもありました。これはベアメタルのリソースを利用した今でいうプライベートクラウドを構築する物でしたが、例えば、ハイパーコンバージドシステムやシステム統合運用管理基盤、それにOpenStackなどを利用することで、より容易に実現できるようになりました。

 IoTの時代は、そこから膨大な情報が得られます。この情報を有効に活用すると、どのようなことができるようになるのでしょうか。次回は、そのような新しいニーズについて触れていきたいと思います。

●三宅祐典(みやけ ゆうすけ)
日本ヒューレット・パッカード株式会社の「The Machineエバンジェリスト」。Hewlett Packard Enterprise(HPE)の中央研究所「Hewlett Packard Labs」が認定するエバンジェリストであるとともに、普段はミッションクリティカルなサーバ製品を担当するプリセールスSEとして導入提案や技術支援を行う。ベンチマークセンターのエンジニアとしてHP-UXとOracleデータベースの拡販支援やサイジングを担当後、プリセールスエンジニアとして主に流通業のお客様やパートナー様の提案支援を経験し、現在に至る。趣味はスキー、ダイビングといった道具でカバーできるスポーツ。

最終更新:10/7(金) 14:08

ITmedia エンタープライズ

なぜ今? 首相主導の働き方改革