Dr. Jason's blog

IT, Engineering, Energy, Environment and Management

並列・分散処理時代の常識 -グーグル・データセンターの秘密-

2005-03-07 | IT
 2005/3/4のCNET-Japanに 「いま明かされる、グーグル・データセンターの秘密」という,ちょっと興味をひくタイトルの記事がでていた.そのポイントは「...その洞察とは「PCはクラッシュする」というものだ。 」,「...ハードウェアのコストを検討していた同社のエンジニアが、強力なプロセッサを8基以上搭載するようなハイエンドサーバを数台購入するのに比べ、もっと簡単なつくりの「コモディティ」サーバを何十台も購入するほうが、はるかに安上がりなことに気付いたからだ。」ということだが,これら,私にとっては,特に目新しい話しではない.しかし,独自のファイルシステム,データの冗長化,障害対策ソフトウェアなどの話しは「さすがGoogle」と思わせるものである.
 PCの並列処理による大規模システムは,PCのCPUが32bit仕様のものになってからは,一部では「当たり前のこと」として認識されていたことだ.私のように,その昔,本来なら大型計算機でやらせるようなシミュレーションをPCや小型のWSでやってきた人間からみると,「将来,必ずPCの並列分散処理で,大型機を超える計算ができるようになるはずだ」というのは「歴史的な必然」であったといえよう.
 特に,この数年は,ネットワークの高速化,オープンソースの並列処理支援のミドルウェア,PC用の64bitCPUなどのおかげで,一昔まえなら,20-40億円のスーパーコンピュータがなければできなかった処理が,PCを数台ネットワークでつないで並列処理させるだけで簡単にできるようになった.事実, スーパーコンピュータの計算速度ランキングのTop20のうちの7つまでは,市販のPCサーバーを沢山並列に接続したシステムによるものだ.
 しかし,日本のSI業界,特に業務システムの構築の世界では,これらの「技術的な常識」はあまり知られていないし,本来はHWの性能や信頼性の議論にアプリケーションの分野は関係ないはずなのに,技術計算での最新技術やノウハウは業務システムとは関係ない話しと考えられている.(たぶん,日本のSEやそのマネージャの半分以上が所謂「文系」の出で,ハードウェア,基本ソフトウェア,技術計算等の世界に疎いことが少なからず関係していると思う.).また,いまだに,ブランドで,物理的な安心や性能が担保されると考えているビジネスマンも多い.
 その意味で,この記事は,普段「日経コンピュータ」を主な情報源にしているような,情報システム担当の部長,事業部長クラスの人に,是非一読していただきたい内容であると思う.
コメント
  • X
  • Facebookでシェアする
  • はてなブックマークに追加する
  • LINEでシェアする