CPU直結バスのHyperTransportに接続する拡張カード規格HTXが提唱されているらしい。
って、いままでSouthBridge経由だったものをいきなり直結ですか。8bitの時代ならCPUバス=メモリバス=拡張バスで当たり前だったけれど、今時の、CPU直結な6.4Gbps~12.8Gbpsのバス経由で接続というのは正直びっくりした。
HTX規格策定に一枚噛んでいるPATH SCALE社の発表したInfiniPathカードの仕様を見てまたびっくり。
直結の強みを生かした、latency1.5μs・理論値1.8GB/sの超高速マルチプロセッサ構成用通信カードだそうで。キャッシュアクセスじゃないんだから。
どうやら、Infinipathを使うと1000ノード接続の構成まで対応できますよ、とか怖いことを言っている。
ASICをマザボにつけるよりは、HTX付マザボでPCを組んでおいて、必要な時にHTXスロットにこれを挿すようにした方が、確かにノード増設・交換には便利だ。
プロセッサ間のレイテンシが低いから無駄な待ち合わせが減るし、何より分割計算結果の集約が高速になるので(PCI接続のGbEと違ってボトルネックが無い)、本気で世界トップレベルの処理能力を目指すなら要検討の選択肢だろう。
ぶっちゃけNWシミュレーションをするぐらいしか計算量の多いアプリケーションを考え付かないあたりが、既にがっくりなんだけどね。
箱に入れる魂を考えないとねえ。
って、いままでSouthBridge経由だったものをいきなり直結ですか。8bitの時代ならCPUバス=メモリバス=拡張バスで当たり前だったけれど、今時の、CPU直結な6.4Gbps~12.8Gbpsのバス経由で接続というのは正直びっくりした。
HTX規格策定に一枚噛んでいるPATH SCALE社の発表したInfiniPathカードの仕様を見てまたびっくり。
直結の強みを生かした、latency1.5μs・理論値1.8GB/sの超高速マルチプロセッサ構成用通信カードだそうで。キャッシュアクセスじゃないんだから。
どうやら、Infinipathを使うと1000ノード接続の構成まで対応できますよ、とか怖いことを言っている。
ASICをマザボにつけるよりは、HTX付マザボでPCを組んでおいて、必要な時にHTXスロットにこれを挿すようにした方が、確かにノード増設・交換には便利だ。
プロセッサ間のレイテンシが低いから無駄な待ち合わせが減るし、何より分割計算結果の集約が高速になるので(PCI接続のGbEと違ってボトルネックが無い)、本気で世界トップレベルの処理能力を目指すなら要検討の選択肢だろう。
ぶっちゃけNWシミュレーションをするぐらいしか計算量の多いアプリケーションを考え付かないあたりが、既にがっくりなんだけどね。
箱に入れる魂を考えないとねえ。