Jump to content 日本-日本語

製品  >  BladeSystem  >  c-Class  >  インターコネクト  >  InfiniBand

HP c-Class BladeSystems用InfiniBandオプション

HPE BladeSystem

HPE ProLiant

キャンペーン

製品カタログ

技術情報

導入事例

サポート&サービス

旧製品情報

サイトマップ

 
 
コンテンツに進む
HP c-Class BladeSystems用InfiniBandオプション
概要
モデル
仕様
ドライバー
システム構成
カタログ

概要説明

  HPは、スケールアウトソリューション構築のためにサーバーブレード用のメザニン ホスト チャネル アダプター(HCA)、c-Classエンクロージャー用のスイッチブレード、およびラックスイッチとケーブルを含む40Gb/秒4x Quad Data Rate(QDR)および20Gb/秒4X Double Data Rate(DDR)InfiniBand製品をサポートしています。このQuickSpecsでは、サーバーブレード用のメザニンHCAおよびc-Classエンクロージャー用のInfiniBandスイッチブレードを主に取り上げます。InfiniBandラックスイッチ、サーバーの拡張スロットに挿入して使うHP ProLiantおよびIntegrityサーバー用のPCI Express HCA、InfiniBandケーブルについて詳しくは、HP ProLiantおよびIntegrityサーバー用HP InfiniBandのQuickSpecs(http://h18000.www1.hp.com/products/quickspecs/13078_div/13078_div.html[英語])を参照してください。

HPでは、HP BladeSystem c-Class用にMellanoxテクノロジーに基づく次のInfiniBand製品を提供しています。

  • c-Class CX2 4X QDR InfiniBand 2ポート メザニンHCA
  • InfiniBand 4X DDRデュアルポートメザニンHCA
  • InfiniBand 4X QDRスイッチモジュール
  • InfiniBandスイッチモジュールG2

c-Class CX2 4X QDR InfiniBand 2ポート メザニンHCA は、Mellanox社のConnectX-2 IBテクノロジーに基づくHCAです。このQDR IB HCAは、ハイパフォーマンスコンピューティング(HPC)およびエンタープライズデータセンターで使われるパフォーマンス重視のサーバーおよびストレージクラスタリングアプリケーションに低レイテンシおよび最高40Gb/秒の帯域幅環境を提供します。マルチプロセッサー、マルチコアサーバー上で実行される並列アプリケーションまたは分散アプリケーションにとって、ConnectX IBが提供する信頼性の高いトランスポートコネクションおよび先進のマルチキャストサポートは非常に有用です。エンドツーエンドのQOS(クオリティオブサービス)によりパーティショニングとサービスレベルの保証が可能になり、ハードウェアベースの輻輳制御により、ネットワークの負荷集中による実効スループットの低下が防止されます。HP 4X QDR IB CX-2デュアルポートメザニンHCAカードは、HP BladeSystem c-Class G6サーバーブレードのPCI Express 2.0 x8コネクター用に設計されています。サーバーブレードのモデルによっては、適用される構成規則により、エンクロージャーのミッドプレーンに接続できるポートが1つだけになる場合があります。詳細については、サーバーブレードの仕様を参照してください。

InfiniBand 4X DDRデュアルポートメザニンHCAは、Mellanox社のConnectX IBテクノロジーに基づくHCAです。このDDR IB HCAは、ハイパフォーマンスコンピューティング(HPC)およびエンタープライズデータセンターで使われるパフォーマンス重視のサーバーおよびストレージクラスタリングアプリケーションに低レイテンシおよび最高20Gb/秒の帯域幅環境を提供します。HP 4X DDRデュアルポートメザニンHCAカードは、HP c-Class BladeSystemサーバーブレードのPCE Expressコネクター用に設計されています。最適なパフォーマンスを得るために、カードをサーバーブレードのx8 PCI Expressコネクターに接続することをおすすめします。サーバーブレードのモデルによっては、適用される構成規則により、エンクロージャーのミッドプレーンに接続できるポートが1つだけになる場合があります。詳細については、サーバーブレードの仕様を参照してください。

InfiniBandネットワークに接続するサーバーでは、InfiniBandホストスタックソフトウェア(ドライバー)が動作していなければなりません。Mellanoxテクノロジーに基づくメザニンHCAの場合、HPは、Linux 64ビットオペレーティングシステム上ではMellanox OFEDおよびVoltaire OFEDドライバースタック、Microsoft Windows(HPC)Server 2008上ではMellanox WinOFドライバースタックをサポートします。

Voltaire OFEDドライバースタックについては、使用権(RTU)ライセンスが必要です。Voltaire OFEDソフトウェアの最新情報は、http://www.voltaire.com/Products/Application_Acceleration_Software/Voltaire_OFED_and_WinOF_Support このリンクをクリックすると、HP社外へリンクします。で確認してください。

Mellanox OFEDソフトウェアの最新情報は、http://www.mellanox.com/content/pages.php?pg=software_overview_ib&menu_section=34 このリンクをクリックすると、HP社外へリンクします。で確認してください。

InfiniBand 4X QDRスイッチモジュールは、新しいHP BladeSystem c7000エンクロージャー用のダブル幅スイッチです。このスイッチは、Mellanox InfiniScale IVテクノロジーに基づいています。このQDR IBスイッチブレードには、c7000エンクロージャー内の最大16台のサーバーブレードに接続するための16個のダウンリンクポートと、インタースイッチリンク用または外部のサーバーに接続するための16個のQSFPアップリンクポートがあります。すべてのポートが、40Gb/秒(QDR)帯域幅をサポートします。サブネットマネージャーを用意する必要があります。詳細については、サブネットマネージャーについて説明するパラグラフを参照してください。

HP BLc 4X DDR IB Gen2スイッチは、HP BladeSystem c7000およびc3000エンクロージャー用のダブル幅スイッチです。このスイッチは、Mellanox InfiniScale IVテクノロジーに基づいています。このDDR Gen2 IBスイッチには、エンクロージャー内の最大16台のサーバーブレードに接続するための16個のダウンリンクポートと、インタースイッチリンク用または外部のサーバーに接続するための16個のQSFPアップリンクポートがあります。すべてのポートが、20Gb/秒(DDR)帯域幅をサポートします。サブネットマネージャーを用意する必要があります。詳細については、サブネットマネージャーについて説明するパラグラフを参照してください。

InfiniBandファブリックは、インタースイッチリンク経由で接続される1台以上のInfiniBandスイッチで構成されます。最も幅広く配備されているファブリックトポロジは、ファットツリーまたはそのバリエーションです。InfiniBandファブリックを管理および制御するには、サブネットマネージャーが必要です。サブネットマネージャーの機能は、内蔵ファブリックマネージャーを備え、ラックに設置されるInfiniBandスイッチ(内部マネージドスイッチとも呼ばれます)またはファブリックに接続されるサーバーにインストールされるホストベースのサブネットマネージャーソフトウェアにより提供されます。OpenSMは、InfiniBandファブリックに接続されるサーバー上で動作するホストベースのサブネットマネージャーです。Mellanox OFEDソフトウェアスタックにはLinux用OpenSMが含まれており、Mellanox WinOFにはWindows用OpenSMが含まれています。Mellanox InfiniBand製品に基づくInfiniBandファブリックを管理するための、包括的な管理および監視機能として、Mellanox FabricIT™が推奨されています。また、Voltaire InfiniBandスイッチ製品およびVoltaire OFEDスタックを実行するMellanox ConnectXベースのメザニンHCAに基づくInfiniBandファブリックの管理には、Voltaire Unified Fabric Manager™(UFM)が推奨されています。

Voltaireで内部的に管理される36ポート4X QDRスイッチ、ならびに24ポート、96ポート、および288ポートDDRスイッチでは、内蔵ファブリックマネージャーを使用できます。InfiniBandラックスイッチについては、http://h18000.www1.hp.com/products/quickspecs/13078_div/13078_div.html[英語]を参照してください。

HPでは、HP BladeSystem c-Class用にQLogicテクノロジーに基づく次のInfiniBand製品を提供しています。
  • c-Class QLogic 4X QDR InfiniBand メザニンHCA
  • c-Class QLogic 4X QDR InfiniBand スイッチ
c-Class QLogic 4X QDR InfiniBand メザニンHCA は、最高レベルのパフォーマンス、信頼性、およびスケーラビリティを提供する固有のハードウェアアーキテクチャーを備えるQLogic TrueScale ASICアーキテクチャーに基づいているため、高度にスケールアップされたHigh Performance Computing(HPC)や高スループット、低レイテンシエンタープライズアプリケーションに最適なソリューションです。

InfiniBandファブリックに接続するサーバーでは、InfiniBandホストスタックソフトウェア(ドライバー)が動作していなければなりません。HPは、QLogicテクノロジーに基づくHCAについては、Linux 64ビットオペレーティングシステム上でQLogic OFEDドライバースタックをサポートしています。

c-Class QLogic 4X QDR InfiniBand スイッチでは、ワークグループリソースを費用対効果が高い方法で1つのクラスターにリンクするかまたは規模が大きいファブリック用にエッジスイッチオプションを提供するように設計されたQLogic TrueScale ASICアーキテクチャーが使用されます。お客様は、モジュール式のIBスイッチを内部または外部から管理できます。c-Class QLogic 4X QDR InfiniBand スイッチ は、サブネットマネージャーを内蔵するオプションの管理モジュールも備えています。この管理モジュールは、32ポートQDR BladeSystemスイッチおよび36ポートQDRエッジスイッチ用のオプションです。ユーザーは、オプションのInfiniBand Fabric Suiteソフトウェアと組み合わせることで、装置の管理機能だけを使用して最大288ノードのファブリックを管理できます。ホストによる追加処理は不要です。ブレード化された環境では、この機能により、ファブリック管理用のノードを使う必要が軽減されます。

InfiniBandファブリックは、インタースイッチリンク経由で接続される1台以上のInfiniBandスイッチで構成されます。最も幅広く配備されているファブリックトポロジは、ファットツリーまたはそのバリエーションです。InfiniBandファブリックを管理するには、サブネットマネージャーが必要です。OpenSMは、InfiniBandファブリックに接続されるサーバー上で動作するホストベースのサブネットマネージャーです。QLogic OFEDソフトウェアスタックには、Linux用のOpenSMが含まれます。QLogic InfiniBand製品に基づくInfiniBandファブリックの管理には、包括的な管理および監視機能として、QLogic InfiniBand Fabric Suite(IFS)が推奨されています。

HPは、CX4-CX4、CX4-QSFP、およびQSFP-QSFPコネクター付きのInfiniBand銅および光ファイバーケーブルをサポートしています。CX4-CX4銅ケーブルは、HCA/スイッチ間またはDDR速度のインタースイッチリンク用には0.5〜8mのものが、DDR速度の特定のインタースイッチリンク用には12mまでのものが用意されています。CX4-CX4光ファイバーケーブルは、HCA/スイッチ間またはDDR速度のインタースイッチリンク用に1〜100mのものが用意されています。なお、Voltaire 24ポートDDRスイッチのポートの中で光ファイバーケーブルをサポートするポートは12個だけです。CX4-QSFP銅ケーブルは、HCA/スイッチ間あるいはDDRまたはQDR速度のインタースイッチリンク用に1〜5mのものが用意されています。QSFP-QSFP銅ケーブルは、HCA/スイッチ間あるいはDDRまたはQDR速度のインタースイッチリンク用に1〜7mのものが(なお、QLogic QDRスイッチはQDR速度では5mまでしかサポートしません)、DDR速度では10mまでのものが用意されています。サポートされるInfiniBandケーブルについて詳しくは、HPのWebサイトhttp://h18000.www1.hp.com/products/quickspecs/13078_div/13078_div.html[英語]を参照してください。
このページのトップへ

最新情報

  • c-Class CX2 4X QDR InfiniBand 2ポート メザニンHCA
  • c-Class QLogic 4X QDR InfiniBand メザニンHCA
  • c-Class Logic 4X QDR InfiniBand スイッチ
このページのトップへ

特長

  • Mellanoxテクノロジーに基づくInfiniBandメザニンHCA
      • HP 4X QDR IB CX-2 Dual-port Mezzanine HCA for HP BladeSystem c-Class
        • デュアルポート4X QDR InfiniBand PCI Express G2メザニンカード
        • HP ProLiant BL280c G6、BL2x220c G6、BL460c G6、およびBL490c G6 c-Classサーバーブレードでサポートされます。
        • Mellanox OFEDおよびVoltaire OFED Linuxドライバースタック、ならびにMicrosoft Windows HPC Server 2008上でMellanox WinOF 2.0をサポート
      • InfiniBand 4X DDRデュアルポートメザニンHCA
        • デュアルポート4X DDR InfiniBand PCI Expressメザニンカード
        • HP ProLiant BL260c G5、BL280c G6、BL2x220c G5およびG6、BL460c、BL460c G5、BL460c G6、BL465c G5、BL480c、BL490c G6、BL495c G5、BL680c G5、BL685c、BL685c G5、BL685c G6 c-Classサーバーブレード、ならびにHP Integrity BL860cでサポートされます。
        • Mellanox OFEDおよびVoltaire OFED LinuxドライバースタックならびにMicrosoft Windows HPC
          Server 2008上でMellanox WinOF 2.0をサポート(HP ProLiantブレードのみ)
  • QLogicテクノロジーに基づくInfiniBandメザニンHCA
    • c-Class QLogic 4X QDR InfiniBand メザニンHCA
      • デュアルポート4X QDR InfiniBand PCI Express G2メザニンカード
      • HP ProLiant BL280c G6、BL2x220c G6、BL460c G6、BL490c G6 c-Classサーバーブレードでサポートされます。
      • 標準的なすべてのOFEDトランスポートプロトコルを含むQLogic OFEDをフルサポート。オプションで、管理とパフォーマンスを改善する付加価値コンポーネントもサポート
  • Mellanoxテクノロジーに基づくInfiniBandスイッチブレード
    • InfiniBand 4X QDRスイッチモジュール
      • 新しいC7000エンクロージャー用のダブル幅スイッチブレード。ミッドプレーン経由でサーバーブレードに接続するための16個のダウンリンクポートとインタースイッチリンク用または外部サーバーに接続するための16個のQSFPアップリンクポートを備えます。すべてのポートが、40Gb/秒(QDR)帯域幅をサポートします。すべてのアップリンクポートが銅および光ファイバーケーブルをサポートします。スイッチは外部から管理されます。つまり、ファブリックにサブネットマネージャーを用意する必要があります(上記のサブネットマネージャーについての説明を参照してください)。
    • InfiniBandスイッチモジュールG2
      • C7000エンクロージャー用のダブル幅スイッチモジュール。ミッドプレーン経由でサーバーブレードに接続するための16個のダウンリンクポートとインタースイッチリンク用または外部サーバーに接続するための16個のQSFPアップリンクポートを備えます。すべてのポートが、20Gb/秒DDR帯域幅をサポートします。すべてのアップリンクポートが銅および光ファイバーケーブルをサポートします。スイッチは外部から管理されます。つまり、ファブリックにサブネットマネージャーを用意する必要があります(上記のサブネットマネージャーについての説明を参照してください)。
  • QLogicテクノロジーに基づくInfiniBandスイッチブレード
    • c-Class QLogic 4X QDR InfiniBand スイッチ
      • 新しいC7000エンクロージャー用のダブル幅スイッチブレード。ミッドプレーン経由でサーバーブレードに接続するための16個のダウンリンクポートとインタースイッチリンク用または外部サーバーに接続するための16個のQSFPアップリンクポートを備えます。すべてのポートが、40Gb/秒(QDR)帯域幅をサポートします。すべてのアップリンクポートが銅および光ファイバーケーブルをサポートします。
      • サブネットマネージャーを内蔵し、最大288ノードを管理するオプションの管理モジュール
このページのトップへ
印刷用画面へ印刷用画面へ
プライバシー ご利用条件・免責事項