Jump to content 日本-日本語
製品  >  HP ProLiant サーバ  >  技術情報  >  White Paper

whitepaper

技術資料

HP ProLiant サーバ

目次

概要/ はじめに/ TCP/IPの制限/ RDMAソリューション
  RDMA over TCP/RDMA over InfiniBand
  RDMA over InfiniBand
  まとめ/ 詳細情報 / ご意見をお寄せください

PDFファイル ダウンロード

このホワイトペーパーのPDFファイルをこちらからダウンロードしてご覧下さい。
(PDFファイル、144KB)
コンテンツに進む

RDMAプロトコル: ネットワークパフォーマンスの向上

概要

  RDMA (Remote Direct Memory Access)は、データ処理操作を効率化することによって、ネットワークパフォーマンスを向上させるデータ交換テクノロジです。この技術概要は、データセンター内のスループットを効率化するためにRDMAを2つの最も一般的なネットワーク インターコネクトである、EthernetとInfiniBandに適用する方法を説明します。  

はじめに

  コンピューティングテクノロジやストレージテクノロジの進歩は、データセンターのネットワークインフラストラクチャにとって大きな負担となっています。イーサネットの速度が増加し、大量のデータが転送されるようになると、この通信を処理するのにより多くのプロセッサ能力が必要になります。

今日の一般的なデータセンターは、さまざまに異なるインターコネクトを使用して、サーバとサーバ、およびサーバとストレージをリンクします。システムと周辺機器のバスインターコネクトを多数使用すると、互換性や相互運用性、管理効率が低下し、機器やソフトウェア、トレーニング、それらの運用と保守に必要な人員にかかるコストがふくらみます。効率を上げ、コストを下げるには、データセンターのネットワークインフラストラクチャを、統一性と柔軟性を備えた高速なファブリックに変換する必要があります。

高速インフラストラクチャの統合には、サーバ、ストレージ、アプリケーション間のデータ転送を効率的かつ安全に行うことができる、高帯域幅、低レイテンシのファブリックが必要になります。進化するファブリックインターコネクトと関連テクノロジが、プロセッサとメモリ上のオーバーヘッドの負担を減少させることによって、より効率的でスケーラブルなコンピューティングとデータセンター内のデータ転送を提供します。既存のインフラストラクチャ上で動作するものを含む、より効率的な通信プロトコルとテクノロジを使用すれば、プロセッサをより有用な仕事に振り向け、インフラストラクチャの利用効率を向上させることができます。また、データセンターの機能を少数、場合によっては1つの業界標準のインターコネクト上に集約する、ファブリックインターコネクトの能力には大きな利点があります。

RDMAは、これらの目標の達成を約束し、iWARP (RDMA over TCP/IPを指定するプロトコル)を実現するデータ交換テクノロジです。RDMAをInfiniBand™ (IB)などのスイッチ ファブリック インフラストラクチャに適用することで、大量のデータ転送を扱うクラスタシステムのパフォーマンスを向上させることができます。
 

TCP/IPの制限

  TCP/IP (Transmission Control Protocol and Internet Protocol)は、今日のインターネット環境の中心に位置付けられるプロトコルの組み合わせです。インターネットに接続しているコンピュータはすべて、これらのプロトコルを使用して情報を送受信します。異種システムが通信できるように、情報は固定したデータフォーマット(パケット)で送信されます。TCP/IPプロトコルスタックは、あらゆるタイプのコンピュータが物理的なメディアの相違を越えてデータを転送するための、インターネットワーキング言語として開発されました。TCP/IPは、プロトコルスイートに含まれる70,000以上のソフトウェア命令により、必要な信頼性メカニズム、エラー検出とエラー訂正、順序制御、回復などの通信機能を実現しています。

TCP/IPプロトコルスタックは、データパケットの発信と着信を処理するために実装されています。現在では、TCP/IPスタックは通常、オペレーティングシステム ソフトウェアに実装されており、パケットはメイン(ホスト)プロセッサによって処理されます。結果として、発着信するネットワークトラフィックのプロトコル処理が、本来はビジネスアプリケーションやその他の実用アプリケーションを使用するためのプロセッササイクルを消費してしまいます。処理およびそれに関連した時間遅延により、多数のサーバを横断してアプリケーションを動作させることも難しくなります。ネットワーク速度が毎秒1Gb (Gb/s)以上に達し、大量のデータが送信されるようになると、プロセッサにTCP/IPプロトコルの処理とデータ転送の負荷がかかります。

メモリバスの帯域幅が限られているため、プロトコルスタック処理の負担は深刻な問題となります。各データパケットが複数回メモリを行き来しなければならないため、ネットワークデータの着信がメモリバス帯域幅を消費します(図1)。受信されたデータはデバイスドライバ バッファに書き込まれ、オペレーティング システム バッファにコピーされて、アプリケーションメモリ空間にコピーされます。

図1. 受信するホスト内のネットワークデータの一般的なフロー
図1. 受信するホスト内のネットワークデータの一般的なフロー

このコピー処理は、レイテンシを増加させ、メモリバス帯域幅を消費し、ホストプロセッサ(CPU)の関与を必要とします。実際、1GbのイーサネットトラフィックによるTCP/IPプロトコルオーバーヘッドは、システムプロセッサ使用率を20〜30%増大させることがあります。結果として、10Gbイーサネット処理に対するソフトウェアオーバヘッドがシステムプロセッサを圧倒してしまう可能性があります。互換性の問題を解決するためにTCP処理を使用しているInfiniBandネットワークでは、イーサネットネットワークと同様の処理オーバヘッドの問題が生じます。
 

RDMAソリューション

  固有のプロセッサオーバヘッドとメモリ帯域幅の制限は、それが必要な場合(イーサネット)であれ、互換性の目的(InfiniBand)であれ、TCPを使用するネットワークの障害になります。

イーサネットでは、TOE (TCP/IP Offload Engines)とRDMAを使用することにより、こうした障害を軽減することができます。TOE搭載のNIC (Network Interface Adapter)は、TCP/IP処理の役目を果たし、ホストプロセッサをその他のタスク用に解放します。TOEの機能は、そのハードウェア設計、OSプログラミングインタフェース、実行されるアプリケーションによって決まります。

RDMAテクノロジは、あるコンピュータのメモリのデータを別のコンピュータのメモリに、プロセッサの関与を極力小さくして転送するために開発されました。RDMAプロトコルに含まれている追加の情報を参照することにより、システムは、転送されるデータを追加したり、暫定コピーしたりすることなく、そのメモリの最終目的地に直接届けることができます。この「ゼロコピー」あるいは「直接データ配置」(DDP: Direct Data Placement)機能により、システム間で最も効率的なネットワーク通信が可能になります。

TOEとRDMAは、どちらもホストプロセッサをネットワーク オーバヘッドから解放することを目的としているので、混同されることがあります。しかし、TOEは、TCP/IP処理を担当するハードウェア ソリューションであり、RDMAは、ネットワーク通信スタックの上位レイヤーで動作するプロトコル ソリューションです。このため、TOEとRDMAは連携できます。TOEがデバイスとの局所化された接続を可能にし、RDMAがより効率的なプロトコルでデータスループットを向上させます。

InfiniBandでは、コア機能にRDMAを使用してアーキテクチャが設計されているので、RDMA処理によってパフォーマンスがさらに大きく向上します(TOEは不要)。

RDMAは、アプリケーションがネットワークデバイス間でメッセージを転送するための、より高速なパスを提供します。EthernetとInfiniBandの両方に適用可能です。これらのインターコネクトは両方とも、SDP (Sockets Direct Protocol)、iSER (iSCSI Extensions for RDMA)、NFS (Network File System)、DAFS (Direct Access File System)、MPI (Message Passing Interface)といった、最新および既存のネットワーク業界標準規格をすべてサポートしています。
 

  次のページへ
PDFファイルをご覧いただくには、Adobe® Reader® が必要です。
アドビシステムズ社のウェブサイト より、ダウンロード(無料)の上ご覧ください。
印刷用画面へ印刷用画面へ
プライバシー ご利用条件・免責事項