日本-日本語
日本HPホーム 製品 & サービス サポート & ドライバー ソリューション ご購入方法
≫  お問い合わせ

製品とサービス >  ソフトウェアとOS >  OpenVMS >  マニュアル

OpenVMS マニュアル


≫ 

OpenVMS V7.3-2
ライブラリ

タイトルページ
目次
まえがき
第 1 章:システム構成の概要
第 2 章:ビジネス要件とアプリケーション要件の決定
第 3 章:システムの選択
第 4 章:インターコネクトの選択
第 5 章:ストレージ・サブシステムの選択
第 6 章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第 7 章:ストレージ・インターコネクトとしての Fibre Channel の構成
第 8 章:可用性を目的とした OpenVMS Cluster の構成
第 9 章:可用性とパフォーマンスを目的とした CI OpenVMS Cluster の構成
第 10 章:スケーラビリティを目的とした OpenVMS Cluster の構成
第 11 章:システム管理の手法
付録 A :インターコネクトとしての SCSI
付録 B :MEMORY CHANNEL 技術概要
付録 C :CI-to-PCI アダプタ (CIPCA) サポート
付録 D :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引



DSSI インターコネクトごとに,最高で 8 ノードを接続できます。その内,4 ノードはシステムとすることができ,残りをストレージ・デバイスに割り当てることができます。 図 10-8図 10-9図 10-10 は, 2 ノード DSSI OpenVMS Cluster から 4 ノード DSSI OpenVMS Cluster までの拡張の様子を示したものです。

10.4.1 2 ノード DSSI OpenVMS Cluster

図 10-8 で,2 つのノードは,共通 DSSI インターコネクトで 4 つのディスクに接続されています。

図 10-8 2 ノード DSSI OpenVMS Cluster


図 10-8 に示すこの構成の長所と短所は次のとおりです。

長所

  • どちらのノードも全ストレージへの直接アクセスを共用する。

  • DSSI インターコネクトに障害が発生しても,Ethernet LAN でフェールオーバできる。

短所

  • 全ノードで直接アクセスできるストレージの容量が制限される。

  • 単独の DSSI インターコネクトが,単一点障害の要因になる可能性がある。

図 10-8 内の OpenVMS Cluster により強力な処理能力,記憶容量,冗長性が必要な場合,この構成は, 図 10-9 のようになります。

10.4.2 共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster

図 10-9 では,4 つのノードは,8 つのディスクへの直接アクセスを 2 本の DSSI インターコネクトで共用しています。内 2 つのディスクは,すべての DSSI インターコネクト上でシャドウ化されています。

図 10-9 共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster


図 10-9 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードが全ストレージへの直接アクセスを共用する。

  • DSSI インターコネクトに障害が発生しても,Ethernet LAN によりフェールオーバ機能が働く。

  • すべての DSSI インターコネクト間のシャドウイングにより,パフォーマンスと可用性が強化される。

短所

  • 全ノードが直接アクセスできるストレージの容量に制限がある。

図 10-9 で示した構成でさらに多くのストレージの容量が必要な場合,この構成は, 図 10-10 のようになります。

10.4.3 非共用アクセスを備えた 4 ノード DSSI OpenVMS Cluster

図 10-10 は,4 ノード,10 ディスクの OpenVMS Cluster です。このモデルは,ノードの一部が一部のディスクへの直接アクセスを共用せず,これらのディスクを MSCP サービスの対象にする必要があるという点で, 図 10-8図 10-9 とは異なります。優先順位が最も高いデータは,共通 DSSI インターコネクトでノードに結合されているディスクに保存すれば,最高のパフォーマンスを発揮できます。すべての共通 DSSI インターコネクト間のボリューム・シャドウイングでは,最高の可用性が得られるだけでなく,読み取りパフォーマンスが強化されます。

図 10-10 10 ディスクを備えた DSSI OpenVMS Cluster


図 10-10 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードがほとんどのストレージへの直接アクセスを共用する。

  • MSCP サーバを使用できるので, DSSI インターコネクトのどれかに障害が発生しても,代替 DSSI インターコネクトによるフェールオーバが可能である。

  • すべての DSSI インターコネクト間のシャドウイングにより,パフォーマンスと可用性が強化された。

  • HSZ コントローラで接続された SCSI ストレージにより,すぐれたパフォーマンスとスケーラビリティが得られる。

短所

  • すべてのノードが直接アクセスできるストレージの容量に制限がある。

  • シャドウ・セット 2 では,シャドウイング処理の調整に,MSCP サービスが必要である。

  • ストレージに直接アクセスできないノードがある。たとえば,Alpha 2 と Alpha 4 は, Alpha 1 と Alpha 3 に接続されたディスクに直接アクセスできません。



10.5 MEMORY CHANNEL OpenVMS Cluster におけるスケーラビリティ

各 MEMORY CHANNEL (MC) インターコネクトでは,MEMORY CHANNEL ハブに最高で 4 つのノードを接続できます。2 ハブ構成の場合,ノードごとに PCI アダプタが 2 つ必要で,それぞれのアダプタは,別々のハブに接続するものとします。2 ノード構成では, PCI アダプタの 1 つが仮想ハブになるので,ハブは不要です。

図 10-11図 10-12図 10-13 は, 2 ノード MEMORY CHANNEL クラスタから 4 ノード MEMORY CHANNEL クラスタへの拡張の様子を示しています。

関連項目: その他の構成情報と,MEMORY CHANNEL の働きの技術的な説明については, 付録 B を参照してください。

10.5.1 2 ノード MEMORY CHANNEL Cluster

図 10-11 で,MEMORY CHANNEL インターコネクト,LAN (Ethernet, FDDI,または ATM) インターコネクト,および Fibre Channel インターコネクトで 2 ノードが接続されています。

図 10-11 2 ノード MEMORY CHANNEL OpenVMS Cluster


図 10-11 に示すこの構成の長所と短所は次のとおりです。

長所

  • 両方のノードが全ストレージへの直接アクセスを共用する。

  • MEMORY CHANNEL インターコネクトに障害が発生しても,Ethernet/FDDI/ATM インターコネクトによりフェールオーバが可能である。

  • 2 MEMORY CHANNEL ノード制限により,ハブが不要である。 1 つの PCI アダプタが仮想ハブとして機能する。

短所

  • すべてのノードが直接アクセスできるストレージの容量に制限がある。

  • 単一の SCSI インターコネクトや HSZ コントローラが単一点障害の要因になる可能性がある。

図 10-11 に示す OpenVMS Cluster でより強力な処理能力や冗長性が必要になると,この構成は 図 10-12 のようになります。

10.5.2 3 ノード MEMORY CHANNEL Cluster

図 10-12 では,LAN (Ethernet,FDDI,または ATM) インターコネクトの他,高速 MEMORY CHANNEL インターコネクトで 3 ノードが接続されています。これらのノードは,Fibre Channel インターコネクトによりストレージへの直接アクセスも共用しています。

図 10-12 3 ノード MEMORY CHANNEL OpenVMS Cluster


図 10-12 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードがストレージへの直接アクセスを共用する。

  • MEMORY CHANNEL インターコネクトに障害が発生しても,Ethernet/FDDI/ATM インターコネクトによりフェールオーバが可能である。

  • MEMORY CHANNEL ハブの追加により,接続できるノード数が 4 ノードに制限されている。

短所

  • すべてのノードが直接アクセスできるストレージの容量に制限がある。

図 10-12 で示す構成にさらに多くのストレージの容量が必要になると,この構成は 図 10-13 のようになります。

10.5.3 4 ノード MEMORY CHANNEL OpenVMS Cluster

図 10-13 ,CI インターコネクトの他,MEMORY CHANNELインターコネクトで各ノードが接続されています。

図 10-13 CI クラスタを備えた MEMORY CHANNEL Cluster


図 10-13 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードがストレージへの直接アクセスを共用する。

  • 図 10-12 に示す構成に比べ,この構成ではストレージ領域と処理能力のキャパシティが倍増する。

  • MEMORY CHANNEL インターコネクトに障害が発生しても,CI がノード間通信を引き受ける。

  • ノードの内の 2 ノードにある CIPCA アダプタにより,従来は VAX (CIXCD 方式の) システムで構成されていた CI クラスタに Alpha システムを追加できる。

  • プロセッサとストレージ間の複数の CI により,1 パスの場合よりパフォーマンスが倍加する。MEMORY CHANNEL により,CI からノード間トラフィックの負荷が軽減され, CI はストレージ・トラフィックに専念すればよくなった。そのため,クラスタ全体のパフォーマンスが向上する。

  • ボリュームのシャドウ化とディスクのデュアル・ポート化でデータの可用性が強化される。

短所

  • この構成は複雑なので,経験豊かなシステム・マネージャによる管理が必要である。



10.6 SCSI OpenVMS Cluster におけるスケーラビリティ

SCSI 方式の OpenVMS Cluster では,市販のストレージ・レベルのストレージを OpenVMS Cluster に直接使用できます。OpenVMS Cluster で SCSI インターコネクトを使用することで,距離,価格,パフォーマンスの各キャパシティの選択肢が広がります。この SCSI クラスタリング機能は,ローエンドの手ごろなクラスタ・ソリューションを構成すれば,理想的な出発点になります。SCSI クラスタは,デスクトップからデスクサイド,あるいは部門別の大規模な構成まで適用できます。

SCSI インターコネクトの使用にあたっては,以下の一般的な制約に注意してください。

  • SCSI インターコネクトでは,ストレージ・トラフィックしか処理しないので,ノード間トラフィックでは,もう 1 本のインターコネクトとペアで使用する必要があります。この節で紹介している図では,MEMORY CHANNEL を代替インターコネクトに使用しています。ただし,CI,DSSI,Ethernet,FDDI も使用できます。

  • SCSI ケーブルの長さの合計には,システムの内部ケーブル長も含まれます。たとえば, AlphaServer 1000 ラックマウントでは,内部アダプタを外部コネクタに接続するための内部ケーブルに 1.6 m 必要です。2 m SCSI ケーブルで接続した 2 つの AlphaServer 1000 の場合,それぞれ内部配線に 1.6 m 必要なので,SCSI バスの合計の長さは 5.2 m になります。
    関連項目: 内部 SCSI ケーブルの長さや,SCSI デバイスのクラスタリングの詳細については, 付録 A を参照してください。

この節の図では,比較的小容量のストレージを備えた 2 ノード SCSI 構成からストレージ容量を最大とし,スケーラビリティにも余裕のある 4 ノード SCSI ハブまで段階を追って紹介します。

10.6.1 2 ノード Fast Wide SCSI Cluster

図 10-14 では,25-m の Fast Wide Differential (FWD) SCSI バスで 2 ノードが接続され,さらにノード間トラフィック用に MEMORY CHANNEL (または任意の) インターコネクトが接続されています。BA356 ストレージ・キャビネットには,電源, DWZZB シングル・エンド対ディファレンシャル・コンバータ, 6 つのディスク・ドライブが格納されています。この構成には,Narrow ディスクと Wide ディスクのどちらでも使用できます。

図 10-14 2 ノード Fast Wide SCSI Cluster


図 10-14 に示すこの構成の長所と短所は次のとおりです。

長所

  • 経済的な SCSI ストレージを 2 ノードで共用できる。

  • BA356 キャビネットでは,Narrow (8 ビット) または Wide (16 ビット) SCSI バスが使用できる。

  • DWZZB は,シングル・エンド信号をディファレンシャルに変換する。

  • Fast Wide SCSI インターコネクトでは,パフォーマンス 20 MB/S が可能。

  • MEMORY CHANNEL はノード間トラフィックを処理する。

  • ディファレンシャル SCSI バスは 25 m まで使用できる。

短所

  • ストレージの機能がいくらか制限される。

図 10-14 で示す構成にさらに多くのストレージの容量が必要になると,この構成は 図 10-15 のようになります。

10.6.2 HSZ ストレージを備えた 2 ノード Fast Wide SCSI Cluster

図 10-15 では,25-m の Fast Wide Differential (FWD) SCSI バスで 2 ノードが接続され,さらにノード間トラフィック用に MEMORY CHANNEL (または任意の) インターコネクトが接続されています。複数のストレージ・シェルフが HSZ コントローラ内にあります。

図 10-15 HSZ ストレージを備えた 2 ノード Fast Wide SCSI Cluster


図 10-15 に示すこの構成の長所と短所は次のとおりです。

長所

  • 図 10-14 に示す構成より多少経費がかかるが,はるかに多くのストレージを利用できる。 (HSZ コントローラのおかげで多くのストレージを追加できる。)

  • HSZ によるキャッシュで RAID 0,1,5 テクノロジを利用できる。HSZ はディファレンシャル・デバイスであり,コンバータが不要である。

  • MEMORY CHANNEL がノード間トラフィックを処理できる。

  • FWD バスでは,スループット 20 MB/s を利用できる。

  • 25 m ディファレンシャル SCSI バスが組み込まれる。

短所

  • 図 10-14 に示す構成よりはるかに経費がかかる。



10.6.3 3 ノード Fast Wide SCSI Cluster

図 10-16 ,では,25-m の Fast Wide (FWD) SCSI インターコネクトで 3 ノードが接続されています。HSZ コントローラ内に複数のストレージ・シェルフがあり,図の上部の BA356 にはさらに多くのストレージが格納されています。

図 10-16 3 ノード Fast Wide SCSI Cluster


図 10-16 に示すこの構成の長所と短所は次のとおりです。

長所

  • 図 10-14図 10-15 に示す構成の長所を備えている。

    • バスの許容長さ (25 m) とスケーラビリティに余裕がある。

    • HSZ にキャッシュを組み込んでいる。RAID 0,1,and 5 テクノロジをサポートしている。HSZ に複数のストレージ・シェルフがある。

    • FWD バスによりスループット 20 MB/sが可能。

    • BA356 キャビネットでは,Narrow (8 ビット) または Wide (16 ビット) SCSI バスを使用できます。

短所

  • これまでの図で示した構成よりも経費がかかる。



10.6.4 4 ノード Ultra SCSI ハブ構成

図 10-17 では,SCSI ハブで 4 ノードが接続されています。 SCSI ハブの電源と冷却は,BA356 などのストレージ・キャビネットから供給します。 SCSI ハブは,ストレージ・キャビネットの SCSI バスに接続されていません。

図 10-17 4 ノード Ultra SCSI ハブ構成


図 10-17 に示すこの構成の長所と短所は次のとおりです。

長所

  • 図 10-15 に示す構成よりもバス長さとスケーラビリティにはるかに優っている。

  • SCSI ハブでは,SCSI バス上のアービトレーションが公正に行われ,システムの挙動が均等化され予測しやすくなる。アービトレーションが公正でないと 4 つの CPU を活用できない。

  • ハブのストレージ・ポートに,デュアル HSZ コントローラを最大 2 つまでデイジー・チェーン接続できる

  • BA356 に電源が 2 つある (1 つはバックアップ電源)。

  • HSZ のキャッシュにより,RAID 0,1,5 テクノロジもサポートされる。

  • Ultra SCSI バスによりスループット 40 MB/s が可能。

短所

  • CPU や HSZ から別の CPU までの SCSI インターコネクトをデイジー・チェーン化してこの構成に CPU 追加することができない。

  • 図 10-14図 10-15 に示す構成よりはるかに経費がかかる。

  • HSZ ストレージしか接続できない。SCSI ハブに直接ディスク・ドライブを接続したストレージ・シェルフは接続できない。



10.7 サテライトを備えた OpenVMS Cluster のスケーラビリティ

OpenVMS Cluster におけるサテライト数と MSCP でサービスを受けるストレージの容量により,サーバー数とキャパシティが決まります。 サテライトは,システム・ディスクや他の OpenVMS Cluster ストレージに直接アクセスしないシステムです。サテライトは,通常はワークステーションですが, OpenVMS Cluster Cluster 内の他のノードのサービスを受ける OpenVMS Cluster ノードでもサテライトとして使用できます。

Ethernet LAN セグメント 1 つにつき,10 から 20 のサテライト・ノードを接続できます。 図 10-18図 10-19図 10-20図 10-21 は,6 サテライト LAN から 45 サテライト LAN まで段階的に拡張した構成例です。

10.7.1 6 サテライト OpenVMS Cluster

図 10-18 では,6 つのサテライトとブート・サーバーが Ethernet で接続されています。

図 10-18 6 サテライト LAN OpenVMS Cluster


図 10-18 に示すこの構成の長所と短所は次のとおりです。

長所

  • MSCP サーバを使用可能にして,サテライトの追加とアクセスできるストレージの拡張に対応できる。

  • システム・ディスクが 1 つなので,システム管理が比較的簡単である。
    関連項目: システム・ディスクの管理方法については, 第 11.2 節 を参照してください。

短所

  • Ethernet がボトルネックや単一点障害の要因になる可能性がある。

図 10-18 に示すブート・サーバがボトルネックになる場合, 図 10-19 に示すような構成が必要になることもあります。


目次 索引

印刷用画面へ
プライバシー 本サイト利用時の合意事項 ウェブマスターに連絡