日本-日本語

製品  >  ソフトウェア  >  OpenVMS  >  マニュアル

OpenVMS マニュアル


≫ 

OpenVMS V8.3
ライブラリ

タイトルページ
目次
まえがき
第 1 章:システム構成の概要
第 2 章:ビジネス要件とアプリケーション要件の決定
第 3 章:システムの選択
第 4 章:インターコネクトの選択
第 5 章:ストレージ・サブシステムの選択
第 6 章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第 7 章:ストレージ・インターコネクトとしての Fibre Channel の構成
第 8 章:可用性を目的とした OpenVMS Cluster の構成
第 9 章:可用性とパフォーマンスを目的とした CI OpenVMS Cluster の構成
第 10 章:スケーラビリティを目的とした OpenVMS Cluster の構成
第 11 章:システム管理の手法
付録 A :インターコネクトとしての SCSI
付録 B :MEMORY CHANNEL 技術概要
付録 C :CI-to-PCI アダプタ (CIPCA) サポート
付録 D :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引



図 8-1 は,スモール・キャパシティで可用性の高い LAN OpenVMS Cluster システムの最適な構成です。 図 8-1 の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と欠点

  • 可用性の主な強化手法の実装

図 8-1 LAN OpenVMS Cluster システム




8.5.1 構成要素

図 8-1 に示す LAN OpenVMS Cluster 構成の構成要素は以下のとおりです。

構成要素 説明
1 2 本の Ethernet インターコネクト。ネットワーク・キャパシティを強化するには, Ethernet ではなく FDDI インターコネクトを使用します。

解説: 冗長化のためには,最低 2 本の LAN インターコネクトを使用し,全ノードを全 LAN インターコネクトに接続します。

インターコネクトが 1 本だけでは,単一点障害 (Single point of failure (単一機器の障害がシステム全体の障害になる)) の要因になります。

2 3 個から 8 個の Ethernet 対応の OpenVMS ノード

各ノードには,別のディスクに依存しないよう専用のシステム・ディスクが備えられます。

解説: 少なくとも 3 個のノードを使用し,定足数を維持します。 8 つのシステム・ディスクを管理するのは大変なので,ノード数は 8 個未満にしてください。

代替法 1: サテライト・ノードが必要な場合は,1 個または 2 個のノードをブート・サーバとして構成します。ただし,サテライト・ノードの可用性は,サーバ・ノードの可用性に依存します。

代替法 2: 第 8.10 節 にあるように,8 ノードを超える場合,LAN OpenVMS Cluster 構成を使用します。

3 システム・ディスク

ブート順序の制約上,システム・ディスクは,通常は LAN OpenVMS Clusterではシャドウイングしません。

代替法 1: 2 つのローカル・コントローラ間でシステム・ディスクをシャドウイングします。

代替法 2: 2 個のノード間でシステム・ディスクをシャドウイングします。2 番めのノードでは,ディスクは非システム・ディスクとしてマウントされます。

関連項目: ブート順序とサテライトの依存内容については, 第 11.2.4 項 を参照してください。

4 重要データ・ディスク

すべての重要データ・ディスクには,ボリューム・シャドウイングでコピーを複数作成しておきます。シャドウ・セット・メンバは,少なくとも 2 個のノードに配置して,単一点障害の要因にならないようにします。



8.5.2 長所

この構成には,以下のような長所があります。

  • この章で紹介するどの例よりも経費がかからない。

  • サイズとパフォーマンスを拡張できる,いくらかの余裕がある。

  • LAN インターコネクトにおけるノードの選択肢が最も広い。



8.5.3 短所

この構成には,以下のような短所があります。

  • ストレージ領域までの共用の直接アクセスがない。ノードから共用ストレージ領域にアクセスするには, MSCP サーバが必要である。

  • LAN ノード間でディスク・シャドウイングをすると,ノード・ブート時にコピーがシャドウされる。

  • ブート順序に依存するため,システム・ディスクをシャドウイングしても実利的ではない。



8.5.4 可用性の主な強化手法

図 8-1 の構成では,以下の手法により可用性を強化しています。

  • 単一点障害の要因を構成から排除している。

  • ボリューム・シャドウイングにより,重要なデータ・ディスクの複数のコピーが別々のノードに用意される。

  • 定足数を満たすため,最低 3 ノードを使用しており,ノードのどれかに障害が発生しても,OpenVMS Cluster は処理を続行できる。

  • 各ノードに専用のシステム・ディスクを割り当てている。サテライトに依存しない。



8.6 マルチ LAN の構成

高い可用性を備えたマルチ LAN クラスタを構成するには,以下のガイドラインに従ってください。

  • LAN セグメントをブリッジし,シングル拡張 LAN を構成する。

  • フェールオーバ・サポートとして冗長 LAN セグメント・ブリッジを設定する。

  • LAN と MOP のマルチキャスト・メッセージを伝達できる LAN ブリッジを構成する。

  • Local Area OpenVMS Cluster Network Failure Analysis Program を利用してネットワークの可用性を監視し,管理する (詳細については,『OpenVMS Cluster システム』を参照)。

  • SCS レイヤと NISCA 伝送プロトコルに関するパフォーマンス問題の診断については,『OpenVMS Cluster システム』のトラブルシューティングを参照してください。

  • LAN の平均利用率を 50% 未満とする。

関連項目: 拡張 LAN (ELAN) の詳細については, 第 10.7.8 項 を参照してください。

8.6.1 MOP サーバの選択

マルチ LAN アダプタとマルチ LAN セグメントを併用するときは,MOP サービスを提供する LAN セグメントまでの接続を分散してください。分散することで,ネットワーク構成要素に障害が発生しても,MOP サーバからサテライトにダウンライン・ロードをすることができます。

サテライトをブートするためのダウンライン・ロードをサポートするには,VAX ノードと Alpha ノードに十分なキャパシティの MOP サーバが必要です。ネットワーク上で,各 MOP サーバに適した LAN 接続 (必要に応じて Alpha または VAX) を選択すれば,ネットワーク障害が発生しても MOP サービスを続行できます。

8.6.2 2 つの LAN セグメントの構成

図 8-2 は,異なる 2 つの LAN セグメントに接続した OpenVMS Cluster システムの構成例です。この構成には,Alpha ノードと VAX ノード,サテライト,2 個のブリッジがあります。

図 8-2 2 LAN セグメントの OpenVMS Cluster構成


この図では,以下の点に着目してください。

  • 重要なノードはマルチ LAN セグメントに接続すると,セグメントやアダプタに障害が発生したときの可用性を強化できます。こうして追加されたネットワーク接続により増加したネットワーク帯域幅の一部は,ディスク・サーバとテープ・サーバに振り向けることができます。LAN アダプタのどれかに障害が発生しても,重要なサテライトは他の LAN アダプタでブートできます。

  • 重要度の低いサテライトをシングル LAN セグメントに接続すれば,LAN セグメント間にシステムを均等に分散することでネットワーク負荷のつりあいをとることができます。このようなシステムでは,ブリッジのどれかを通じて他の LAN セグメント上のサテライトと通信します。

  • DECnet と MOP サービスでは,LAN アドレスの重複を避けるために,LAN アダプタは 1 つしか使用できません。

  • LAN 障害でサテライトのブートが不可能になるのを防ぐため,MOP サービスを提供する LAN アダプタ (必要に応じて Alpha か VAX) は,LAN セグメント間に分散します。

  • 冗長 LAN ブリッジを使用すると,ブリッジによる単一点障害を防げます。



8.6.3 3 つの LAN セグメントの構成

図 8-3 は,異なる 3 つの LAN セグメントに接続した OpenVMS Cluster システムの構成例です。この構成には,Alpha ノードと VAX ノード,サテライト,複数のブリッジがあります。

図 8-3 3 LAN セグメントの OpenVMS Cluster構成


この図では,以下の点に着目してください。

  • ディスク・サーバとテープ・サーバを 2 つまたは 3 つの LAN セグメントに結合して,可用性と I/O スループットを強化しています。

  • 重要なサテライトをマルチ LAN セグメントに接続したことも可用性を強化しています。ネットワーク構成要素のどれかに障害が発生すると,これらのサテライトは,他の LAN アダプタを使用してブートし,重要なディスク・サーバとのアクセスを維持します。

  • LAN セグメント内に重要度の低いサテライトを分散することで,ネットワーク負荷のバランスを維持しています。

  • 各 LAN セグメントには,MOP サーバ (必要に応じて Alpha か VAX) が提供されています。

関連項目: LAN におけるブート順序とサテライト依存の詳細については, 第 11.2.4 項 を参照してください。LAN ブリッジ・フェールオーバの詳細については,『OpenVMS Cluster システム』を参照してください。

8.7 DSSI OpenVMS Cluster における可用性

図 8-4 は,中程度のキャパシティで,高い可用性を備えた DSSI OpenVMS Cluster システムです。図の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と短所

  • 可用性の主な強化手法の実装

図 8-4 DSSI OpenVMS Cluster システム




8.7.1 構成要素

図 8-4 の DSSI OpenVMS Cluster 構成には,以下の構成要素があります。

パート 説明
1 ノード当たり 2 つの DSSI アダプタの DSSI インターコネクトが 2 本

解説: 冗長性を達成するため,最低 2 本のインターコネクトを使用し,全ノードを全 DSSI インターコネクトに関連付けます。

2 2 個から 4 個の DSSI 対応の OpenVMS ノード

解説: 定足数を満たすには,最低 3 個のノードを推奨します。 1 本の DSSI インターコネクトで,最高 4 個の OpenVMS ノードをサポートします。

代替法 1: 2 ノード構成では,ノードに障害が発生したときの定足数を満たすため,クォーラム・ディスクが必要です。

代替法 2: ノードが 4 個以上ある場合,2 本の LAN インターコネクトで接続された DSSI ノード・セットを 2 つ構成します。

3 2 本の Ethernet インターコネクト

解説: DECnet--Plus 通信には LAN インターコネクトを追加する必要があります。インターコネクトを 2 本使用して冗長性を強化しています。ネットワーク・キャパシティを上げるには,Ethernet ではなく FDDI を使用します。

4 システム・ディスク

DSSI インターコネクト上でシステム・ディスクにシャドウします。

解説: ディスクやインターコネクトが単一点障害の要因になるのを防ぐため,インターコネクト間にシステム・ディスクをシャドウ化します。

5 データ・ディスク

重要なデータ・ディスクは,DSSI インターコネクト上でシャドウ化します。

解説: ディスクとインターコネクトが単一点障害の要因になるのを防ぐため,インターコネクト上でデータ・ディスクをシャドウ化します。



8.7.2 長所

図 8-4 の構成には,以下の長所があります。

  • DSSI インターコネクトでは,全ノードが全ストレージ領域までのアクセスを共用できる。

  • サイズとパフォーマンス面で適度な拡張性を備えている。

  • 管理対象のシステム・ディスクが 1 つだけである。



8.7.3 短所

この構成には,以下のような短所があります。

  • DSSI ケーブルをスワップする前にアプリケーションをシャット・ダウンしなければならない。これを "ウォーム・スワップ"といいます。DSSI ケーブルは,アダプタ,ケーブル,ノードに対してウォーム・スワップできます。

  • DSSI 上におけるノードの位置でノードが回復できるかどうかが決まる。 DSSI インターコネクトの末端にあるノード上のアダプタに障害が発生すると, OpenVMS Cluster は利用できなくなる。



8.7.4 可用性の主な強化手法

図 8-4 の構成では,以下の手法により可用性を強化しています。

  • 単一点障害の要因を構成から排除している。

  • ボリューム・シャドウイングにより,重要なデータ・ディスクの複数のコピーが別々の DSSI インターコネクトに用意される。

  • 全ストレージ領域に対する共用の直接アクセス機能が全ノードにある。

  • ノードのどれかに障害が発生しても OpenVMS Cluster が処理を続行できるように,最低 3 ノードを使用して定足数を満たしている。

  • サテライトに依存していない。



8.8 CI OpenVMS Cluster における可用性

図 8-5 は,ラージ・キャパシティと高い可用性を備えた CI OpenVMS Cluster システムの最適構成です。図の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と短所

  • 可用性の主な強化手法の実装

図 8-5 CI OpenVMS Cluster システム




図 8-5 の CI OpenVMS Cluster 構成には,以下の構成要素があります。

パート 説明
1 2 本の LAN インターコネクト

解説: DECnet--Plus 通信には LAN インターコネクトを追加する必要があります。2 本の LAN インターコネクト---Ethernet または FDDI---により,冗長性を強化しています。ネットワーク・キャパシティを上げるには,Ethernet ではなく FDDI を使用します。

2 2 個から 16 個の CI 対応 OpenVMS ノード

解説: 定足数を満たすには,最低 3 個のノードを推奨します。 1 本の CI インターコネクトで,最大 16 個の OpenVMS ノードをサポートできます。

関連項目: CIPCA の全般的な説明については, 付録 C を参照してください。

代替法: ノードに障害が発生したときに定足数を満たすには, 2 ノード構成の場合,クォーラム・ディスクが必要です。

3 2 つのスター・カプラを備えた 2 本の CI インターコネクト

解説: 各ノードとの冗長接続を実現するには,2 つのスター・カプラを使用します。

4 重要なディスクは,CI ストレージ領域コントローラ間でデュアル・ポート化します。

解説:各ディスクを 2 つのコントローラに接続して冗長性を実現します。システム・ディスクは,CI ストレージ領域コントローラ間でシャドウ化し,デュアル・ポート化します。デュアル・ポート化ディスクのプライマリ・パスは定期的に切り替えてハードウェアをテストします。

5 データ・ディスク

解説: デュアル・ポーティングによる冗長化が不要な重要度の低いデータ・ディスクはシングル・ポートにします。

6 重要なデータ・ディスクは,コントローラ間でシャドウ化します。

解説: 重要なディスクはシャドウ化し,シャドウ・セット・メンバは異なる HSC に配置して,単一点障害の要因を排除します。



8.8.2 長所

この構成には,以下のような長所があります。

  • 全ノードが全ストレージ領域を直接アクセスできる。

  • 処理とストレージ領域のキャパシティの拡張性が高い。

  • 他のインターコネクトと異なり,CI は本質的にデュアル・パス化されている。



8.8.3 短所

この構成には,以下のような短所があります。

  • 他の構成よりも経費がかかる。



8.8.4 可用性の主な強化手法

図 8-5 の構成では,以下の手法で可用性を強化しています。

  • 単一点障害の要因を構成から排除している。

  • デュアル・ポーティングとボリューム・シャドウイングにより,別々の HSC コントローラまたは HSJ コントローラに重要なディスクのコピーを複数提供する。

  • 全ストレージ領域に対する共用の直接アクセス機能が全ノードにある。

  • ノードのどれかに障害が発生しても OpenVMS Cluster が処理を続行できるように,最低 3 ノードを使用して定足数を満たしている。

  • サテライトに依存していない。

  • 停電時の可用性を無停電電源装置 (UPS) で確保している。



8.9 MEMORY CHANNEL OpenVMS Cluster における可用性

図 8-6 は,高い可用性を備えた MEMORY CHANNEL (MC) クラスタ構成です。 図 8-6 の後の項で,以下の構成を検討します。

  • 構成要素の解析

  • 長所と短所

  • 可用性の主な強化手法の実装

図 8-6 MEMORY CHANNEL クラスタ



目次 索引

印刷用画面へ
プライバシー 本サイト利用時の合意事項