日本-日本語

製品  >  ソフトウェア  >  OpenVMS  >  マニュアル

OpenVMS マニュアル


HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引



図 9-6 は,2 つの Ethernet セグメントで接続された 12 サテライトと 2 ブート・サーバです。これら 2 つの Ethernet セグメントは,LAN ブリッジでも結合されています。サテライトごとにストレージまでのデュアル・パスがあるので,この構成では,MSCP 動的負荷バランス調整も可能です。

図 9-6 2 LAN セグメントを備えた 12 サテライト OpenVMS Cluster


図 9-6 に示すこの構成の長所と短所は次のとおりです。

長所

  • MSCP サーバを使用可能にして,サテライトの追加とアクセスできるストレージの拡張に対応できる。

  • 2 ブート・サーバで MSCP 動的負荷バランス調整が可能である。
    Ethernet LAN のサテライトの観点から見れば,Alpha ノードや Integrity ノードまでのデュアル・パスは MSCP 負荷調整で有利です。

  • 2 LAN セグメントにより,LAN キャパシティが倍増する。

短所

  • この OpenVMS Cluster 構成は,サポートできるサテライト数が制限される。

  • 1 つしかない HSG コントローラが,ボトルネックと単一点障害の要因になる可能性がある。

図 9-6 に示す OpenVMS Cluster を現在の制限以上に拡張する場合,この構成は 図 9-7 に示すような内容になります。

9.4.4 サイト間リンクを備えた 45 サテライト OpenVMS Cluster

図 9-7 は, 45 つのサテライト・ノードを接続した大規模な 51 ノード OpenVMS Cluster です。 3 つのブート・サーバ,Integrity 1,Integrity 2,Integrity 3 は, 3 つのディスク,つまり共通ディスク,ページ・スワップ・ディスク,システム・ディスクを共用します。サイト間リンクはルータに接続されており, 3 つの LAN セグメントが接続されています。各セグメントには,ワークステーション・サテライトが 15 個の他,専用のブート・ノードがあります。

図 9-7 サイト間リンクを備えた 45 サテライト OpenVMS Cluster


図 9-7 に示すこの構成の長所と短所は次のとおりです。

長所

  • ブート時間を短縮できる。ノード・カウントが多い OpenVMS Cluster では特に効果的。
    関連項目: 図 9-7 に示すような OpenVMS Cluster のブートについては, 第 10.2.4 項 を参照してください。

  • MSCP サーバを使用可能にして,サテライトからアクセスできるストレージを拡張できる。

  • 各ブート・サーバには,専用のページ・スワップ・ディスクがあるので,システム・ディスクにおける I/O 処理を短縮できる。

  • OpenVMS Cluster 全体の環境ファイルは,すべて共通ディスクにある。そのため,サテライト・ブート・サーバはサテライトまでのルート情報だけを処理すればよい。
    関連項目: 共通ディスクとページ・ディスクおよびスワップ・ディスクの詳細については, 第 10.2 節 を参照してください。

短所

  • Ethernet LAN セグメント上のサテライト・ブート・サーバは,同じセグメントのサテライトでないとブートできない。



9.4.5 ハイパワー・ワークステーション OpenVMS Cluster (1995 年のテクノロジ)

図 9-8 は,FDDI リング上で高いパフォーマンスと可用性を実現できる OpenVMS Cluster 構成です。

図 9-8 ハイパワー・ワークステーション・サーバの構成 (1995 年)


図 9-8 には,専用のシステム・ディスクを持った Alpha ワークステーションが数台あります。これらは,FDDI リングに接続されています。 Alpha ワークステーションを FDDI に接続すると各ワークステーションが自身のシステム・ディスクに直接アクセスできるため,高いパフォーマンスが可能になります。また,FDDI 帯域幅は,Ethernet の場合よりも高くなります。Alpha ワークステーションには FDDI アダプタがあるため,これらのワークステーションを FDDI に接続するのは,ワークステーションの重要度に応じた代替策として有効です。FDDI は Ethernet よりも 10 倍高速であり,Alpha ワークステーションには,FDDI の処理速度を活かせるだけの処理能力があります。 (Fast Ethernet は FDDI と同等の速度で, Gigabit Ethernet は Fast Ethernet や FDDI より 10 倍高速です。)

9.4.6 ハイパワー・ワークステーション OpenVMS Cluster (2004 年のテクノロジ)

図 9-9 に,LAN に Gigabit Ethernet を使用し,ストレージに Fibre Channel を使用した,ハイパフォーマンスで可用性の高い OpenVMS Cluster 構成を示します。

図 9-9 ハイパワー・ワークステーション・サーバの構成 (2004 年)


図 9-9 には,専用のシステム・ディスクをそれぞれ持った Alpha ワークステーションが数台あり,これらは Gigabit Ethernet LAN に接続されています。各ワークステーションが自身のシステム・ディスクに直接アクセスできるため,それらを Gigabit Ethernet LAN に接続することで高いパフォーマンスを実現できます。さらに,Gigabit Ethernet の帯域幅は,FDDI よりも 10 倍広く高速です。 Alpha ワークステーションには, Gigabit Ethernet の速さを活かせるだけの処理能力があります。

9.4.7 サテライトを備えた OpenVMS Cluster のガイドライン

以下に示すのは,サテライトを持った OpenVMS Cluster をセットアップするときのガイドラインです。

  • 大規模 LAN 構成のサテライトには多くのメモリが必要です。これは,ノードごとに他のすべてのノードとの接続を管理するからです。

  • ボトルネックを排したネットワークを構成してください (つまり,ネットワーク群やサーバ接続に,十分な帯域幅を割り当ててください)。

  • 図 9-5図 9-6 に示すように MSCP 動的負荷バランス調整によりリソースを最大限に活用してください。

  • 優れたパフォーマンスを維持するため,MSCP サービスが必要なノード数は最小限にしてください。
    関連項目: MSCP オーバヘッドの詳細については, 第 9.6.1 項 を参照してください。

  • 時間を節約するため,ブート・シーケンスの効率化を図ってください。特に OpenVMS Cluster が大規模な場合や複数のセグメントがある場合にこれは必要です。LAN とシステム・ディスクの処理を削減する方法と,シーケンス内で別々のノード・グループをブートする方法の詳細については, 第 10.2.4 項 を参照してください。

  • ホスト 1 台に対して複数の LAN アダプタを使用し,別々の LAN パスに接続してください。これは,ノード間の同時双方向通信を可能にし,複数のノードを宛先とするトラフィックを可用 LAN 間に分散させるためです。さらに,複数の LAN アダプタにより,フェールオーバの機能が強化されます。



9.4.8 拡張 LAN 構成のガイドライン

LAN セグメント間にブリッジとスイッチを使用すると,拡張 LAN を形成できます。シングル LAN に比べたとき,これにより,可用性,接続距離,全帯域幅の強化が可能です。ただし,拡張 LAN では,遅延が増加し,パスによっては帯域幅が低下する因子もあります。パケット損失,キューイング遅延,パケット・サイズのような要因もネットワークのパフォーマンスに影響を与えることがあります。 表 9-3 は,以上の因子を扱う場合に,十分な LAN パフォーマンスを確保するためのガイドラインをまとめたものです。

表 9-3 拡張 LAN 構成ガイドライン
係数 ガイドライン
伝播遅延 パケットが LAN を移動する時間は,移動距離と,スイッチまたはブリッジによってリンク間で中継される回数によって異なります。応答時間を重視する場合は,これらの因子を制御する必要があります。

ハイ・パフォーマンス・アプリケーションでは,ノード間のスイッチ数を 2 つまでにしてください。ハイ・パフォーマンスが求められない場合,ノード間で使用できるスイッチまたはブリッジの数は 7 つまでとします。

キューイング遅延 スイッチまたはブリッジとホスト・アダプタにおいて,即時着信率がサービス率を超えるとキューイングが発生します。キューイングは以下の方法で制御できます。

  • 通信頻度の高いノード間は,スイッチまたはブリッジの数を削減する。

  • ハイ・パフォーマンスなスイッチまたはブリッジとアダプタだけを使用する。

  • LAN におけるトラフィック・バーストを削減する。たとえば,小規模な I/O は結合し,小さいパケットのバーストの代わりに 1 つのパケットにまとめられる。

  • 高速プロセッサと高速 LAN を利用し,スイッチまたはブリッジでトラフィックを分離して, LAN セグメントとホスト・プロセッサの利用レベルを下げる。

パケット損失 LAN が配信しなかったパケットは,再送信が必要であり,これはシステムおよびネットワーク・リソースの余分な消費や遅延の増加,あるいは帯域幅の低下をもたらします。ブリッジとアダプタに輻輳が生じると,パケットが廃棄されます。このパケット損失を少なくするには,先に説明したキューイングを制御します。

通過時に損傷を受けたパケットも廃棄されます。この問題を制御するには,LAN ハードウェアの構成規則を順守し,電気的な干渉源を排除し,確実にすべてのハードウェアを適正に運用します。

再送タイムアウト率では,パケット損失の兆候を知ることができます。ノード間の OpenVMS Cluster トラフィックの場合,送信 1000 回に対しタイムアウト 1 回を限度とします。ハイ・パフォーマンス・アプリケーションに使用される LAN パスでは,さらに大幅に低い率が求められます。OpenVMS Cluster における再送タイムアウトの発生状況をよく監視してください。

関連項目: 再送タイムアウトの発生状況の監視については,『OpenVMS Cluster システム』を参照してください。

スイッチまたはブリッジの回復遅延 自己診断時間が短いスイッチまたはブリッジを選択し,高速自動再構成ができるようにそれらを調整してください。ネットワークの要件に合わせてスパニング・ツリーのパラメータを調整することも含みます。

関連項目: LAN ブリッジ・フェールオーバの詳細については,『OpenVMS Cluster システム』を参照してください。

帯域幅 OpenVMS Cluster 通信に使用するすべての LAN パスは,最低 10 Mb/s の公称帯域幅で使用できるものに限定します。LAN セグメントの平均利用率は,任意の 10 秒間に 60% を超えないようにします。

Gigabit Ethernet および 10 Gigabit Ethernet 構成の場合は,可能であればジャンボ・フレームを有効にしてください。

トラフィックの分離 相互の通信頻度が高いノード間では,スイッチまたはブリッジを利用してトラフィックを分離しローカライズしてください。たとえば,スイッチまたはブリッジは,他の LAN から OpenVMS Cluster を分離したり,OpenVMS Cluster 内の通信頻度の高いノードを他の OpenVMS Cluster 内のノードから分離するときに使用します。

複数のアダプタがある重要なシステム間には,LAN によって独立したパスを提供してください。

パケット・サイズ LAN パスが,エンド・ツー・エンドで最低 4474 バイトのデータ・フィールドをサポートしているか確認してください。ジャンボフレームを使用した Gigabit Ethernet デバイスに対しては, NISCS_MAX_PKTSZ システム・パラメータを 8192 バイトに設定してください。

障害によっては,トラフィックが大きなパケット・サイズをサポートする LAN パスから,より小さいサイズのパケットしかサポートしないパスに切り替わることがあります。この種の障害の自動検出と自動回復は実装可能です。



9.4.9 OpenVMS Cluster のシステム・パラメータ

サテライトとサーバがある OpenVMS Cluster には, OpenVMS Cluster を効率よく管理できるシステム・パラメータが用意されています。 表 9-4 は,これらのシステム・パラメータの推奨値をまとめたものです。

表 9-4 OpenVMS Cluster システム・パラメータ
システム・パラメータ サテライト用の値 サーバ用の値
LOCKDIRWT 0 1〜4。 LOCKDIRWT の設定は,ノードがリソース・ディレクトリ・ノードとしてどのようなサービスを行うかに影響します。また,リソース・ツリーのマスタを決定するために使用することもできます。一般的に,1 より大きい設定は,クラスタ・ノードの具体的なワークロードと,各アプリケーションの稼動状況を慎重に調査した後に決定するものであり,本書では説明しません。
SHADOW_MAX_COPY 0 4,環境によってはさらに高い値に設定可能
MSCP_LOAD 0 1
NPAGEDYN スタンドアロン・ノードの場合よりも高い値 サテライト・ノードの場合よりも高い値
PAGEDYN スタンドアロン・ノードの場合よりも高い値 サテライト・ノードの場合よりも高い値
VOTES 0 1
EXPECTED_VOTES OpenVMS Cluster の票の合計値 OpenVMS Cluster の票の合計値
RECNXINTERVL 1 全ノードに同じ値 全ノードに同じ値

1ブリッジ時間と LAN 利用率に関係。

関連項目: これらのパラメータの詳細については,『OpenVMS Cluster システム』および『Volume Shadowing for OpenVMS 説明書』を参照してください。

9.5 Cluster over IP におけるスケーラビリティ

Cluster over IP では,地理的に離れた場所にある最大 96 ノードをサポート・ストレージとともに接続することが可能です。 IP クラスタ通信に拡張 LAN 構成を使用することができます。 LAN スイッチとブリッジはルータに置き換えることができます。ルータは 2 つ以上の論理サブネットの接続に使用でき,ルータの物理インタフェースを 1 対 1 でマッピングする必要はありません。

9.5.1 複数ノードの IP ベースクラスタ・システム

図 9-10 に示すのは,複数のノードが接続された IP ベースのクラスタ・システムです。各ノードは地理的に異なる場所に分散させることができるため,耐障害性と可用性の点で優れています。

図 9-10 複数ノードの IP ベース・クラスタ・システム


長所

  • IP 上のクラスタ通信では,10 Gb/s のスループットを提供する 10 Gigabit Ethernet をサポートします。

  • 構成が容易です。

  • すべてのノードは他のノードとアクセスすることができ,ストレージへの共有直接アクセスが可能です。



9.5.2 IP ベース・クラスタの構成上のガイドライン

以下に示すのは, IP クラスタ通信を使用してクラスタを構成する場合のガイドラインです。

  • リモート・ノードの識別には IP ユニキャスト・アドレスが必要です。

  • システム管理者が相手先を指定しクラスタ・グループ番号で動的に計算される IP マルチキャスト・アドレスが必要です。クラスタ構成については,『OpenVMS Cluster システム』を参照してください。

  • ネットワーク・マスク・アドレスとともにローカル・マシンの IP アドレスが必要となります。

  • IP アドレスを設定し SCS に使用されるローカル LAN アダプタが必要になります。



9.6 I/O のスケーリング

OpenVMS Cluster の拡張性にとって,I/O のスケーラビリティは重要な要素です。 OpenVMS Cluster に構成要素を追加する場合,追加した構成要素がボトルネックになったり,OpenVMS Cluster 全体のパフォーマンスが低下するのを防ぐため,高い I/O スループットが必要になります。I/O スループットに影響を与える要素は,以下のとおりです。

  • ストレージに対する直接アクセスや MSCP サービスによるアクセス

  • MSCP_BUFFER および MSCP_CREDITS システム・パラメータの設定

  • Files-11 などのファイル・システム・テクノロジ

  • 磁気ディスク,半導体ディスク,DECram などのディスク・テクノロジ

  • 読み込み/書き込みの比率

  • I/O サイズ

  • キャッシュとキャッシュ "ヒット" 率

  • "ホット・ファイル" 管理

  • RAID ストラインピングとホスト方式のストラインピング

  • ボリューム・シャドウイング

以上の要素は,I/O スケーラビリティそのものに影響する場合と,スケーラビリティの組み合わせに影響する場合があります。以下の項では,以上の要素について説明するとともに,アプリケーションに変更を加えずに I/O スループットとスケーラビリティを最大限に発揮する方法を説明します。

その他,I/O スループットに対しては,インターコネクトやストレージ・サブシステムの種類が影響します。

関連項目: インターコネクトの詳細については 第 4 章 を,ストレージ・サブシステムの詳細については 第 5 章 を参照してください。 MSCP_BUFFER および MSCP_CREDITS の詳細については,『OpenVMS Cluster システム』を参照してください。


目次 索引

プライバシー ご利用条件・免責事項