日本-日本語

製品  >  ソフトウェア  >  OpenVMS  >  マニュアル

OpenVMS マニュアル


≫ 

OpenVMS V7.3-2
ライブラリ

タイトルページ
目次
まえがき
第 1 章:システム構成の概要
第 2 章:ビジネス要件とアプリケーション要件の決定
第 3 章:システムの選択
第 4 章:インターコネクトの選択
第 5 章:ストレージ・サブシステムの選択
第 6 章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第 7 章:ストレージ・インターコネクトとしての Fibre Channel の構成
第 8 章:可用性を目的とした OpenVMS Cluster の構成
第 9 章:可用性とパフォーマンスを目的とした CI OpenVMS Cluster の構成
第 10 章:スケーラビリティを目的とした OpenVMS Cluster の構成
第 11 章:システム管理の手法
付録 A :インターコネクトとしての SCSI
付録 B :MEMORY CHANNEL 技術概要
付録 C :CI-to-PCI アダプタ (CIPCA) サポート
付録 D :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引



図 10-19 は,Ethernet で接続された 6 つのサテライトと 2 つのブート・サーバです。ブート・サーバ 1 とブート・サーバ 2 は MSCP サーバの動的負荷バランス調整を実行します。各ノードは,ノード間の負荷を調整,共用します。どれかのノードの機能が停止すると,他のノードがその処理を引き受けます。 MSCP 動的負荷調整には,ストレージまでの共用アクセスが必要です。

図 10-19 2 ブート・ノードを備えた 6 サテライト LAN OpenVMS Cluster


図 10-19 に示すこの構成の長所と短所は次のとおりです。

長所

  • MSCP サーバを使用可能にして,サテライトの追加とアクセスできるストレージの拡張に対応できる。

  • 2 ブート・サーバが MSCP 動的負荷バランス調整を実行する。

短所

  • Ethernet がボトルネックや単一点障害の要因になる可能性がある。

図 10-19 に示す LAN が OpenVMS Cluster ボトルネックになる場合,この構成は 図 10-20 のようになります。

10.7.3 2 LAN セグメントを備えた 12 サテライト LAN OpenVMS Cluster

図 10-20 は,2 つの Ethernet セグメントで接続された 12 サテライトと 2 ブート・サーバです。これら 2 つの Ethernet セグメントは, LAN ブリッジでも結合されています。サテライトごとにストレージまでのデュアル・パスがあるので,この構成では,MSCP 動的負荷バランス調整も可能です。

図 10-20 2 LAN セグメントを備えた 12 サテライト OpenVMS Cluster


図 10-20 に示すこの構成の長所と短所は次のとおりです。

長所

  • MSCP サーバを使用可能にして,サテライトの追加とアクセスできるストレージの拡張に対応できる。

  • 2 ブート・サーバで MSCP 動的負荷バランス調整が可能である。
    Ethernet LAN のサテライトの観点から見れば,Alpha ノードや VAX ノードまでのデュアル・パスは MSCP 負荷調整で有利です。

  • 2 LAN セグメントにより, LAN キャパシティが倍増する。

短所

  • この OpenVMS Cluster 構成は,サポートできるサテライト数が制約となる。

  • 1 つしかない HSJ コントローラが,ボトルネックと単一点障害の要因になる可能性がある。

図 10-20 に示す OpenVMS Cluster を現在の制限以上に拡張する場合,この構成は 図 10-21 に示すような内容になります。

10.7.4 FDDI リングを備えた 45 サテライト OpenVMS Cluster

図 10-21 は,45 つのサテライト・ノードを接続した大規模な 51 ノード OpenVMS Cluster です。 3 つのブート・サーバ,Alpha 1,Alpha 2,Alpha 3 は, 3 つのディスク,つまり共通ディスク,ページ・スワップ・ディスク,システム・ディスクを共用します。FDDI リングには,3 つの LAN セグメントが接続されています。各セグメントには,ワークステーション・サテライトが 15 個の他,専用のブート・ノードがあります。

図 10-21 FDDI リングを備えた 45 サテライト OpenVMS Cluster


図 10-21 に示すこの構成の長所と短所は次のとおりです。

長所

  • ブート時間を短縮できる。ノード・カウントが多い OpenVMS Cluster では特に効果的。
    関連項目: 図 10-21 に示すような OpenVMS Cluster のブートについては, 第 11.2.4 項 を参照してください。

  • MSCP サーバを使用可能にして,サテライトからアクセスできるストレージを拡張できる。

  • 各ブート・サーバには,専用のページ・スワップ・ディスクがあるので,システム・ディスクにおける I/O 処理を短縮できる。

  • OpenVMS Cluster 全体の環境ファイルは,すべて共通ディスクにある。そのため,サテライト・ブート・サーバはサテライトまでのルート情報だけを処理すればよい。
    関連項目: 共通ディスクとページ・ディスクおよびスワップ・ディスクの詳細については, 第 11.2 節 を参照してください。

  • FDDI リングにより,Ethernet インターコネクト 1 本の 10 倍のキャパシティが可能。

短所

  • Ethernet LAN セグメント上のサテライト・ブート・サーバは,同じセグメントのサテライトでないとブートできない。



10.7.5 ハイパワー・ワークステーション OpenVMS Cluster

図 10-22 は,FDDI リング上で高いパフォーマンスと可用性を実現できる OpenVMS Cluster 構成です。

図 10-22 ハイパワー・ワークステーション・サーバの構成


図 10-22 には,専用のシステム・ディスクを持った Alpha ワークステーションが数台あります。これらは,FDDI リングに接続されています。 Alpha ワークステーションを FDDI に接続すると各ワークステーションが自身のシステム・ディスクに直接アクセスできるため,高いパフォーマンスが可能になります。また,FDDI 帯域幅は,Ethernet の場合よりも高くなります。Alpha ワークステーションには FDDI アダプタがあるため,これらのワークステーションを FDDI に接続するのは,ワークステーションの重要度に応じた代替策として有効です。FDDI は Ethernet よりも 10 倍高速であり,Alpha ワークステーションには,FDDI の処理速度を活かせるだけの処理キャパシティがあります。

10.7.6 サテライトを備えた OpenVMS Cluster の指針

以下に示すのは,サテライトを持った OpenVMS Cluster をセットアップするときの指針です。

  • 大規模 LAN 構成のサテライトには多くのメモリが必要です。これは,ノードごとに他のすべてのノードとの接続を管理するからです。

  • LAN セグメント 1 つにつき,配置できるサテライト数は,10 から 20 です。

  • 図 10-19図 10-20 に示すように MSCP 動的負荷バランス調整によりリソースを最大限に活用してください。

  • 優れたパフォーマンスを維持するため,MSCP サービスが必要なノード数は最小限にしてください。
    関連項目: MSCP オーバヘッドの詳細については, 第 10.8.1 項 を参照してください。

  • 時間を節約するため,ブート・シーケンスの効率化を図ってください。特に OpenVMS Cluster が大規模な場合や複数のセグメントがある場合にこれは必要です。LAN とシステム・ディスクの処理を削減する方法と,シーケンス内で別々のノード・グループをブートする方法の詳細については, 第 11.2.4 項 を参照してください。

  • ホスト当たり 2 つ以上の LAN アダプタを使用し (OpenVMS Cluster 通信では最高で 4 つをサポート),別々の LAN パスに接続してください。これは,ノード間の同時双方向通信を可能にし,複数のノードを宛先とするトラフィックを可用 LAN 間に分散させるためです。



10.7.7 拡張 LAN 構成の指針

LAN セグメント間にブリッジを使用すると,拡張 LAN (ELAN) を形成できます。シングル LAN に比べたとき,これにより,可用性,接続距離,全帯域幅の強化が可能です。ただし,ELAN では,遅延が増加し,パスによっては帯域幅が低下する因子もあります。パケット損失,キューイング遅延,パケット・サイズのような要因も ELAN のパフォーマンスに影響を与えることがあります。 表 10-3 は,以上の因子を扱う場合に,十分な LAN パフォーマンスを確保するための指針をまとめたものです。

表 10-3 ELAN 構成指針
係数 指針
伝播遅延 パケットが ELAN を移動する時間は,移動距離と, FDDI リング上のブリッジやステーションによってリンク間で中継される回数によって異なります。応答時間を重視する場合は,これらの因子を制御する必要があります。

OpenVMS Cluster 通信に FDDI が使用されている場合,FDDI リングがアイドリング時のリング待ち時間の上限は 400 ms とします。 FDDI パケットが 5.085 マイクロ秒/km で移動し,各ステーションにおける送受信の遅延は約 1-ms です。FDDI 待ち時間は以下のアルゴリズムで計算できます。

待ち時間 = (距離単位 km) * (5.085 ms/km) + (ステーションの数) * (1 ms/ステーション)

ハイ・パフォーマンス・アプリケーションでは,ノード間のブリッジ数を 2 つまでにしてください。ハイ・パフォーマンスが求められない場合,ノード間で使用できるブリッジ数は 7 までとします。

キューイング遅延 ブリッジとホスト・アダプタにおいて,即時着信率がサービス率を超えるとキューイングが発生します。キューイングは以下の方法で制御できます。

  • 通信頻度の高いノード間は,ブリッジ数を削減する。

  • ハイ・パフォーマンスなブリッジとアダプタだけを使用する。

  • LAN におけるトラフィック・バーストを削減する。たとえば,小規模な I/O は結合し,小さいパケットのバーストの代わりに 1 つのパケットにまとめられる。

  • 高速プロセッサと高速 LAN を利用し,ブリッジでトラフィックを分離して, LAN セグメントとホスト・プロセッサの利用レベルを下げる。

パケット損失 ELAN が配信しなかったパケットは,再送信が必要であり,これはネットワーク・リソースの余分な消費や遅延の増加,あるいは帯域幅の低下をもたらします。ブリッジとアダプタに輻輳が生じると,パケットが廃棄されます。このパケット損失を少なくするには,先に説明したキューイングを制御します。

通過時に損傷を受けたパケットも廃棄されます。この問題を制御するには,LAN ハードウェアの構成規則を順守し,電気的な干渉源を排除し,確実にすべてのハードウェアを適正に運用します。

パケット損失は,VMS バージョン 5.5-2 以降を利用すれば緩和できます。これは PEDRIVER 輻輳制御の機能を備えているからです。

再送タイムアウト率では,パケット損失の兆候を知ることができます。ノード間の OpenVMS Cluster トラフィックの場合,送信 1000 回に対しタイムアウト 1 回を限度とします。ハイ・パフォーマンス・アプリケーションに使用される ELAN パスでは,さらに大幅に低い率が求められます。OpenVMS Cluster における再送タイムアウトの発生状況をよく監視してください。

関連項目: 再送タイムアウトの発生状況の監視については,『OpenVMS Cluster システム』を参照してください。

ブリッジ回復遅延 自己診断時間が短いブリッジを選択し,高速自動再構成ができるようブリッジを調整してください。

関連項目: LAN ブリッジ・フェールオーバの詳細については,『OpenVMS Cluster システム』を参照してください。

帯域幅 OpenVMS Cluster 通信に使用するすべての LAN パスは,最低 10 Mb/s の公称帯域幅で使用できるものに限定します。LAN セグメントの平均利用率は,任意の 10 秒間に 60% を超えないようにします。

パフォーマンスの要求度が最も高い通信パスには FDDI だけを使用してください。 2 つの FDDI セグメント間には Ethernet LAN セグメントを配置しないでください。 FDDI 帯域幅は非常に大きいので,Ethernet LAN がボトルネックになります。 1 つの FDDI 上のサーバから別の FDDI 上のクライアントのサービスをするとき,その間に Ethernet LAN があれば,この手法は無効です。FDDI 上にサーバを配置し,Ethernet LAN にクライアントを配置するほうが,より適切です。 図 10-21 を参照してください。

トラフィックの分離 相互の通信頻度が高いノード間では,ブリッジを利用してトラフィックを分離しローカライズしてください。たとえば,ブリッジは,他の ELAN から OpenVMS Cluster を分離したり,OpenVMS Cluster 内の通信頻度の高いノードを他の OpenVMS Cluster 内のノードから分離するときに使用します。

複数のアダプタがある重要なシステム間には,ELAN によって独立したパスを提供してください。

パケット・サイズ NISCS_MAX_PKTSZ システム・パラメータは,FDDI のフル・パケット・サイズを利用できるような調整が可能です。ELAN パスが,エンド・ツー・エンドで最低 4474 バイトのデータ・フィールドをサポートしているか確認してください。

障害によっては,トラフィックが 4474 バイト・パケットをサポートする ELAN パスから,より小さいサイズのパケットしかサポートしないパスに切り替わることがあります。この種の障害の自動検出と自動回復は実装可能です。このような機能では,パケットが宛先 FDDI リンクに配信されると,FDDI フレーム制御バイトの優先順位フィールドの値が ELAN によりゼロに設定されます。IEEE 802.1 ブリッジ準拠の Ethernet-to-FDDI ブリッジ仕様では,この機能をサポートしています。



10.7.8 OpenVMS Cluster のシステム・パラメータ

サテライトとサーバーがある OpenVMS Cluster には,OpenVMS Cluster を効率よく管理できるシステム・パラメータが用意されています。 表 10-4 は,これらのシステム・パラメータの推奨値をまとめたものです。

表 10-4 OpenVMS Cluster システム・パラメータ
システム・パラメータ
サテライト用の値

サーバ用の値
LOCKDIRWT 0 1--4
SHADOW_MAX_COPY 0 1--4
MSCP_LOAD 0 1 または 2
NPAGEDYN スタンドアロン・ノードの場合よりも高い値 サテライト・ノードの場合よりも高い値
PAGEDYN スタンドアロン・ノードの場合よりも高い値 サテライト・ノードの場合よりも高い値
VOTES 0 1
EXPECTED_VOTES OpenVMS Cluster ボーツの合計値 OpenVMS Cluster ボーツの合計値
RECNXINTERVL 1 全ノードに同じ値 全ノードに同じ値

1ブリッジ時間と LAN 利用率に関係。

関連項目: これらのパラメータの詳細については,『OpenVMS Cluster システム』を参照してください。

10.8 I/O のスケーリング

OpenVMS Cluster の拡張性にとって,I/O のスケーラビリティは重要な要素です。 OpenVMS Cluster に構成要素を追加する場合,追加した構成要素がボトルネックになったり,OpenVMS Cluster 全体のパフォーマンスが低下するのを防ぐため,高い I/O スループットが必要になります。I/O スループットに影響を与える要素は,以下のとおりです。

  • ストレージに対する直接アクセスや MSCP サービスによるアクセス

  • Files-11 などのファイル・システム・テクノロジ

  • 磁気ディスク,半導体ディスク,DECram などのディスク・テクノロジ

  • 読み込み/書き込みの比率

  • I/O サイズ

  • キャッシュとキャッシュ "ヒット" 率

  • "ホット・ファイル" 管理

  • RAID ストラインピングとホスト方式のストラインピング

  • ボリューム・シャドウイング

以上の要素は,I/O スケーラビリティそのものに影響する場合と,スケーラビリティの組み合わせに影響する場合があります。以下の項では,以上の要素について説明するとともに,アプリケーションに変更を加えずに I/O スループットとスケーラビリティを最大限に発揮する方法を説明します。

その他,I/O スループットに対しては,インターコネクトやストレージ・サブシステムの種類が影響します。

関連項目: インターコネクトの詳細については 第 4 章 を,ストレージ・サブシステムの詳細については 第 5 章 を参照してください。


目次 索引

印刷用画面へ
プライバシー 本サイト利用時の合意事項