日本-日本語
日本HPホーム 製品 & サービス サポート & ドライバー ソリューション ご購入方法
≫  お問い合わせ

製品とサービス >  ソフトウェアとOS >  OpenVMS >  マニュアル

OpenVMS マニュアル


≫ 

OpenVMS V8.3
ライブラリ

タイトルページ
目次
まえがき
第 1 章:システム構成の概要
第 2 章:ビジネス要件とアプリケーション要件の決定
第 3 章:システムの選択
第 4 章:インターコネクトの選択
第 5 章:ストレージ・サブシステムの選択
第 6 章:SCSI と Fibre Channel ストレージに対するマルチパスの構成
第 7 章:ストレージ・インターコネクトとしての Fibre Channel の構成
第 8 章:可用性を目的とした OpenVMS Cluster の構成
第 9 章:可用性とパフォーマンスを目的とした CI OpenVMS Cluster の構成
第 10 章:スケーラビリティを目的とした OpenVMS Cluster の構成
第 11 章:システム管理の手法
付録 A :インターコネクトとしての SCSI
付録 B :MEMORY CHANNEL 技術概要
付録 C :CI-to-PCI アダプタ (CIPCA) サポート
付録 D :マルチサイト OpenVMS Cluster
索引
PDF
OpenVMS ホーム

HP OpenVMS
OpenVMS Cluster 構成ガイド


目次 索引

第 10 章
スケーラビリティを目的とした OpenVMS Cluster の構成

この章では,さまざまな OpenVMS Cluster でスケーラビリティを最大限に活かす方法を説明します。

10.1 スケーラビリティとは?

スケーラビリティは,初期の構成機器をフルに活用しながら,任意のシステム,ストレージ,インターコネクトの各次元で, OpenVMS Cluster システムを拡張できる能力をいいます。 図 10-1 にも示すように OpenVMS Clusterシステムの拡張はさまざまな次元に見られます。また,各次元ではユーザ・アプリケーションの拡張も可能です。

図 10-1 OpenVMS Cluster 拡張次元




表 10-1 は,OpenVMS Cluster におけるシステム,ストレージ,インターコネクトの拡張次元を図示したものです。

表 10-1 OpenVMS Cluster におけるスケーラブルな次元
対象次元 拡張要因
システム
CPU システム内に SMP を実装。

クラスタにシステムを追加。

クラスタに各種プロセッサ・サイズを格納。

クラスタに大きなシステムを追加。

VAX システムから Alpha システムに移行。

メモリ システムにメモリを追加。
I/O インターコネクトとアダプタをシステムに追加。

MEMORY CHANNEL をクラスタに追加して I/O インターコネクトのロードを抑制。

OpenVMS システム・パラメータの調整。

OpenVMS Alpha の移動。

アダプタ ストレージ・アダプタをシステムに追加。

CI アダプタと DSSI アダプタをシステムに追加。

LAN アダプタをシステムに追加。

ストレージ
媒体 ディスクをクラスタに追加。

テープと CD-ROM をクラスタに追加。

ボリューム・シャドウイング ディスクのシャドウイングによる可用性の強化。

各コントローラのディスクのシャドウイング。

各システムのディスクのシャドウイング。

I/O 半導体ディスクまたは DECram ディスクをクラスタに追加。

キャッシュ付きディスクとコントローラをクラスタに追加。

RAID ディスクをクラスタに追加。

コントローラとアレイ ディスクとテープをシステムからコントローラに移動。

ディスクとテープをアレイに組み合わせ。

コントローラとアレイをクラスタに追加。

インターコネクト
LAN Ethernet セグメントと FDDI セグメントの追加。

Ethernet から FDDI へのアップグレード。

冗長セグメントの追加とセグメントのブリッジ化。

CI,DSSI,Fibre Channel,SCSI,MEMORY CHANNEL CI,DSSI,Fibre Channel,SCSI,MEMORY CHANNEL インターコネクトをクラスタに追加,または冗長インターコネクトをクラスタに追加。
I/O キャパシティを目的とした高速インターコネクトの追加。

キャパシティと可用性を目的とした冗長インターコネクトの追加。

距離 室内または建物内でクラスタを展開。

都市内または数軒のビル間でクラスタを展開。

2 個所のサイト間でクラスタを展開 (距離 40 km)。

表 10-1 に掲載した構成要素を,ユーザが選択した任意の方法で追加する機能は, OpenVMS Cluster における重要な機能に位置づけられます。この章や,製品のマニュアルの説明や指針に従って,ハードウェアとソフトウェアはさまざまな方法の組み合わせで追加することができます。特定の次元における OpenVMS Cluster の拡張をする場合は,他の次元との関係で長所や短所を検討してください。 表 10-2 は, OpenVMS Cluster のスケーラビリティを強化するための手法をまとめたものです。これらのスケーラビリティ手法を理解すれば,高いレベルのパフォーマンスと可用性を維持しながら OpenVMS Cluster の拡張に対応することができます。

10.2 スケーラビリティの高い OpenVMS Cluster の構成手法

選択するハードウェアと,その構成に適用する手法は, OpenVMS Cluster のスケーラビリティと重要な関係があります。この項では,スケーラビリティの高い OpenVMS Cluster の構成方法を説明します。

10.2.1 スケーラビリティの手法

表 10-2 は,スケーラビリティについて重要度の高い順に手法を並べています。この章では,この手法の実装方法を多くの図を使って説明します。

表 10-2 スケーラビリティの手法
手法 説明
キャパシティの計画 キャパシティの 80% ( ほぼパフォーマンスとしては飽和状態 ) を超えてシステムを実行している状態では,それ以上の拡張性は望めません。

ビジネスやアプリケーションが拡大するかどうかを見極める必要があります。プロセッサ,メモリ,I/O に将来,どのような仕様が必要になるかを見積もることも大切です。

全ストレージへの共用の直接アクセス コンピュータと I/O のパフォーマンスのスケーラビリティは,全システムから全ストレージまで共用の直接アクセスが設定されているかどうかで大きく異なります。

以下に示す CI と DSSI OpenVMS Cluster の図では,MSCP のオーバヘッドなしでストレージへの共用直接アクセスを実装したさまざまな例を示します。

関連項目: MSCP のオーバヘッドの詳細については, 第 10.8.1 項 を参照してください。

ノード・カウントの範囲を,3 から 16 に制限 OpenVMS Cluster が小さければパフォーマンスの管理や調整がしやすく,大きな OpenVMS Cluster よりも OpenVMS Cluster 通信のオーバヘッドが少なくて済みます。ノード・カウントを抑制するには,強力なプロセッサにアップグレードし,OpenVMS SMP の能力を活かします。

サーバに負荷がかかり過ぎてコンピューティングのボトルネックになっている場合,アプリケーションをノード間に分散できないか検討します。可能であれば,ノードを追加します。 不可能な場合は,プロセッサ (SMP) を追加します。

システム・ボトルネックを取り除く OpenVMS Cluster 機能のキャパシティを最大化するにあたっては,その機能を実装するハードウェアとソフトウェアの構成要素を検討します。ボトルネックになっている構成要素があると,他の構成要素のポテンシャルをフルに活せなくなります。ボトルネックを探し出し,その要因を削減すれば,OpenVMS Cluster のキャパシティを強化できます。
MSCP サーバを使用可能にする MSCP サーバを利用すれば,OpenVMS Cluster にサテライトを追加でき,すべてのストレージへのアクセスをノード間で共用できます。また,MSCP サーバには,インターコネクトに障害が発生すると共用ストレージに対するフェールオーバを実行する機能があります。
相互依存の緩和と単純な構成 システム・ディスクが 1 つだけの OpenVMS Cluster システムは,そのディスクだけに OpenVMS Cluster の実行を依存します。ディスクや,そのディスクのサービスをしているノード,あるいはノード間のインターコネクトに障害が発生すると, OpenVMS Cluster システム全体が使用できなくなります。
サービス用リソースの確保 容量の小さいディスク・サーバで多くのディスクをサテライトに提供する場合, OpenVMS Cluster 全体のキャパシティが制約されます。サーバが過剰負荷になるとボトルネックになり,フェールオーバによる回復操作を効果的に処理できなくなるので注意してください。
リソースとコンシューマを近づける サーバ ( リソース ) とサテライト ( コンシューマ ) の間を近づけます。 OpenVMS Cluster のノード数を追加する場合は,まず分割することを検討してください。詳細については, 第 11.2.4 項 を参照してください。
適切なシステム・パラメータの設定 OpenVMS Cluster の拡張度合いがめざましい場合,重要なシステム・パラメータが現状に合わなくなることがあります。このようなときは,重要なシステム・パラメータを自動的に計算し,ページ,スワップ,ダンプの各ファイルのサイズ調整ができる AUTOGEN を実行してください。



10.3 CI OpenVMS Cluster におけるスケーラビリティ (Alpha および VAX)

1 つの CI スター・カプラには,最高で 32 のノードを付けることができます。その内,16 ノードをシステムにでき,残りをストレージ・コントローラとストレージにできます。 図 10-2図 10-3図 10-4 は,2 ノード CI OpenVMS Cluster から 7 ノード CI OpenVMS Cluster への拡張状況を示しています。

10.3.1 2 ノード CI OpenVMS Cluster

図 10-2 では,クォーラム・ディスクを含むストレージまで 2 つのノードから共用の直接アクセスが設定されています。VAX システムと Alpha システムのどちらにも専用のシステム・ディスクが設定されています。

図 10-2 2 ノード CI OpenVMS Cluster


図 10-2 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードが全ストレージへの直接アクセスを共用する。

  • 構成内のノードとストレージが拡張されても,全ノードから全ストレージまでの共用の直接アクセスを維持できる。

  • CI に障害が発生しても, MSCP サーバが LAN インターコネクトへのフェールオーバに対応できる。 MSCP サーバを有効にしておけば,サテライトの追加も可能である。

  • この節で示した CI の構成例の中では,この構成が最も経済的である。

短所

  • 1 つしかない HSJ コントローラがボトルネックと単一点障害の要因になる可能性がある。

ストレージ・リソースや処理リソースの需要が増加すると, OpenVMS Cluster の構成は 図 10-3 のようになります。

10.3.2 3 ノード CI OpenVMS Cluster

図 10-3 では, 3 つのノードは CI インターコネクトで 2 つの HSJ コントローラに接続されています。重要なシステム・ディスクは,デュアル・ポート化され,シャドウ化されています。

図 10-3 3 ノード CI OpenVMS Cluster


図 10-3 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードが全ストレージへの直接アクセスを共用する。

  • この構成のノードやストレージが拡張されても,全ノードはストレージへの直接アクセスを共用できる。

  • CI に障害が発生しても, MSCP サーバが LAN インターコネクトへのフェールオーバに対応できる。 MSCP サーバを有効にしておけば,サテライトの追加も可能である。

  • ボリュームのシャドウ化とディスクのデュアル・ポート化でデータの可用性が強化される。

短所

  • HSJ がボトルネックになる可能性がある。

I/O 処理が CI インターコネクトのキャパシティを超えると, OpenVMS Cluster の構成は 図 10-4 のようになります。

10.3.3 7 ノード CI OpenVMS Cluster

図 10-4 に示す 7 ノードは,それぞれ 2 つのスター・カプラとすべてのストレージに直接アクセスできます。

図 10-4 7 ノード CI OpenVMS Cluster


図 10-4 に示すこの構成の長所と短所は次のとおりです。

長所

  • 全ノードが全ストレージへの直接アクセスを共用する。

  • 図 10-3 に示した構成と比べて,この構成では,ストレージ領域,処理能力,CI インターコネクトのキャパシティが 2 倍を超える。

  • プロセッサとストレージ間の 2 本の CI インターコネクトにより,パスが 1 本の場合と比べて通信パフォーマンスが倍増する。

  • ボリュームのシャドウ化とディスクのデュアル・ポート化により,データの可用性が強化される。

短所

  • 構成が複雑なので,正しく構成,調整,管理するには経験が必要となる。



10.3.4 CI OpenVMS Cluster の指針

以下の指針に従って,CI OpenVMS Cluster を構成してください。

  • 全システムが全ストレージへの直接アクセスを共用すること。

  • 4 ノードを超える CI OpenVMS Cluster では,システム・パフォーマンスを強化するため,第 2 のシステム・ディスクを用意すること。
    関連項目: システム・ディスクの詳細については, 第 11.2 節 を参照してください。

  • システム,インターコネクト,ストレージにおいてそのキャパシティをフルに活かすためには,ボトルネックを排除する必要があります。これらの構成要素の 1 つでも I/O キャパシティの処理能力が不足していると,他の構成要素はどれもそのキャパシティをフルに活かすことはできません。ノード上の I/O の合計値が CI キャパシティとストレージ・キャパシティを超えないように注意します。ノード上の I/O の合計値を計算する場合,ロック・マネージャ・インターノード通信用に 5% から 10% の係数の余裕を考慮に入れてください。
    一般に,合計値の計算には以下の規則を適用します。

    • ノード上のすべての I/O の合計にインターノード通信を足した値が, CI キャパシティを超えないこと。

    • CI キャパシティが,ストレージ・キャパシティの合計値を超えないこと。



10.3.5 CI OpenVMS Cluster のボリューム・シャドウイングにおける指針

ボリューム・シャドウイングは,可用性の強化を目的としたもので,パフォーマンスは対象外です。ただし,以下のボリューム・シャドウイングの手法では, I/O キャパシティを最大限に維持しながら可用性の強化することができます。以下の例では,CI の構成を示していますが,DSSI と SCSI の構成にも適用できます。

図 10-5 シングル・コントローラ上のボリューム・シャドウイング


図 10-5 では, 2 つのメンバ・シャドウ・セットとともに HSJ に 2 ノードが接続されています。

この方法の短所として,コントローラが単一点障害の要因になる可能性があります。 図 10-6 における構成は,すべてのコントローラ間のシャドウイングの例を示しています。これにより, 1 つのコントローラに障害が発生しても全体が使用できなくなることはありません。すべての HSJ コントローラや HSC コントローラにシャドウイングをすると, OpenVMS Cluster システムにおけるスケーラビリティと可用性を最適化できます。

図 10-6 すべてのコントローラに対するボリューム・シャドウイング


図 10-6 にあるように,すべてのコントローラに対してシャドウイングする方法は,3 通りあります。

  • 手法 A では,シャドウ・セット内の各ボリュームは別々のコントローラに接続されています。この構成は,各ボリュームが各コントローラに接続されていないので最適とはいえません。

  • 手法 B では,別々のコントローラからボリュームまで 2 本のパスを備えることでデュアル・ポート化したデバイスが示されています。この方式は,2 つの HSC コントローラから単独のストレージ・デバイスに直接アクセスできるので最適な手法の 1 つと言えます。

  • 手法 C には,すべての SCSI バス上でシャドウ化された HSJ コントローラが示されています。これも,2 つの HSJ コントローラが単独のストレージ・デバイスに直接アクセスできるため最適な手法の 1 つです。

図 10-7 は,すべてのノードを対象にしたシャドウイングの例です。

図 10-7 すべてのノードを対象にしたボリューム・シャドウイング


図 10-7 にあるように,すべてのノードでシャドウイングすると距離面で融通性があり有利です。ただし,書き込み I/O で MSCP サーバにオーバヘッドがかかります。また,ノードのどれかに障害が発生し, OpenVMS Cluster へ復帰する際にコピー操作が必要になります。

ボリュームが複数あれば,コントローラ内のシャドウイングと,すべてのコントローラに対するシャドウイングの方が,すべてのノードに対してシャドウイングをするよりも効果的です。

関連項目: 詳細については,『Volume Shadowing for OpenVMS 説明書』を参照してください。


目次 索引

印刷用画面へ
プライバシー 本サイト利用時の合意事項 ウェブマスターに連絡