日本-日本語

製品  >  ソフトウェア  >  OpenVMS  >  マニュアル

OpenVMS マニュアル


≫ 

OpenVMS V8.3
ライブラリ

タイトルページ
目次
まえがき
第 1 章:OpenVMS Cluster システムの管理の概要
第 2 章:OpenVMS Cluster の概念
第 3 章:OpenVMS Cluster インターコネクト構成
第 4 章:OpenVMS Cluster オペレーティング環境
第 5 章:共用環境の準備
第 6 章:クラスタ・ストレージ・デバイス
第 7 章:クラスタ・キューの設定と管理
第 8 章:OpenVMS Cluster システムの構成
第 9 章:大規模な OpenVMS Cluster システムの構築
第 10 章:OpenVMS Cluster システムの保守
付録 A :クラスタ・システム・パラメータ
付録 B :共通ファイルの作成
付録 C :クラスタのトラブルシューティング
付録 D :LAN 制御のためのサンプル・プログラム
付録 E :LAN 制御のためのサブルーチン
付録 F :NISCA プロトコルのトラブルシューティング
付録 G :NISCA トランスポート・プロトコル・チャネル選択および輻輳制御
索引
PDF
OpenVMS ホーム
OpenVMS | HPE 日本

OpenVMS
OpenVMS Cluster システム


目次 索引

第 3 章
OpenVMS Cluster インターコネクト構成

この章では,さまざまな種類の OpenVMS Cluster 構成の概要を示し,相互接続 (インターコネクト) の方法についても説明します。

関連項目: サポートされる OpenVMS Cluster 構成の正確な情報については,以下を参照してください。

  • 『 OpenVMS Cluster Software Software Product Description 』 (SPD 29.78.xx)

  • 『OpenVMS Cluster 構成ガイド』



3.1 概要

どの種類の OpenVMS Cluster の場合も,クラスタ内のすべての Alpha ノードと VAX ノードは,他のすべてのノードに直接接続されていなければなりません。各サイトでは,以下の 1 つ以上のインターコネクトを使用できます。

  • LAN

    • ATM

    • Ethernet (10/100 およびギガビット・イーサネット)

    • FDDI

  • CI

  • DSSI

  • MEMORY CHANNEL

  • SCSI (ノード間 [SCS] 通信のために第 2 のインターコネクトが必要です)

  • Fibre Channel (ノード間 [SCS] 通信のために第 2 のインターコネクトが必要です)

必要な処理と使用できるハードウェア・リソースによって,個々の OpenVMS Cluster システムの構成方法が決定されます。構成に関するこの章の説明は,これらの物理インターコネクトをもとに行っています。

3.2 CI によってインターコネクトされる OpenVMS Cluster システム

CI は,OpenVMS Cluster 通信のために最初に使用されたインターコネクトです。CI は VAX ノードと Alpha ノード,および HSC ノードと HSJ ノードの間で,2 パスで 1 秒間に 70 メガビットの速度での情報交換をサポートします。

3.2.1 設計

CI は,ストレージへのアクセスと,信頼性の高いホスト間通信を目的に設計されています。CI は,Alpha ノードおよび VAX ノードをディスクおよびテープ・ストレージ・デバイスに接続したり,ノードを相互に接続するための,性能と可用性の高い方法です。クラスタ通信に CI を利用する OpenVMS Cluster システムでは,コンピュータ,HSC サブシステム,HSJ サブシステムの共通の接続ポイントとして,スター・カプラが使用されます。

3.2.2 例

図 3-1 は,CI コンポーネントの典型的な構成方法を示しています。

図 3-1 CI を使用する OpenVMS Cluster 構成


注意: CI OpenVMS Cluster システムにワークステーションを追加する場合,構成の中でイーサネットや FDDI などの別の種類のインターコネクトを利用しなければなりません。ワークステーションは通常,OpenVMS Cluster システムでサテライトとして構成されます ( 第 3.4.4 項 を参照)。

関連項目: 既存の CI OpenVMS Cluster システムにサテライトを追加する方法については, 第 8.2 節 を参照してください。

3.2.3 スター・カプラ

図 3-1 の CI 構成で,すべての CI ラインを接続するスター・カプラで障害が発生すると,システム全体がダウンするように見えます。しかし実際には,どのキャビネットにも 2 つのスター・カプラがあるため,スター・カプラで障害が発生しても,クラスタ全体がダウンすることはありません。

スター・カプラは電源障害の影響も受けません。それは,スター・カプラには電力が供給されるコンポーネントがなく,高周波パルス・トランスとして設計されているからです。スター・カプラは処理やバッファリングを行わないため, I/O スループットのボトルネックにもなりません。CI ケーブルの完全な速度で動作することができます。しかし,I/O が非常に大量に実行され,CI 帯域幅を越えるような場合には,複数のスター・カプラが必要になります。

3.3 DSSI でインターコネクトされた OpenVMS Cluster システム

DSSI (DIGITAL Storage Systems Interconnect) は,中程度の帯域幅のインターコネクトであり,Alpha ノードと VAX ノードがディスク/テープ周辺デバイスにアクセスするために使用できます。各周辺デバイスは,独自のコントローラと独自の MSCP サーバを内蔵した ISE (integrated storage element) であり, DSSI 上の他の ISE と並列に動作します。

3.3.1 設計

DSSI は主にディスクおよびテープ・ストレージへのアクセスを目的として設計されていますが,OpenVMS Cluster プロトコルを使用する少ない数のノードを接続するのにも優れた方法であることが実証されています。各 DSSI ポートは 1 つの DSSI バスに接続されます。CI の場合と同様に,複数の DSSI ポートを 1 つのノードに接続して,ノード間に冗長なパスを提供することができます。しかし,CI の場合と異なり,DSSI は冗長パスを提供しません。

3.3.2 可用性

ISE デバイスと DSSI バスを使用する OpenVMS Cluster 構成は,高い可用性,柔軟性,拡張性,簡単なシステム管理機能を備えています。

OpenVMS Cluster 構成内の DSSI ノードは,共通のシステム・ディスク,および DSSI バスに直接接続されているすべてのデータ・ディスクにアクセスでき,サテライトがこれらのディスクにアクセスするためのサービスも提供します。サテライト (およびターミナル・サーバを介して接続されているユーザ) は,ブート・サーバとして指定されているどのノードからもすべてのディスクにアクセスできます。1 台のブート・サーバで障害が発生しても,ディスク・アクセス機能は他のサーバにフェールオーバされるため,サテライトで稼動しているアプリケーションはそのまま続行できます。ターミナル・サーバなど,非インテリジェント・デバイスで稼動しているアプリケーションに割り込みがかかった場合,ターミナルのユーザは再度ログインして,ジョブを再起動できます。

3.3.3 ガイドライン

DSSI OpenVMS Cluster システムの構成に関する一般的なガイドラインをまとめると,以下のようになります。

  • 現在,合計 4 台の Alpha/VAX ノードを共通の DSSI バスに接続できます。

  • 複数の DSSI バスが 1 つの OpenVMS Cluster 構成で動作できます。したがって,システム構成に含むことができるストレージの量を大幅に拡大できます。

関連項目: 同じ DSSI バス上に存在できる CPU と DSSI I/O アダプタの種類には,制約があります。DSSI OpenVMS Cluster システムの最新の構成情報については,サービス担当者に問い合わせるか,または『OpenVMS Cluster Software Software Product Description』 (SPD) を参照してください。

3.3.4 例

図 3-2 は,典型的な DSSI 構成を示しています。

図 3-2 DSSI OpenVMS Cluster 構成




イーサネット (10/100 およびギガビット),FDDI および ATM インターコネクトは,業界標準のローカル・エリア・ネットワーク (LAN) であり,広範囲にわたるネットワーク・ユーザが広く利用しています。 OpenVMS Cluster システムが LAN で接続されている場合,クラスタ通信は,CI ポート機能をエミュレートするポート・ドライバ (PEDRIVER) によって実行されます。

3.4.1 設計

OpenVMS Cluster ソフトウェアは,DECnet,TCP/IP, SCS プロトコルで,イーサネット,ATM,および FDDI ポートとインターコネクトを同時に使用するように設計されています。この機能は,LAN データ・リンク・ソフトウェアがハードウェア・ポートを制御できるようにすることで実現されています。このソフトウェアは,クラスタ・プロトコルが単に共用ハードウェア・リソースの別のユーザになるように,マルチプレキシング機能を提供します。この概念については, 図 2-1 を参照してください。

3.4.2 クラスタ・グループ番号とクラスタ・パスワード

1 つの LAN で複数の LAN ベースの OpenVMS Cluster システムをサポートできます。各 OpenVMS Cluster は,固有のクラスタ・グループ番号とクラスタ・パスワードによって識別され,安全に保護されます。クラスタ・グループ番号とクラスタ・パスワードの詳細については, 第 2 章 を参照してください。

3.4.3 サーバ

LAN でインターコネクトされた OpenVMS Cluster コンピュータは一般に,サーバまたはサテライトとして構成されます。以下の表ではサーバについて説明しています。

サーバの種類 説明
MOP サーバ MOP (Maintenance Operations Protocol) を使用して, OpenVMS ブート・ドライバをサテライトにロードする。
ディスク・サーバ ローカルに接続されているディスクや,CI または DSSI で接続されているディスクを,LAN を介してサテライトから利用できるようにするには,MSCP サーバ・ソフトウェアを使用する。
テープ・サーバ ローカルに接続されているテープや,CI または DSSI で接続されているテープを,LAN を介してサテライト・ノードから利用できるようにするには,TMSCP サーバ・ソフトウェアを使用する。
ブート・サーバ MOP サーバとディスク・サーバの組み合わせであり, 1 つ以上の Alpha または VAX システム・ディスクをサービスする。ブート・サーバとディスク・サーバを使用することで,ユーザおよびアプリケーション・データ・ディスクはクラスタ全体から利用できるようになる。これらのサーバは, OpenVMS Cluster 内で最も強力なコンピュータでなければならず,クラスタ内でもっとも帯域幅の広い LAN アダプタを使用しなければならない。ブート・サーバは常に MSCP サーバ・ソフトウェアを実行しなければならない。



3.4.4 サテライト

サテライトとは,ローカル・システム・ディスクを搭載していないコンピュータです。一般に,サテライトはクラスタ・リソースを使用しますが,ディスク・サービス,テープ・サービス,バッチ処理の機能を提供することもできます。サテライトにローカル・ディスクが搭載されている場合,ページングとスワップのためにこれらのローカル・ディスクを使用することで,性能を向上できます。

サテライトは,システム・ディスクをサービスするローカルのブート・サーバ (または MOP サーバとディスク・サーバ) からブートされます。サテライトのブートでの MOP サーバおよびディスク・サーバの機能については, 第 3.4.5 項 を参照してください。

注意: Alpha システム・ディスクは,VAX コンピュータにデータ・ディスクとしてマウントすることができ,MOP が適切に設定されていれば,Alpha サテライトのブートに使用できます。同様に,VAX システム・ディスクは,Alpha コンピュータにマウントすることができ,MOP が正しく設定されていれば, VAX サテライトのブートに使用できます。

関連項目: アーキテクチャ間でのブートについては, 第 10.5 節 を参照してください。

3.4.5 サテライトのブート

サテライトがオペレーティング・システムのロードを要求すると,適切な OpenVMS Alpha または OpenVMS VAX オペレーティング・システムの MOP サーバがブートストラップ・イメージをサテライトに送信します。その後,サテライトはディスク・サーバからオペレーティング・システムの残りの部分をロードし,クラスタに参加できるようになります。ブート時の一連の動作については, 表 3-1 を参照してください。

表 3-1 サテライト・ブート・プロセス
ステップ 動作 説明
1 サテライトが MOP サービスを要求する。 これは,サテライトがネットワークに送信する最初のブート要求である。 MOP サービスが有効に設定されていて,データベースに特定のサテライト・ノードの LAN アドレスが格納されているノードはすべて,そのサテライトの MOP サーバになることができる。
2 MOP サーバが Alpha または VAX システムをロードする。 ++MOP サーバは, SYS$SYSTEM:APB.EXE プログラムと必要なパラメータをダウンライン・ロードすることで,Alpha サテライト・ブートに応答する。

+MOP サーバは, SYS$SHARE:NISCS_LOAD.EXE プログラムと必要なパラメータをダウンライン・ロードすることで,VAX サテライト・ブート要求に応答する。

Alpha コンピュータと VAX コンピュータの場合,以下のパラメータが含まれる。

  • システム・ディスク名

  • サテライトのルート番号

3 サテライトがシステム・ディスクおよびルートから追加パラメータを検索する。 サテライトは, SCSSYSTEMID,SCSNODE,NISCS_CONV_BOOT などの OpenVMS Cluster システム・パラメータを検索する。また,クラスタ・グループ・コードとパスワードも検索する。
4 サテライトがロード・プログラムを実行する。 このプログラムは,サテライト・システム・ディスクのディスク・サーバに対して SCS 接続を確立し, SYSBOOT.EXE プログラムをロードする。

++Alpha 固有
+VAX 固有



図 3-3 は,1 台の Alpha サーバ・ノードと 1 つの Alpha システム・ディスクを含み,LAN でインターコネクトされた OpenVMS Cluster システムを示しています。

注意: この構成に VAX サテライトを含むには, 第 10.5 節 の説明に従って, VAX システム・ディスクを Alpha サーバ・ノードで構成します。

図 3-3 1 台のサーバ・ノードと 1 つのシステム・ディスクを含む LAN OpenVMS Cluster システム


図 3-3 で,サーバ・ノード (およびそのシステム・ディスク) で障害が発生すると,クラスタ全体がダウンします。サーバ・ノードで障害が発生すると,サテライト・ノードは,システム・ディスクも含めて,どの共用ディスクにもアクセスできなくなります。一部のサテライト・ノードには,ローカルにディスクが接続されていることに注意してください。これらのディスクの一部をシステム・ディスクに変換すれば,サテライト・ノードは独自のローカル・システム・ディスクからブートできます。

図 3-4 は,LAN および Fibre Channel インターコネクトを使用している OpenVMS Cluster システムの例を示しています。

図 3-4 LAN および Fibre Channel OpenVMS Cluster システム:構成例


LAN は,A ノードおよび B ノードと,C ノードおよび D ノードを接続して,1 つの OpenVMS Cluster システムを形成します。

図 3-4 では,重要なデータ・ストレージ・デバイスを同一の状態に維持するために (シャドウ・セット A と B),Volume Shadowing for OpenVMS が使用されています。あるサイトでシャドウイングされているディスクにデータが書き込まれると,そのデータはもう 1 つのサイトでも書き込まれます。しかし,この構成では,クラスタ・インターコネクトを介してシャドウ・セットにサービスするために MSCP サーバを使用しなければならないため,データの高可用性という利点は実現されても,オーバーヘッドのために性能が犠牲になります。

図 3-5 では,ブリッジからサーバ CPU ノードまで,イーサネットを使用して FDDI を構成する方法を示しています。この構成では,全体的なスループットを向上できます。イーサネット・セグメントの利用負荷が高い OpenVMS Cluster システムでは,イーサネット・バックボーンをより高速な LAN に変更することで,イーサネットによる性能のボトルネックを防止できます。

図 3-5 OpenVMS Cluster システムでの FDDI とイーサネットの組み合わせ


コメント:

  • FDDI では長距離接続が可能なため,各サテライト LAN セグメントは複数のビルや複数の都市に分散して設置することが可能です。

  • FDDI ではイーサネットより長距離接続が可能になるため,コンピューティング環境で新たな OpenVMS Cluster システムを構築できます。これまでは個々のイーサネット・セグメントに存在していたサーバ・ノードを,右側の大規模なノードに置き換えることができます。

  • VAX コンピュータと Alpha コンピュータには,ストレージ用の CI 接続があります。現在,ストレージ・コントローラは FDDI に直接接続されません。FDDI に接続されている CPU ノードはローカルにストレージを保有するか,または別のインターコネクトを介してストレージにアクセスできるようにしなければなりません。
    OpenVMS Cluster システムに FDDI で接続された複数のノードがある場合,これらのCPU ノードはおそらく,ストレージ用に CI 接続または DSSI 接続を使用します。 図 3-5 で,CI によって接続された VAX コンピュータと Alpha コンピュータは, OpenVMS Cluster システムの中で突出した部分であると考えられます。


目次 索引

印刷用画面へ
プライバシー 本サイト利用時の合意事項