Jump to content 日本-日本語

製品  >  ソフトウェア  >  HP-UX   >  Knowledge-on-Demand  >  特集

仮想化のメリットを最大限に活かすHPの仮想化ソリューション・後編

仮想化システムのリソース割り当てを容易にするツール群

HP-UX/Integrityサーバー お問い合せ
コンテンツに進む
仮想化のメリットを最大限に活かすHPの仮想化ソリューション・前編
常に変化するビジネス環境にITシステムを素早く対応させていくための技術として、仮想化が広く利用されている。とはいえ、仮想化ソリューションはシステムの運用や設計に新たな課題をもたらすこともある。前回は仮想化を導入する前段階として、現状を分析しワークロードを的確に把握することの重要性を取り上げた。後編となる今回は、仮想化導入後を想定し、仮想化を効率的に運用していくための課題を取り上げ、HPが提供するツールセットをいくつか紹介していく。
仮想化のメリットを最大限に活かすHPの仮想化ソリューション・後編
仮想化システムが持つ課題
HP Management Virtualization Managerによるリソース管理
2008年4月
テクニカルライター 米田 聡
ページ: 1   2   |   次へ 

仮想化システムが持つ課題

繰り返しになるが、仮想化のメリットは簡単に言うとOSやアプリケーションを物理システムから切り離すことができ、ITシステムを柔軟かつ効率的に運用できる、という点にある。これは広く知られていることだろう。

たとえば、あるワークロードの負荷が急激に高まったとしよう。仮想化されていないシステムでは、物理ハードウェアの増強で対応するしか方法がない。とはいえ、ハードウェアの増強には予算と時間がかかり、ある程度の間はサービス品質の低下を甘受せざるをえなくなる。一方、仮想化されたシステムなら、負荷に応じて柔軟にリソースを一時的に割り当てることができ、物理システムの制約を受けない。サービスの品質が維持でき、しかもリソースの利用効率が上げられる、というわけだ。

このような仮想化の利点は今さら言うまでもないだろうが、本当にリソースの割り当てが柔軟にできるかどうか、という点は考慮すべきだろう。たとえば、仮想サーバーへのリソースを割り当てる作業に一定のスキルが要求される、あるいは人手や時間かがかかるというのでは仮想化の利点は十分に活かされず、何のために仮想化したのか、ということにもなりかねない。仮想化されたシステムの運用が誰にでもできること、容易に操作できること、運用が自動化されていることなどは非常に重要なポイントになる。

さらに、仮想化特有の管理の難しさもある。複数のnParがあり、その中にさらに複数のvParがある、という具合に、仮想化では物理システムと論理システムの2つの側面が絡み合っているためだ。

たとえば、ある物理スイッチに障害が発生したとしよう。その障害はいくつかの仮想システムの障害として現れるだろう。仮想システムの障害が、どの物理スイッチの障害に起因しているのかを素早く把握する必要がある。だが、論理システムから物理システムをたどるのが容易ではない、という状態では障害への対応が遅れて取り返しのつかない事態を招く恐れがある。

HPはこうした仮想化が持つ本来的な困難に対応するツールセットを提供し、仮想化システムの容易な運用を可能にしている。そこで、まず仮想サーバーへのリソース割り当てを管理・自動化するHP Global Workload Managerから紹介していくことにしよう。

リソースの割り当てを自動化し管理を容易にするGlobal Workload Manager

HP Global Workload Manager(以下、gWLM)は、複数の仮想サーバーのリソース共用ポリシーを中央管理サーバーで定義し、ポリシーに従ってリソースの共用を自動的に制御する管理ツールだ。さらに、gWLMにはリソース割り当てをリアルタイムに、あるいは履歴を監視するモニタリングの機能が備わっている。そのモニターを元にレポートを自動的に作成でき、管理者がリソースを利用率の的確な把握すると同時に、リソースの効率的な利用を可能にしてくれる。

また、こうした機能を専門的な知識なしに容易に操作できるのもgWLMの特徴のひとつだ。gWLMは管理ツールHP System Insight Managerに統合され、GUIによる視覚的にわかりやすい画面と簡易な操作性が提供されている。

gWLMでは、あらかじめ設定したいくつかの仮想サーバーが共有するリソースプールから、ワークロードの負荷に応じてポリシーに従ってリソースを動的に割り当てる形を取る。実際の操作例を見ながら、その機能を紹介していくことにしよう。
3つのvParでリソースを共有する設定を行う
図1:3つのvParでリソースを共有する設定を行う

リソース共有ドメインのプロパティを設定
図2:リソース共有ドメインのプロパティを設定

図1ではgWLMで自動的にリソースの割り当てを行うvParを選択し、リソース共有ドメインを作成、そのドメインのプロパティを設定する。図2に示すように、いくつかのプロパティがあるが、その中のModeはリソース共有の動作モードだ。

gWLMには、後述するポリシーに従って実際にリソースを共有し自動割り当てを実行するManagedモードと、Managedモードと同様にリソースの要求などが発生するが実際にはリソース割り当てを行わないAdvisoryモードが用意されている。Advisoryモードでもリソースの要求が発生したことは履歴レポートなどで確認できるため、gWLMの動作を事前に細かく確認することができる。
リソース共有ポリシーの設定
図3:リソース共有ポリシーの設定

図3は、先に設定したリソース共有ドメインで、どのようにリソースを共有するかというポリシーを設定している様子だ。ポリシーはビルトインされたものと、任意のデータを元に管理者が設定できるカスタムポリシーが選択できる。ビルトインされているポリシーの概要は以下のとおりだ。
  • Own/Borrow/lendポリシー
    個々のワークロードが持てるCPUの最大数、最低数、所有数という3つのパラメータだけを設定し、その範囲でワークロードの負荷に応じてCPUリソースを使用するポリシーだ。負荷が高いときには最大数に設定されたCPU数を上限としたCPUが割り当てられ、逆に負荷が軽いときでも割り当てられるCPU数が最低数を下回ることはない。また、ワークロードの負荷が高いときには所有数に設定したCPUが保証されるので、他のワークロードの負荷が高くなったときにでも一定の能力が保証できる設定だ。
  • CPU Utilization
    ワークロードのCPU使用率の下限と上限だけ設定し、その範囲内に収まるようにリソースを自動的に割り当てるポリシーだ。システムのリソースに余裕がある場合は、最大値まで必要に応じてリソースが割り当てられるが、他のワークロードの負荷が高くなりリソースに余裕がなくなると、それぞれのワークロードでリソースを分け合うことになる。この場合でも最小値は保証される。
  • Fixed
    CPUリソースの数を固定するポリシーだ。Fixedが設定された仮想サーバーからはCPUの貸し借りが行われなくなる。
本稿ではCPU Utilizationを設定した例を紹介していくことにしよう。図4のようにポリシーは適宜、変更でき、gWLMによる自動リソースの割り当てを管理者がきめ細かく調節できるようになっている。
CPU Utilizationの編集
図4:CPU Utilizationの編集

また、ポリシーは仮想サーバー全体だけでなく、特定のワークロードに対しても設定が可能だ。たとえば、特定のデータベースサーバーが発生させる負荷を設定した範囲内に抑えるようリソースを割り当てる、といった動作ができるわけだ。
ポリシーは特定のリソースにも設定が可能(例ではデータベースサーバーにポリシーを設定)
図5:ポリシーは特定のリソースにも設定が可能(例ではデータベースサーバーにポリシーを設定)

では、実際にgWLMで設定されたリソース共有ドメインが、どのように動作するのかを見ていくことにしよう。ここまでの例のとおりCPU Utilizationのポリシーが設定され、CPU使用率は75%以下に設定されている。

先に述べたように、gWLMにはリソースの割り当て状況をリアルタイムに監視するモニタリングの機能が備わっている。
gWLMによるモニタリング。視覚的にリソースの割り当て状況と負荷が確認できる
図6:gWLMによるモニタリング。視覚的にリソースの割り当て状況と負荷が確認できる

リソース共有ドメインが設定された3つのvParの状況を示すグラフが図6だ。現在の負荷(青実線)、割り当て可能なCPUの最低数、現在数、最大数が示されている。

ここで、vPar3の負荷が急激に上昇したとする。そのときの動作を示したのが図7だ。
vPar3のCPU使用率が75%以内に収まるようvPar1、vPar2からvPar3にCPUの貸し出しが行われる
図7:vPar3のCPU使用率が75%以内に収まるようvPar1、vPar2からvPar3にCPUの貸し出しが行われる

図7のように自動的にvPar3にリソースの配分が行われ、CPU使用率が75%以内に収まるよう調節された。この状態でvPar2の負荷が高まったらどうなるだろうか。これは実際に動画で見てもらったほうがよいだろう。



このように、ポリシーに従って負荷が軽いvPar1からCPUの貸し出しが行われ、vPar2、vPar3の負荷が自動的に抑えられる。

プールするCPUリソースにはTiCAP(プリペイド制のCPU)も利用できる。設定は容易で、リソース共有ドメインでTiCAPを有効にしておけば、負荷に応じて(権利の範囲内で)TiCAPのCPUを動的に割り当ててくれる。
gWLMはTiCAPにも対応。TiCAPを登録しておけば負荷が高まったときに自動的に使用される
図8:gWLMはTiCAPにも対応。TiCAPを登録しておけば負荷が高まったときに自動的に使用される

以上のようにgWLMではいったん設定してしまえば、リソース割り当ての動作は完全に自動化される。負荷に応じて適切なリソースが割り当てられるためサービスは高いレベルで品質が保たれる。さらに、その設定や管理がSIMによる視覚的でわかりやすい操作で行えることがご理解いただけるだろう。

トップへ ページ: 1   2   |   次へ  次のページへ

本ページの内容は執筆時の情報に基づいており、異なる場合があります。

お問い合わせ

ご購入前のお問い合わせ


ご購入後のお問い合わせ

HPEサポートセンター
製品の標準保証でご利用いただける無償のサービスです。

ショールーム

ショールーム 導入をご検討のお客様へ
業務アプリケーションの継続・標準化・開発性とシステム担当者様、システム開発者様が抱える悩み・疑問に対する解決策実体験して頂けます。
印刷用画面へ
プライバシー ご利用条件・免責事項