仮想化は、単なる業界の流行語やITトレンドではありません。仮想化とは、1つのハードウェア上で複数のオペレーティング・インスタンスを動作させる技術です。これらの仮想マシン(VM)は、他の物理的なサーバーと同様にアプリケーションやサービスを実行することができ、サーバーの追加購入やサポートに関連するコストを削減することができます。仮想化は、アプリケーションやリソースのプロビジョニングを迅速に行うことができるなどのメリットがあります。さらに、ITの生産性、効率性、俊敏性、および応答性を向上させ、ITリソースを他のタスクやイニシアティブに集中させることができます。しかし、仮想化にはリスクもあります。
仮想化はどのように進化したのか?
仮想化のビジネスケースと仮想化の潜在的なリスクを理解するには、メインフレームがコンピューティングの世界を支配していた時代を振り返る必要があります。
メインフレームは、大企業が最も重要なアプリケーションやシステムを管理するために使用されていました。しかし、メインフレームはサーバーとしても機能し、同時に複数のオペレーティング・システムのインスタンスをホストすることができました。メインフレームは、仮想化という概念の先駆けとなりました。
多くの企業がその可能性にいち早く注目しました。部門やユーザーごとにワークロードを分割し、それぞれに専用のコンピュートリソースを与えることで、より多くの容量と優れたパフォーマンスを実現しようとしたのです。これが、クライアント・サーバーモデルの始まりです。
多くの場合、アプリケーションは1台のサーバー上で実行され、それに多くのPCがアクセスしていました。また、インテル社のx86テクノロジーの登場など、クライアント・サーバー・コンピューティングの高速化、低コスト化、高効率化が進んだ。
すべてがうまくいっていたのですが、その人気が追いついてきました。最終的には、社内の誰もが自分のアプリケーションをホストするためのサーバを欲しがるようになりました。その結果、サーバーの数が増えすぎ、「サーバー・スプロール」と呼ばれるようになり、最大規模のデータセンターでもすぐにいっぱいになってしまいました。
問題はスペースだけではありませんでした。これらのサーバーはいずれも高価で、サポートやメンテナンスのために大規模なサービスが必要でした。全体的なITコストは急増し、多くの企業が新たなアプローチを模索し始めました。
1つのソリューション。x86テクノロジーを使用したあらゆるサーバーを対象とした仮想化アプローチです。仮想化により、1台の物理サーバが多数のVMをホストし、各アプリケーションが必要とする完全な分離とリソースを提供できるようになりました。
新しいアプローチがもたらす新たな懸念
これらはすべて順調に機能していましたが、仮想化層であるハイパーバイザが故障するという新たなリスクが発生しました。さらに悪いことに、仮想化環境で単一の障害が発生すると、ドミノ効果ですべての仮想化アプリケーションにも障害が発生し、許容できないダウンタイムのリスクにつながります。このような事態を防ぐために、多くの企業は非業務用システムの仮想化を選択しました。これにより、万が一障害が発生しても、重要なシステムがダウンすることはありません。
テクノロジーの向上に伴い、企業はハイパーバイザーが必要なパフォーマンスと安定性を提供できることに気づき、本番ワークロードを含むすべてのアプリケーションの仮想化を開始しました。
一方で、この取り組みは難しいものではなく、多くの重要なメリットへの道を開くものと思われました。しかしその一方で、ハードウェアや可用性に関する新たなリスクが発生しました。例えば、ある企業では、1台のサーバーに20台のビジネスクリティカルなVMを置いていたが、そのサーバーが故障してしまったというケースを考えてみましょう。
問題解決にはどのくらいの時間がかかるのか?このダウンタイムはどのくらいのコストがかかるのか?顧客や見込み客、会社の評判に与える長期的な影響は?これらの質問はすべて妥当なものですが、多くの場合、満足のいく答えはありません。
このシナリオは、仮想化戦略を成功させるためには、適切なハードウェアインフラと常時稼働するシステムが必要であることを示しています。次回の記事では、これらのトピックについて、よくある誤解を含めてご紹介します。ご期待ください。