仮想化は、単なる業界の流行語やITトレンドではありません。仮想化とは、1つのハードウェア上で複数のオペレーティング・インスタンスを動作させる技術です。これらの仮想マシン(VM)は、他の物理的なサーバーと同様にアプリケーションやサービスを実行することができ、サーバーの追加購入やサポートに関連するコストを削減することができます。仮想化は、アプリケーションやリソースのプロビジョニングを迅速に行うことができるなどのメリットがあります。さらに、ITの生産性、効率性、俊敏性、および応答性を向上させ、ITリソースを他のタスクやイニシアティブに集中させることができます。しかし、仮想化にはリスクもあります。
仮想化はどのように進化したのか?
仮想化のビジネスケースと仮想化の潜在的なリスクを理解するには、メインフレームがコンピューティングの世界を支配していた時代を振り返る必要があります。
メインフレームは、大企業が最も重要なアプリケーションやシステムを管理するために使用されていました。しかし、メインフレームはサーバーとしても機能し、同時に複数のオペレーティング・システムのインスタンスをホストすることができました。メインフレームは、仮想化という概念の先駆けとなりました。
多くの組織は、その可能性にいち早く気付きました。多くの企業は、さまざまな部門やユーザーのためにワークロードを分割し、専用のコンピュートリソースを与えて容量とパフォーマンスを向上させるようになりました。これがクライアント・サーバ・モデルの始まりでした。
ほとんどの場合、アプリケーションは 1 台のサーバー上で実行され、多くの異なる PC からアクセスされていました。インテルのx86技術の出現などの他の進歩は、すべてのクライアント・サーバー・コンピューティングをより速く、より安く、より効果的にするのに役立ちました。
すべてがうまくいっていたのですが、その人気が追いついてきました。最終的には、社内の誰もが自分のアプリケーションをホストするためのサーバを欲しがるようになりました。その結果、サーバーの数が増えすぎ、「サーバー・スプロール」と呼ばれるようになり、最大規模のデータセンターでもすぐに満杯になってしまいました。
懸念事項はスペースだけではありませんでした。これらのサーバーはすべて高価で、サポートやメンテナンスには大規模なサービスが必要でした。全体的なITコストが急上昇し、多くの企業が新しいアプローチを模索し始めました。
1つのソリューション。x86テクノロジーを使用したあらゆるサーバーを対象とした仮想化アプローチです。仮想化により、1台の物理サーバが多数のVMをホストし、各アプリケーションが必要とする完全な分離とリソースを提供できるようになりました。
新たなアプローチが新たな懸念を生む
これらはすべて順調に機能していましたが、仮想化層であるハイパーバイザが故障するという新たなリスクが発生しました。さらに悪いことに、仮想化環境で単一の障害が発生すると、ドミノ効果ですべての仮想化アプリケーションにも障害が発生し、許容できないダウンタイムのリスクにつながります。このような事態を防ぐために、多くの企業は非業務用システムの仮想化を選択しました。これにより、万が一障害が発生しても、重要なシステムがダウンすることはありません。
技術が向上するにつれ、組織はハイパーバイザーが必要なパフォーマンスと安定性を提供できることに気づき、本番のワークロードでさえも、すべてのアプリケーションを仮想化し始めました。
一方では、この努力は難しいものではなく、多くの重要な利点への道を開くものだと思われた。しかしその一方で、ハードウェアや可用性 に関する新たなリスクも発生した。例えば、ある企業が1台のサーバー上に20台のビジネス・クリティカルなVMを構築し、それが故障した場合を考えてみよう。
問題解決にはどのくらいの時間がかかるのか?このダウンタイムはどのくらいのコストがかかるのか?顧客や見込み客、会社の評判に与える長期的な影響は?これらの質問はすべて妥当なものですが、多くの場合、満足のいく答えはありません。
このシナリオは、仮想化戦略を成功させるためには、適切なハードウェアインフラと常時稼働するシステムが必要であることを示しています。次回の記事では、これらのトピックについて、よくある誤解を含めてご紹介します。ご期待ください。