Virtualisierung ist mehr als nur ein Schlagwort der Branche oder ein IT-Trend. Mit dieser Technologie können mehrere Instanzen einer Betriebsumgebung auf einer einzigen Hardware ausgeführt werden. Diese virtuellen Maschinen (VMs) führen dann Anwendungen und Dienste wie jeder andere physische Server aus und machen die Kosten für den Kauf und die Unterstützung zusätzlicher Server überflüssig. Die Virtualisierung bietet noch weitere Vorteile, z. B. die schnellere Bereitstellung von Anwendungen und Ressourcen. Darüber hinaus kann sie die Produktivität, Effizienz, Flexibilität und Reaktionsfähigkeit der IT erhöhen, so dass IT-Ressourcen frei werden, um sich auf andere Aufgaben und Initiativen zu konzentrieren. Allerdings birgt die Virtualisierung auch Risiken.
Wie hat sich die Virtualisierung entwickelt?
Um den geschäftlichen Nutzen der Virtualisierung – und auch die potenziellen Risiken der Virtualisierung – am besten zu verstehen, müssen wir einen Blick zurück in die Zeit werfen, als Mainframes die Computerwelt beherrschten.
Mainframes wurden von großen Unternehmen für die Verwaltung ihrer wichtigsten Anwendungen und Systeme eingesetzt. Sie konnten aber auch als Server fungieren und boten die Möglichkeit, mehrere Instanzen von Betriebssystemen gleichzeitig zu hosten. Auf diese Weise leisteten sie Pionierarbeit für das Konzept der Virtualisierung.
Viele Organisationen haben das Potenzial schnell erkannt. Sie begannen, die Arbeitslasten für verschiedene Abteilungen oder Benutzer aufzuteilen, um ihnen dedizierte Rechenressourcen für mehr Kapazität und bessere Leistung zur Verfügung zu stellen. Dies war der Beginn des Client-Server-Modells.
In den meisten Fällen lief die Anwendung auf einem Server, auf den von vielen verschiedenen PCs aus zugegriffen wurde. Andere Fortschritte, wie das Aufkommen der x86-Technologie von Intel, trugen alle dazu bei, Client-Server-Computing schneller, billiger und effektiver zu machen.
Es funktionierte alles wunderbar, bis die Popularität des Systems zunahm. Irgendwann schien es, als ob jeder im Unternehmen einen Server für seine Anwendung haben wollte. Das Ergebnis waren zu viele Server – “Serverwucher” -, die selbst die größten data center schnell ausfüllten.
Der Raum war nicht das einzige Problem. All diese Server waren teuer und erforderten umfangreiche Dienstleistungen zur Unterstützung und Wartung. Die IT-Gesamtkosten stiegen sprunghaft an, und viele Unternehmen begannen nach einem neuen Ansatz zu suchen.
Eine Lösung: Ein virtualisierter Ansatz für alle Server mit x86-Technologie. Mit der Virtualisierung kann ein physischer Server nun viele VMs hosten und die vollständige Isolierung und Ressourcen bereitstellen, die jede Anwendung benötigt.
Ein neuer Ansatz führt zu neuen Bedenken
All dies funktionierte gut, bis auf das neue Risiko, dass die Virtualisierungsschicht – der Hypervisor – ausfallen könnte. Schlimmer noch, ein einziger Ausfall in der virtualisierten Umgebung würde einen Dominoeffekt auslösen, bei dem alle virtualisierten Anwendungen ebenfalls ausfallen würden, was zu inakzeptablen Ausfallzeiten führen würde. Um dieses Szenario zu verhindern, haben sich viele Unternehmen dafür entschieden, ihre nicht produktiven Systeme zu virtualisieren. Auf diese Weise würden kritische Systeme im Falle eines Ausfalls nicht ausfallen.
Als sich die Technologie verbesserte, erkannten die Unternehmen, dass die Hypervisors die erforderliche Leistung und Stabilität liefern können, und begannen, alle ihre Anwendungen zu virtualisieren, sogar die Produktionsauslastung.
Auf der einen Seite waren die Bemühungen nicht schwierig und schienen den Weg für viele bedeutende Vorteile zu ebnen. Andererseits ergaben sich dadurch neue Risiken in Bezug auf Hardware und Verfügbarkeit. Denken Sie zum Beispiel an den Fall, dass ein Unternehmen 20 geschäftskritische VMs auf einem Server hat und dieser dann ausfällt.
Wie lange würde es dauern, das Problem zu beheben? Wie viel würde diese Ausfallzeit kosten? Welche langfristigen Auswirkungen hätte sie auf Kunden, Interessenten und den Ruf des Unternehmens? All dies sind berechtigte Fragen, die jedoch oft nicht zufriedenstellend beantwortet werden können.
Dieses Szenario verdeutlicht die Notwendigkeit der richtigen Hardware-Infrastruktur und stets verfügbarer Systeme als Teil einer erfolgreichen Virtualisierungsstrategie. In unserem nächsten Artikel werden wir uns mit diesen Themen befassen und dabei einige gängige Missverständnisse ausräumen. Bleiben Sie dran.
Können wir die Konversation fortsetzen?
Teilen Sie uns Ihre Meinung mit, indem Sie Ihre Gedanken über Virtualisierungsrisiken auf Twitter oder LinkedIn mitteilen.