Home Disponibilité Les risques et les avantages de la virtualisation

Lavirtualisation est plus qu’un simple mot à la mode ou une tendance informatique. Cette technologie permet à plusieurs instances d’un environnement d’exploitation de fonctionner sur un seul matériel. Ces machines virtuelles (VM) exécutent alors des applications et des services comme n’importe quel autre serveur physique et éliminent les coûts liés à l’achat et au support de serveurs supplémentaires. La virtualisation offre également d’autres avantages, tels que l’approvisionnement plus rapide des applications et des ressources. En outre, elle peut accroître la productivité, l’efficacité, l’agilité et la réactivité de l’informatique, libérant ainsi les ressources informatiques pour qu’elles se concentrent sur d’autres tâches et initiatives. Cependant, la virtualisation comporte des risques.

Comment la virtualisation a-t-elle évolué ?

Pour mieux comprendre les arguments commerciaux en faveur de la virtualisation – ainsi que les risques potentiels de la virtualisation – nous devons revenir à l’époque où les mainframes régnaient sur le monde informatique.

Les ordinateurs centraux étaient utilisés par les grandes organisations pour gérer leurs applications et systèmes les plus critiques. Mais ils pouvaient également faire office de serveurs, offrant la possibilité d’héberger plusieurs instances de systèmes d’exploitation en même temps. Ce faisant, ils ont ouvert la voie au concept de virtualisation.

De nombreuses organisations ont rapidement perçu le potentiel. Elles ont commencé à répartir les charges de travail entre différents services ou utilisateurs afin de leur donner des ressources informatiques dédiées pour une plus grande capacité et de meilleures performances. Ce fut le tout début du modèle client-serveur.

Dans la plupart des cas, l’application fonctionnait sur un seul serveur, auquel accédaient de nombreux PC différents. D’autres avancées, comme l’émergence de la technologie x86 d’Intel, ont toutes contribué à rendre l’informatique client-serveur plus rapide, moins coûteuse et plus efficace.

Tout fonctionnait bien, jusqu’à ce que la popularité de l’entreprise soit rattrapée. Finalement, il semblait que tout le monde dans l’entreprise voulait un serveur pour héberger son application. Il en résultait un trop grand nombre de serveurs – “server sprawl” – qui remplissaient rapidement même le plus grand data center.

L’espace n’était pas la seule préoccupation. Tous ces serveurs étaient coûteux et nécessitaient des services étendus pour les soutenir et les entretenir. Les coûts informatiques globaux ont explosé, et de nombreuses entreprises ont commencé à chercher une nouvelle approche.

Une seule solution : Une approche virtualisée pour tous les serveurs utilisant la technologie x86. Grâce à la virtualisation, un serveur physique peut désormais héberger de nombreuses machines virtuelles et fournir toute l’isolation et les ressources nécessaires à chaque application.

Une nouvelle approche mène à de nouvelles préoccupations

Tout cela fonctionnait bien, sauf le nouveau risque que la couche de virtualisation – l’hyperviseur – puisse tomber en panne. Pire, une seule défaillance dans l’environnement virtualisé déclencherait un effet domino où toutes les applications virtualisées tomberaient également en panne, entraînant un risque d’interruption inacceptable. Pour éviter ce scénario, de nombreuses entreprises ont choisi de virtualiser leurs systèmes hors production. De cette façon, en cas de panne, les systèmes critiques ne tomberaient pas en panne.

Avec l’amélioration de la technologie, les entreprises ont réalisé que les hyperviseurs pouvaient offrir les performances et la stabilité dont elles avaient besoin, et elles ont commencé à virtualiser toutes leurs applications, même les charges de production.

D’une part, l’effort n’était pas difficile et semblait ouvrir la voie à de nombreux avantages significatifs. Mais d’autre part, il présentait de nouveaux risques liés au matériel et à la disponibilité. Par exemple, une entreprise pourrait avoir 20 machines virtuelles critiques sur un seul serveur, qui tomberait en panne.

Combien de temps faudrait-il pour résoudre le problème ? Combien coûterait ce temps d’arrêt ? Quelles seraient les conséquences à long terme sur les clients, les prospects et la réputation de l’entreprise ? Toutes ces questions sont raisonnables, mais souvent, elles n’ont pas de réponses satisfaisantes.

Ce scénario met en évidence la nécessité d’une infrastructure matérielle adaptée et de systèmes toujours disponibles dans le cadre de toute stratégie de virtualisation réussie. Nous aborderons ces sujets – tout en couvrant certaines idées fausses courantes – dans notre prochain article. Restez à l’écoute.

Pouvons-nous poursuivre la conversation ?

Dites-nous ce que vous pensez en partageant vos réflexions sur les risques de la virtualisation sur Twitter ou LinkedIn.

POSTES CONNEXES