La virtualización es algo más que una palabra de moda en el sector o una tendencia informática. Esta tecnología permite ejecutar múltiples instancias de un entorno operativo en un único hardware. Estas máquinas virtuales (VM) ejecutan aplicaciones y servicios como cualquier otro servidor físico y eliminan los costes relacionados con la compra y el mantenimiento de servidores adicionales. La virtualización ofrece también otras ventajas, como el aprovisionamiento más rápido de aplicaciones y recursos. Además, puede aumentar la productividad, la eficiencia, la agilidad y la capacidad de respuesta de las TI, liberando recursos de TI para que se centren en otras tareas e iniciativas. Sin embargo, la virtualización tiene sus riesgos.
¿Cómo ha evolucionado la virtualización?
Para comprender mejor los argumentos empresariales a favor de la virtualización -así como los posibles riesgos de la misma-, tenemos que retroceder a la época en que los mainframes dominaban el mundo computing .
Los mainframes eran utilizados por las grandes organizaciones para gestionar sus aplicaciones y sistemas más críticos. Pero también podían actuar como servidores, ofreciendo la posibilidad de alojar varias instancias de sistemas operativos al mismo tiempo. Con ello, fueron pioneros en el concepto de virtualización.
Muchas organizaciones no tardaron en ver el potencial. Empezaron a repartir las cargas de trabajo entre los distintos departamentos o usuarios para dotarles de recursos informáticos dedicados y así obtener más capacidad y mejor rendimiento. Este fue el comienzo del modelo cliente-servidor.
En la mayoría de los casos, una aplicación se ejecutaba en un servidor, al que se accedía desde muchos ordenadores diferentes. Otros avances, como la aparición de la tecnología x86 de Intel, contribuyeron a que el cliente-servidor computing fuera más rápido, más barato y más eficaz.
Todo funcionaba muy bien, hasta que se popularizó. Con el tiempo, parecía que todo el mundo en la empresa quería un servidor para alojar su aplicación. Esto dio lugar a demasiados servidores - "proliferación de servidores"- que rápidamente llenaron incluso el mayor data center.
El espacio no era la única preocupación. Todos estos servidores eran caros y requerían amplios servicios para su soporte y mantenimiento. Los costes generales de TI se dispararon y muchas empresas empezaron a buscar un nuevo enfoque.
Una solución: Un enfoque virtualizado para cualquier servidor que utilice tecnología x86. Con la virtualización, un servidor físico podría albergar muchas máquinas virtuales y podría proporcionar el aislamiento y los recursos completos que cada aplicación requiere.
Un nuevo enfoque conduce a nuevas preocupaciones
Todo esto funcionaba bien, excepto por el nuevo riesgo de que la capa de virtualización -el hipervisor- pudiera fallar. Y lo que es peor, un solo fallo en el entorno virtualizado desencadenaría un efecto dominó en el que todas las aplicaciones virtualizadas también fallarían, lo que supondría un riesgo de inactividad inaceptable. Para evitar este escenario, muchas empresas optaron por virtualizar sus sistemas no productivos. De este modo, si se produjera algún fallo, los sistemas críticos no se caerían.
A medida que la tecnología mejoraba, las organizaciones se dieron cuenta de que los hipervisores podían ofrecer el rendimiento y la estabilidad que necesitaban, y empezaron a virtualizar todas sus aplicaciones, incluso las cargas de trabajo de producción.
Por un lado, el esfuerzo no era difícil y parecía allanar el camino para muchos beneficios significativos. Pero, por otro lado, presentaba nuevos riesgos relacionados con el hardware y la disponibilidad. Por ejemplo, considere el caso en el que una empresa puede tener 20 máquinas virtuales críticas para el negocio en un servidor, sólo para que éste falle.
¿Cuánto tiempo se tardaría en resolver el problema? ¿Cuánto costaría este tiempo de inactividad? ¿Qué implicaciones a largo plazo tendría para los clientes, los prospectos y la reputación de la empresa? Todas estas son preguntas razonables, pero a menudo no tienen respuestas satisfactorias.
Este escenario apunta a la necesidad de una infraestructura de hardware adecuada y de sistemas siempre disponibles como parte de cualquier estrategia de virtualización exitosa. Trataremos estos temas -a la vez que cubriremos algunos conceptos erróneos comunes- en nuestro próximo artículo. Manténgase en sintonía.
¿Podemos continuar la conversación?
Díganos lo que piensa compartiendo su opinión sobre los riesgos de la virtualización en Twitter o LinkedIn.