Home Disponibilidad Los riesgos y recompensas de la virtualización

La virtualización es algo más que una palabra de moda en el sector o una tendencia informática. Esta tecnología permite ejecutar múltiples instancias de un entorno operativo en un único hardware. Estas máquinas virtuales (VM) ejecutan aplicaciones y servicios como cualquier otro servidor físico y eliminan los costes relacionados con la compra y el mantenimiento de servidores adicionales. La virtualización ofrece también otras ventajas, como el aprovisionamiento más rápido de aplicaciones y recursos. Además, puede aumentar la productividad, la eficiencia, la agilidad y la capacidad de respuesta de las TI, liberando recursos de TI para que se centren en otras tareas e iniciativas. Sin embargo, la virtualización tiene sus riesgos.

¿Cómo evolucionó la virtualización?

Para comprender mejor los argumentos empresariales a favor de la virtualización -así como los posibles riesgos de la misma-, debemos retroceder a la época en que los mainframes dominaban el mundo de la informática.

Los mainframes eran utilizados por las grandes organizaciones para gestionar sus aplicaciones y sistemas más críticos. Pero también podían actuar como servidores, ofreciendo la posibilidad de alojar varias instancias de sistemas operativos al mismo tiempo. Con ello, fueron pioneros en el concepto de virtualización.

Muchas organizaciones se apresuraron a ver el potencial. Empezaron a repartir las cargas de trabajo entre los diferentes departamentos o usuarios para darles recursos informáticos dedicados para tener más capacidad y un mejor rendimiento. Este fue el comienzo del modelo cliente-servidor.

En la mayoría de los casos, la aplicación se ejecutaba en un servidor, al que accedían muchos ordenadores diferentes. Otros avances, como el surgimiento de la tecnología x86 de Intel, ayudaron a que la computación cliente-servidor fuera más rápida, más barata y más efectiva.

Todo funcionaba muy bien, hasta que se popularizó. Con el tiempo, parecía que todo el mundo en la empresa quería un servidor para alojar su aplicación. Esto dio lugar a demasiados servidores – “proliferación de servidores”- que rápidamente llenaron incluso el mayor data center.

El espacio no era la única preocupación. Todos estos servidores eran caros y requerían amplios servicios de apoyo y mantenimiento. Los costos generales de IT aumentaron, y muchas compañías comenzaron a buscar un nuevo enfoque.

Una solución: Un enfoque virtualizado para cualquier servidor que utilice tecnología x86. Con la virtualización, un servidor físico podría albergar muchas máquinas virtuales y podría proporcionar el aislamiento y los recursos completos que cada aplicación requiere.

Un nuevo enfoque conduce a nuevas preocupaciones

Todo esto funcionaba bien, excepto por el nuevo riesgo de que la capa de virtualización -el hipervisor- pudiera fallar. Y lo que es peor, un solo fallo en el entorno virtualizado desencadenaría un efecto dominó en el que todas las aplicaciones virtualizadas también fallarían, lo que supondría un riesgo de inactividad inaceptable. Para evitar este escenario, muchas empresas optaron por virtualizar sus sistemas no productivos. De este modo, si se produjera algún fallo, los sistemas críticos no se caerían.

A medida que la tecnología mejoró, las organizaciones se dieron cuenta de que los hipervisores podían ofrecer el rendimiento y la estabilidad que requerían, y empezaron a virtualizar todas sus aplicaciones, incluso las cargas de trabajo de producción.

Por un lado, el esfuerzo no era difícil y parecía allanar el camino para muchos beneficios significativos. Pero, por otro lado, presentaba nuevos riesgos relacionados con el hardware y la disponibilidad. Por ejemplo, considere el caso en el que una empresa puede tener 20 máquinas virtuales críticas para el negocio en un servidor, sólo para que éste falle.

¿Cuánto tiempo se tardaría en resolver el problema? ¿Cuánto costaría este tiempo de inactividad? ¿Qué implicaciones a largo plazo tendría para los clientes, los prospectos y la reputación de la empresa? Todas estas son preguntas razonables, pero a menudo no tienen respuestas satisfactorias.

Este escenario apunta a la necesidad de una infraestructura de hardware adecuada y de sistemas siempre disponibles como parte de cualquier estrategia de virtualización exitosa. Trataremos estos temas -a la vez que cubriremos algunos conceptos erróneos comunes- en nuestro próximo artículo. Manténgase en sintonía.

¿Podemos continuar la conversación?

Díganos lo que piensa compartiendo su opinión sobre los riesgos de la virtualización en Twitter o LinkedIn.

MENSAJES RELACIONADOS