Home Disponibilità I rischi e le ricompense della virtualizzazione

Lavirtualizzazione è più di una parola d’ordine dell’industria o di una tendenza IT. Questa tecnologia permette l’esecuzione di istanze multiple di un ambiente operativo su un singolo pezzo di hardware. Queste macchine virtuali (VM) eseguono quindi applicazioni e servizi come qualsiasi altro server fisico ed eliminano i costi relativi all’acquisto e al supporto di server aggiuntivi. La virtualizzazione offre anche altri vantaggi, come il provisioning più veloce di applicazioni e risorse. Inoltre, può aumentare la produttività, l’efficienza, l’agilità e la reattività dell’IT, liberando le risorse IT per concentrarsi su altri compiti e iniziative. Tuttavia, la virtualizzazione ha i suoi rischi.

Come si è evoluta la Virtualizzazione?

Per capire meglio il business case per la virtualizzazione – così come i potenziali rischi della virtualizzazione – abbiamo bisogno di guardare indietro al tempo in cui i mainframe governavano il mondo dell’informatica.

I mainframe erano usati dalle grandi organizzazioni per gestire le loro applicazioni e sistemi più critici. Ma potevano anche agire come server, offrendo la possibilità di ospitare più istanze di sistemi operativi allo stesso tempo. Così facendo, sono stati i pionieri del concetto di virtualizzazione.

Molte organizzazioni sono state rapide nel vederne il potenziale. Hanno iniziato a ritagliare carichi di lavoro per diversi reparti o utenti per dare loro risorse di calcolo dedicate per una maggiore capacità e migliori prestazioni. Questo fu l’inizio del modello client-server.

Nella maggior parte dei casi, l’applicazione girava su un unico server, al quale si accedeva da molti PC diversi. Altri progressi, come la nascita della tecnologia x86 di Intel, hanno contribuito a rendere il client-server computing più veloce, più economico e più efficace.

Funzionava tutto alla grande, fino a quando la sua popolarità non ha preso piede. Alla fine, sembrava che tutti nell’azienda volessero un server per ospitare la loro applicazione. Questo portava a troppi server – “sprawl di server” – che riempiva rapidamente anche il più grande data center.

Lo spazio non era l’unica preoccupazione. Tutti questi server erano costosi e richiedevano servizi estesi per il loro supporto e manutenzione. I costi complessivi dell’IT aumentarono, e molte aziende iniziarono a cercare un nuovo approccio.

Una soluzione: Un approccio virtualizzato per qualsiasi server che utilizza la tecnologia x86. Con la virtualizzazione, un server fisico potrebbe ora ospitare molte VM e potrebbe fornire il pieno isolamento e le risorse che ogni applicazione richiede.

Un nuovo approccio porta a nuove preoccupazioni

Tutto questo funzionava bene, tranne che per il nuovo rischio che il livello di virtualizzazione – l’hypervisor – potesse fallire. Peggio ancora, un singolo guasto nell’ambiente virtualizzato avrebbe innescato un effetto domino in cui anche tutte le applicazioni virtualizzate sarebbero fallite, portando a un rischio inaccettabile di downtime. Per prevenire questo scenario, molte aziende hanno scelto di virtualizzare i loro sistemi non di produzione. In questo modo, se si verificasse un guasto, i sistemi critici non andrebbero giù.

Con il miglioramento della tecnologia, le organizzazioni si sono rese conto che gli hypervisor possono fornire le prestazioni e la stabilità richieste e hanno iniziato a virtualizzare tutte le loro applicazioni, anche i carichi di lavoro di produzione.

Da un lato, lo sforzo non era difficile e sembrava aprire la strada a molti benefici significativi. Dall’altro, però, presentava nuovi rischi legati all’hardware e alla disponibilità. Per esempio, si consideri il caso in cui un’azienda potrebbe avere 20 VM business-critical su un server, solo per avere un guasto.

Quanto tempo ci vorrebbe per risolvere il problema? Quanto costerebbe questo tempo di inattività? Quali implicazioni a lungo termine avrebbe sui clienti, sulle prospettive e sulla reputazione dell’azienda? Tutte queste sono domande ragionevoli, ma spesso non hanno risposte soddisfacenti.

Questo scenario evidenzia la necessità della giusta infrastruttura hardware e di sistemi sempre disponibili come parte di qualsiasi strategia di virtualizzazione di successo. Tratteremo questi argomenti – mentre copriamo alcuni malintesi comuni – nel nostro prossimo articolo. Restate sintonizzati.

Possiamo continuare la conversazione?

Diteci cosa ne pensate condividendo i vostri pensieri sui rischi della virtualizzazione su Twitter o LinkedIn.

MESSAGGI CORRELATI