UTILITY COMPUTINGE SERVER VIRTUALIZATION
Che si chiami ‘utility computing’ piuttosto che ‘computing on demand’ o ‘adaptive enetrprise’, la nuova frontiera dell’informatica ha un obiettivo preciso: migliorare la capacità delle aziende di adattarsi all’evoluzione del mercato attraverso un’Ict drasticamente più semplice da gestire e utilizzare. Le infrastrutture dovranno diventare così flessibili da potersi riconfigurare dinamicamente al variare delle esigenze del business; consentendo un uso più efficiente delle risorse disponibili, dissimulandone la crescente complessità e, in ultima analisi, riducendone sensibilmente anche il Tco.
Ora, poiché, per vari motivi che non è qui il caso di trattare, risorse e capacità elaborativa potenziale si sono accumulate in abbondanza in tutti i sistemi informatici, il vero problema è quello di riuscire a gestirle meglio. Con un approccio che per essere realmente efficace dovrà interessare tutti e tre i principali componenti delle infrastrutture It: la rete per la trasmissione dei dati, lo storage per la loro memorizzazione, e i server per la loro elaborazione.
Riguardo la rete, un’evoluzione nella direzione giusta si è in parte verificata con la diffusione del protocollo Tcp/Ip (quello di Internet), grazie al quale la situazione appare oggi relativamente standard e integrata. Lo storage è invece ancora in una fase simile a quella in cui si trovava la rete qualche anno fa: la sua virtualizzazione è in corso, ma richiederà ancora tempo per essere completata. Infine si dovrà procedere anche alla completa virtualizzazione dei server, sulla quale, da un paio di anni, si sta lavorando con rinnovata lena.
Server virtualizzati, guadagno reale
Con l’espressione ‘server virtualization’ si indica una tecnologia che consente a più sistemi operativi di ‘girare’ contemporaneamente all’interno dello stesso processore. Un concetto questo che, come sovente accade nel mondo dell’It, non è del tutto nuovo. Nella forma di ‘partizionamento logico’ delle Cpu è estesamente impiegato in ambiente maiframe, consentendo di raggiungere livelli d’utilizzo superiori all’80%, contro il 10-15% medio degli ambienti non partizionati, o anche per supportare la migrazione di applicazioni ‘legacy’ dalle vecchie alle nuove piattaforme. Tecniche analoghe di virtualizzazione, di cui si prevede un’ampia diffusione nel prossimo futuro, sono state sviluppate anche per ambienti Unix, Windows e Linux.
Quando però si entra nel mondo dell’utility computing il concetto di virtualizzazione tende ad ampliarsi notevolmente, perchè in questo caso non si moltiplicano solo i processori ma anche gli ambienti operativi, da ‘vedere’ come pool di risorse da impiegare mascherando, nei confronti degli utenti, la loro natura e specificità.
Di conseguenza, è iniziato lo sviluppo di tecniche di virtualizzazione più avanzate. Si va dai cosiddetti ‘gestori di risorse distribuite’, capaci di riallocare le applicazioni e i relativi carichi di lavoro tra più server; fino al Grid computing, che aggregando e rendendo utilizzabili in parallelo risorse di vario tipo (potenza di calcolo, capacità di memorizzazione, ampiezza di banda trasmissiva) anche geograficamente distribuite, si propone di mettere a disposizione delle organizzazioni scientifiche come di quelle commerciali, grandi piattaforme di potenza elaborativa dalle quali prelevare quella che serve.
Naturalmente, i diversi vendor impegnati in questi sviluppi, da Sun Microsystems con la ‘N1 strategy’, ad Hp con la sua ‘Adaptive Enterprise’, fino ad Ibm ed alla sua visione dell’ ‘e-business on-demand’, stanno elaborando diversi modelli di ‘utility computing’, legati non solo alla rispettiva tradizione tecnologica ma, sempre più spesso, integranti quella proveniente da acquisizioni mirate.
Il ‘Virtualization Engine’ Ibm
Un esempio è dato dal recente annuncio del ‘Virtualization Engine’ di Ibm, una combinazione di strumenti e tecnologie di vario tipo (in parte anche di origine ThinkDynamics, software house canadese acquisita da Big Blue nel 2003) che sotto la supervisione di un ‘Multiplatform Director’, sarà in grado di partizionare, come se fossero mainframe, server di diverse provenienze, anche non Ibm, ed in queste partizioni far girare diversi tipi di sistemi operativi, rendendo così possibile la costruzione di un unico ambiente a partire da più sistemi eterogenei e distribuiti.
Il ‘Virtualization Engine’ è costituito da due suite: la ‘System Technology’ che fornisce gli strumenti per gestire il partizionamento delle Cpu e il loro utilizzo in ambiente multipiattaforma, nonché la virtualizzazione dell’I/O delle Lan; e la ‘System Services’ che sovraintende all’infrastruttura server e a quella storage. I principali componenti della parte server sono: Tivoli Provisioning Manager, Ibm Grid Toolbox, Enterprise Workload Manager, Ibm Director Multiplatform, e una Virtualization Engine Console; mentre quelli per la parte storage sono: Ibm TotalStorage Productivity Center, San Volume Controller, e San File System.
I componenti di questa nuova tecnologia Ibm per la virtualizzazione, risultato di tre anni di lavoro dei laboratori di Rochester, verranno resi via via disponibili nel corso del 2004, privilegiando inizialmente le piattaforme Os/400, Aix e z/Os per poi estendere la copertura anche a quelle Linux e Windows. (C.C.)
NETWORKING PER L’INTERCOMUNICABILITÀ
Il valore di una rete sta nelle possibilità d’intercomunicazione di cui fruisce chi ne fa parte, un servizio che ha tanto maggior valore quante più sono le informazioni contenute in rete e quanto più è efficiente il loro accesso, la loro trasferibilità e la loro elaborazione in modo integro e sicuro in ogni momento, ovunque gli utenti si trovino e con qualsiasi dispositivo operino. Oggi occorre un’elevata reattività nella gestione dei processi di business. La pressione esercitata dalle condizioni del mercato costringe le aziende ad essere sempre più rapide nel prendere le decisioni e nel renderle operative, cambiando, se occorre, approccio e ‘modus operandi’.
Il modello di azienda ‘a rete’ è quello che oggi si dimostra meglio rispondente a queste esigenze, ma richiede la realizzazione di un analogo modello del sistema informatico, capace di soddisfarne le esigenze di business. La complessità delle reti informatiche, misurabile nel maggior numero di server, di applicazioni, di esigenze di interazione e di nuovi servizi di business, richiede inoltre una diversa e nuova combinazione dei parametri per la valutazione dell’equilibrio tra i costi e il livello del servizio richiesto.
le tre logiche delle operazioni in rete
I modelli delle operazioni (logico-funzionali) eseguibili nella ‘rete’ così intesa sono fondamentalmente tre, aventi ciascuno una complessità crescente via via che l’intensità e la profondità dell’interazione del servizio aumenta. Il primo modello operativo è quello orientato alle comunicazioni in genere, per interazioni con basi di dati, messaggi vocali, immagini (comprendenti disegni Cad e derivati, fotografie e video) e tutte le altre informazioni referenziali. Il secondo modello è orientato alla ricerca dei servizi e delle applicazioni esistenti in rete e alla loro esecuzione. Il terzo infine riguarda la ricerca, l’uso e la gestione delle risorse dei sistema (server, storage, nodi di trasmissione e comunicazione…) facenti parte della rete. A questi tre livelli si aggiungono poi: la dimensione (da locale a geografica) e il numero e tipo di elementi che compongono la rete; la sua topologia (stellare, ad anello, a matrice); il grado di sicurezza e tutti gli aspetti tecnologico-strutturali che influenzano le prestazioni, la qualità e l’efficienza dei servizi di rete richiesti.
Sulla rete oggi convergono sia applicazioni tradizionali sia a base Web, nonchè il trasporto a base Ip, dei dati, della telefonia e del video. Il network deve quindi soddisfare ad esigenze di comunicazioni che richiedono un mix diverso dei parametri caratteristici e delle priorità del servizio. Per dire: il trasporto di video e voce può anche perdere qualche pacchetto ma dev’essere sincrono; quello dei dati può accettare diversità nei tempi di latenza ma non deve perdere un bit. Fanno infine da riferimento per la qualità del network la capacità di bilanciamento del carico in funzione del contenuto delle applicazioni e la maggiore scalabilità e disponibilità, conseguibili grazie alla capacità di autogestione dinamica dei livelli di servizio.
Il graduale orientamento del mercato verso le reti a base Ip è ampiamente dimostrato da un’indagine fatta nel 2003 dallo Yankee Group, secondo la quale in Europa il 39% delle società avrebbe già reti Wan abilitate alla voce su Ip e a queste si aggiungerebbe un altro 37% entro il 2004; inoltre, il 69% degli intervistati avrebbe scelto questo orientamento per conseguire una riduzione dei costi operativi. Queste percentuali anche se riferite solo alla voce su Ip, oltre a dimostrare una precisa scelta di piattaforma sono indice del potenziale sviluppo dei nuovi servizi a base Ip capaci di portare maggiori vantaggi funzionali e operativi agli utenti.
Più intelligenza; più flessibilità
Il livello di ‘intelligenza’ e flessibilità di un network dipende dalla logica operativa dei nodi di rete, che comprende numerose funzionalità (vedi riquadro) in grado d’incidere in diversa misura sulla qualità del servizio. Ma il vantaggio dato da una rete funzionale si estende, in un ambiente di sistemi interoperanti e integrati, anche al migliore utilizzo delle risorse dei sistemi stessi, siano essi in reti locali o estese. Da un livello d’utilizzo stimato dal 25 al 35% nel caso di sistemi singoli si passa, per sistemi integrati in rete, ad un utilizzo che può crescere fino al 70%. La credibilità di questi livelli di utilizzo appare ragionevole se si considera la possibilità di rendere dinamica e rispondente alla richiesta l’organizzazione e l’esecuzione dei lavori nel contesto delle risorse in rete.
In sostanza, l’apporto del network ai fini della flessibilità di unsistema è frutto dell’innovazione tecnologica (le funzioni) ed organizzativa (la rete). Le differenze di funzioni dei prodotti, delle architetture, delle soluzioni e dei costi sono tuttora abbastanza significative, ed è questo un punto che richiede da parte dei Cio una valutazione mirata degli investimenti a fronte dei vantaggi conseguibili. Si può però presumere che, grazie anche al prevalere della architettura unica a base Ip su cui si sta orientando la domanda, i vari costruttori, pur mantenendo una differenziazione tecnologica sia a livello di hardware che di software, raggiungano per le diverse soluzioni valori abbastanza uniformi per quanto riguarda il rapporto costo/prestazioni. (E.P.)
STORAGE, RISORSA CHIAVE DELL’INFRASTRUTTURA IT
I profondi cambiamenti che interessano il mondo dello storage sono determinati principalmente da due fattori: la crescente complessità dei sistemi e la diversa importanza che l’archiviazione delle informazioni ha assunto nel tempo. Dal primo consegue la necessità di sviluppare soluzioni che consentano di ridurre e governare questa complessità, dal secondo l’esigenza di far cadere il tradizionale isolamento che ha sempre caratterizzato le risorse di storage e di integrarle a tutti gli effetti nell’infrastruttura It aziendale.
Fino a non molti anni fa il concetto di storage era ben reso dal simbolo che identifica i database: un ‘bidone’, più o meno grande e sofisticato da riempire di dati in modo da farcene stare la maggior quantità possibile. Il cambiamento del modello di business delle imprese ed il crescere in modo più che esponenziale dei dati ha però reso le risorse di storage sempre più difficili da governare e si è iniziato ad attuarne una gestione gerarchica: software in grado di segnalare lo spazio a disposizione nei diversi apparati, ottimizzarlo e gestirlo in modo efficace. Le soluzioni Hsm (Hierarchical storage management) sarebbero sufficienti se il problema si limitasse alla crescita dei dati, ma sono intervenuti altri due grandi mutamenti: è cambiato il tipo di dato da archiviare ed il concetto stesso di archiviazione.
Insieme ai dati strutturati, provenienti dalle applicazioni aziendali, sono andate infatti crescendo in quantità e in importanza per il business, altre informazioni, formate da dati semi-strutturati (come e-mail e messaggi vari) e non strutturati (come pagine Web, immagini, video e così via). Questi tipi di dati stanno alla base di molte attività d’impresa, ma per essere archiviati devono essere associati a uno o più ‘attributi’ che li identifichino in modo univoco. Così, si sviluppa e diventa essenziale una gestione dei ‘contenuti’ informativi di un’impresa e si instaura una relazione sempre più stretta tra vendor di storage e società che sviluppano soluzioni di content management. Un ulteriore elemento che determina una diversa considerazione dei dati non strutturati rispetto al passato (vedi, su questo tema, il servizio e i casi utente nelle pagine successive) è la necessità da parte delle imprese di conformarsi alle norme che impongono l’archiviazione di certe informazioni in modo che non possano essere manipolate e che possano essere rapidamente recuperate in caso di necessità.
Le architetture di storage hanno risposto a quest’evoluzione passando dai sistemi Das (Direct attached storage, il classico disk array collegato ai server); alla Nas (Network attached storage), dispositivi di memorizzazione collegati alla rete aziendale, e quindi alla San (Storage area network), ‘isole’ di storage a loro volta collegate alla rete aziendale. Se inizialmente Nas e San erano considerate soluzioni alternative, oggi grazie alle sempre maggiori performance delle prime, il trend è quello di una complementarietà delle due architetture, per esempio, usando una Nas come punto di ingresso verso la San.
Lo storage e la gestione dell’informazione
Lo sviluppo delle San è molto importante se si tiene presente il cambiamento nei modelli di business apportato dal Web e la necessità di avere accesso ad informazioni che non sempre e non necessariamente devono essere elaborate dalle applicazioni aziendali, ma che devono essere disponibili sempre e subito. Quest’esigenza metterebbe a rischio di collasso i server e la Lan aziendale se non fosse possibile, appunto attraverso un’architettura San, ottimizzare il percorso dei dati tra server e sistemi storage, attivando anche canali di comunicazione diretta tra questi ultimi in modo da gestire ed accedere ai dati senza doverli far passare dai server.
Negli ultimi anni le San sono cresciute, o aggiungendo sempre più porte e dispositivi alla rete iniziale, oppure creando più San differenti e decentrate, ciascuna deputata a una determinata attività. In entrambi i casi emergono problemi gestionali legati alla crescente complessità: nel primo caso si ha sicuramente un maggiore consolidamento delle risorse storage, ma una San troppo eterogenea e topologicamente complessa finisce per avere problemi d’interoperabilità tra i diversi dispositivi; nel secondo caso, dal punto di vista topologico ci sono minori criticità, ma si evidenziano problemi di inefficienza legati proprio alla decentralizzazione delle risorse.
A questa crescente complessità intrinseca, si aggiunge la necessità di adottare comunque una gestione gerarchica dello storage per ottimizzare l’utilizzo delle risorse. Oggi, però, l’importanza del dato e la differenza tra dato archiviato e dato ‘vivo’ non sono più così ben definite come in passato. Un dato considerato vecchio dal sistema transazionale può tornare ad assumere valore per un’applicazione di Crm o di business intelligence. Da queste considerazioni si è sviluppato in questi ultimi due anni il concetto di Ilm (Information Lifecycle Management): se l’Hsm focalizza sull’ottimizzazione della disponibilità del dato, l’Ilm prende in considerazione tutti gli aspetti del ciclo di vita dell’informazione (un concetto fondamentale quando il dato si trasforma appunto in informazione) inclusi i livelli di protezione e le problematiche di data retention, fino alla distruzione del dato stesso. Ecco quindi che torna tutto il problema di fornire ai dati adeguati attributi affinché possano essere gestiti in questo modo.
Virtualizzazione e storage networking
Per abilitare processi come quelli descritti, i sistemi devono avere alcune caratteristiche sulle quali ormai tutti i vendor concordano; prima fra tutte, garantire comunicazione ed interoperabilità tra i diversi apparati che compongono questa complessa infrastruttura. Questo può avvenire attraverso lo scambio di Api realizzate ad hoc e/o aderendo agli standard internazionali. In ogni caso, l’interoperabilità delle risorse è il punto di partenza per raggiungere un obiettivo ormai prioritario per le soluzioni storage e cioè la virtualizzazione.
Semplificando, si può dire che l’obiettivo della virtualizzazione è quello di aggiungere e spostare capacità di storage senza interrompere il servizio. Gestite da uno strato intermedio di software, le risorse di storage diventano ‘trasparenti’ alle applicazioni che necessitano dei dati ivi allocati. Senza entrare troppo in dettaglio, è importante ricordare che, in base al livello architetturale (di host, di sottosistema storage o con un’appliance a livello di San) al quale la virtualizzazione viene applicata e alle logiche della soluzione realizzata, i sistemi di virtualizzazione proposti dai diversi vendor offrono vantaggi e problemi caratteristici, sui quali occorre quindi documentarsi. La virtualizzazione è comunque tra le tecnologie che più possono contribuire a rendere flessibile e ‘on-demand’ una infrastruttura storage.
C’è infine un ultimo, ma importante, quesito che ci si deve porre: dove collocare l’intelligenza, il ‘core’ decisionale della gestione dello storage? Negli ultimi anni si è avuto un progressivo trasferimento delle logiche di gestione dal server ai sottosistemi a disco, una scelta che avvantaggia le soluzioni Nas (perché alleggerisce la rete) ma non garantisce la massima efficienza delle San e dell’intera infrastruttura It. Ecco quindi entrare in gioco gli switch intelligenti, al cui interno vengono portate funzioni di instradamento dei dati tradizionalmente effettuate dai server. Lo storage networking diventa quindi un tassello fondamentale della scacchiera tecnologica aziendale non solo per mettere in comunicazione, in modo più o meno performante ed economico, risorse di storage differenti, ma per fare da ‘ponte’ intelligente tra le diverse aree del data center. (P.F.)
Tutte le funzioni del nodo ‘intelligente’
Le funzioni gestite dalla logica dei nodi di rete comprendono:
– le diverse modalità con cui un nodo comunica dati (servizio agli utenti) o invia segnali (servizio di gestione) verso un altro nodo o verso gli utenti a lui connessi per ottimizzare le prestazioni di rete;
– la logica di controllo e la dinamica di gestione delle commutazioni per mantenere integre e soddisfare le richieste di servizio. Alcuni nodi hanno un modello che simula il contesto di rete in cui sono inseriti e possono quindi dirigere il traffico su percorsi alternativi o richiedere incrementi di banda evitando disservizi;
– la capacità di rilevare i dati del servizio prestato ai diversi utenti, allo scopo di consentire una amministrazione efficace e puntuale;
– il motore di commutazione (switch fabric) non bloccante o a latenza nulla per evitare il pericolo di perdita dei pacchetti;
– il supporto di reti cablate e di reti wireless;
– il sistema di gestione dei servizi e della manutenzione, il primo capace di rilevare e inviare agli altri nodi il proprio stato operativo, il secondo per consentire agli amministratori della rete di entrare nel nodo ed operare le necessarie analisi;
– le altre funzioni fondamentali per un buon servizio, quali la compressione delle frame e la sicurezza nelle comunicazioni.
Esempi di nodi con funzioni rilevanti agli effetti del servizio sono il BGP-4 (Border Gateway Protocol), per gli indirizzi di rete in Internet e, per gli ambienti Tcp/Ip, la capacità di rilevamento automatico delle risorse in rete da parte del sistema di gestione nelle reti Snmp (Simple Network Management Protocol).
Altri aspetti che incidono sostanzialmente sul livello di prestazioni e sui costi di una rete sono: le funzioni automatiche (dal back-up al bilanciamento del carico); la possibilità di far eseguire in contemporanea tutte le funzionalità di cui dispone il prodotto; l’architettura unica dei prodotti, che facilita la conoscenza dei comportamenti e delle conseguenti operazioni e interventi. Certamente, il convergere su un’unica architettura delle funzioni per reti multi servizi e multi mediali, se da un lato semplifica la soluzione per l’utente e ne facilita la gestione, dall’altro richiede di valutare questo vantaggio in termini di costo della soluzione. (E.P.)
Akhela: tool Metilinx per il grid computing
Una tecnologia che consente alle aziende di integrare ed ottimizzare i propri sistemi informativi è stata sviluppata dalla californiana MetiLinx ed è alla base di prodotti distribuiti e supportati in Europa da Akhela (www.akhela.com). La tecnologia MetiLinx impiega degli ‘oggetti intelligenti’ battezzati Slo (System Level Object) che analizzano e controllano i flussi delle transazioni in sistemi complessi e multi-tiered. I System Level Object consentono di misurare in modo olistico, cioè non per singolo server, ma considerando l’intera infrastruttura, l’utilizzo di server/partizioni locali in tempo reale, arrivando a misurare fino a 400 parametri al secondo per ciascun server o partizione analizzata. La tecnologia MetiLinx si articola su tool differenti, in grado ognuno di svolgere azioni specifiche nell’infrastruttura dei sistemi informativi delle aziende utenti.
L’analisi e diagnosi in tempo reale delle performance a livello web, applicativo e database consente di reindirizzare le transazioni lungo i percorsi più ‘scarichi’ del sistema, ottimizzando così le prestazioni dell’insieme.
“La tecnologia MetiLinx – spiega Piercarlo Ravasio, amministratore delegato di Akhela – abilita lo sviluppo di infrastrutture basate sul grid computing perché il bilanciamento avviene in tempo reale e sull’intera infrastruttura, che viene così gestita dinamicamente, anziché su dati statici e su un’analisi storica e statistica”. (P.F.)
Un modello di storage network avanzato
Fonte: Horison Information Strategies
(www.horison.com)