Ai non addetti ai lavori, in genere, conoscere tecnologie e soluzioni in grado di coprire il percorso di un dato interessa relativamente poco. Eppure è proprio chi agisce con un pc, un tablet o uno smartphone, il primo a lamentarsi non appena le prestazioni accennano a calare. Garantire l’efficienza della Rete nella sua concezione più estesa rischia quindi di rivelarsi compito tanto arduo quanto ingrato, ed è proprio qui che tante aziende hanno scelto di giocarsi le proprie carte. Mentre è solo agli albori la nuova rivoluzione dettata dal software defined network, qualcuno ha già inquadrato la fase successiva. «Sempre più applicazioni viaggiano su Http, passato da protocollo di presentazione dati a vero proprio livello di trasporto, prendendo il sopravvento su tcp/ip – afferma Paolo Arcagni, systems engineer manager Italia e Malta di F5 -. L’infrastruttura di networking deve assecondare questa tendenza, quello che solitamente si fa via middleware».
Un nuovo strato di complessità rischia quindi di aggiungersi a sistemi non di rado cresciuti in modo disomogeneo e quindi difficili da gestire. La soluzione più idonea in casi come questo è portare all’estremo il principio della virtualizzazione. «Siamo arrivati a interpretare i protocolli a livello applicativo per continuare a ottimizzare la consegna di applicazioni all’utente finale, storicamente il cuore pulsante della nostra attività – prosegue Arcagni -. Ora il software delivery controller deve assecondare anche la mobility e il cloud, con le dovute garanzie in tema di sicurezza. Arriviamo così al principio di virtualizzazione totale, oltre sdn, vale a dire sdas, Software Defined Application Services».
In pratica, dal punto di vista dell’azienda, questo è riassunto tutto in Synthesis. Al livello architetturale quattro, dei sette previsti della pila iso/osi, F5 colloca un hardware concepito prima di tutto per assicurare le prestazioni. Dando ormai per scontata l’astrazione di router e switch destinati a essere considerato un insieme unico gestito via software, lo stesso destino attende ora l’erogazione delle applicazioni. «Pensiamo per esempio all’home banking, dove una volta che gli hardware saranno presi in carico dal software, sarà necessario garantire comunque i massimi livelli in tema di disponibilità e sicurezza – spiega Arcagni -. Una vasta parte di middleware nella quale ci inseriamo con la nostra offerta, con un hardware sul quale viene eseguito un controller software in grado di stabilire i servizi necessari a erogare il servizio al cliente finale in modo a lui trasparente e con le necessarie prestazioni».
Dietro all’apparente giro di parole si nasconde la nuova concezione del data center una volta chiuso il cerchio dell’astrazione. Dopo aver completato la virtualizzazione di tutte le risorse fisiche, serve comunque una sorta di centro di controllo in grado di interagire con tutti i dispositivi e al tempo stesso distribuire e organizzare le risorse. In pratica, una sorta di load balancing, la ragione per cui F5 è nata, in chiave moderna. «È vero che siamo cresciuti soprattutto come produttori hardware, ma ora ci occupiamo soprattutto di software. Da quando un certo momento abbiamo intuito la tendenza al software defined, abbiamo reinventato la parte hardware al servizio del software per poter continuare a garantire l’erogazione di servizi alla massima velocità».
A chi può restare perplesso di fronte a una visione tanto spinta all’estremo, può tornare utile ricordare quanto fosse simile il destino iniziale incontrato dalla virtualizzazione dei server, oggi data per scontata in qualsiasi nuovo data center, e ormai prossima anche per il networking. Una sfida nella quale diventa però cruciale trovare i giusti alleati. «Nei prossimi anni vedremo una collaborazione più stretta tra i protagonisti del mondo software defined data center – prevede Arcagni -, estesa ai system integrator pronti ad andare in questa direzione. Hp e Ibm si stanno già muovendo, insieme a tutti coloro in grado di aiutare a realizzare i vari componenti dell’orchestrazione, vale a dire i sistemi di controllo delle varie componenti gestite via software, capaci di assicurare l’interoperabilità».
Il data center visto come array di hardware, anche eterogenei, gestito da software centralizzati finalizzati all’erogazione di applicazioni, in Italia sembra però ancora solo una teoria. «Quando si parla di sdn, non possiamo parlare di veri casi concreti, ma resta comunque una prospettiva da tenere in stretta considerazione – conclude Eugenio Libraro, regional director Italia e Malta di F5 -. Abbiamo anche il compito di spiegare al cliente dove sta andando il mercato e da parte delle grandi realtà, telco e banche prima di tutte, vedo già un grande interesse. Non esito a definire il 2015 come anno dell’sdn».