Intel: next data center superchip

Il numero uno dei processori preannuncia una linea di microsistemi integrati sul silicio per affrontare l’esplosione di applicazioni e workload diversificati che grava sui centri dati. L’obiettivo è automatizzare l’infrastruttura per giungere al software-defined datacenter

Pubblicato il 18 Set 2013

SAN FRANCISCO – Con un evento molto ristretto riservato ai media e agli analisti It di tutto il mondo (meno di 150 partecipanti il primo giorno, dedicato alle strategie, e solo una cinquantina il secondo, dedicato all’approfondimento tecnologico), Intel ha reso ufficiale un cambio, o meglio un ampliamento, di strategia che era nell’aria e del quale si avevano già avuti segnali e anticipazioni. E cioè che, nonostante la sua indiscutibile posizione di numero uno nella progettazione e produzione di microprocessori per server e Pc, questa veste le incomincia a stare un po’ stretta. Oppure, se vogliamo metterla in altro modo, che lo sviluppo dell’It ha preso strade che il gigante di Santa Clara non può ormai più ignorare. Per questo ha ritenuto che sia giunto il momento andare oltre la Cpu e a ciò che le sta accanto per guardare all’infrastruttura It nel suo complesso e, come dichiarato dal nome stesso dell’evento, “Ri-immaginare il Data Center”. Sia chiaro: Intel non vuole affatto entrare nella progettazione e tanto meno nella produzione di sistemi mettendosi in concorrenza ai suoi stessi clienti. Vuole però superare il modello (e quindi l’architettura) del classico data center strutturato sull’hardware con quello di un’infrastruttura software-defined, dove l’organizzazione del networking, dello storage e della stessa elaborazione siano comandate dalle applicazioni, o più precisamente dai diversi carichi di lavoro che da queste derivano, abilitando un diverso approccio alla scalabilità ed efficienza dell’insieme.
Alla base di questa visione sta la Rack Scale Architecture (RSA), un modello sviluppato da Intel qualche tempo fa e il cui fine è di riunire, anche fisicamente, pool di risorse (di rete, storage e calcolo) alle quali le applicazioni possono accedere in modo flessibile, scalabile, automatizzato e programmabile. La Rsa è qualcosa che già esiste (a San Francisco ne è stata annunciata la prima realizzazione commerciale, fatta dalla Rackspace Hosting, una società texana che offre servizi data center su open cloud) e la sua funzionalità poggia su una serie di soluzioni che Intel ha già introdotto e continua a sviluppare, come i controller Ethernet per la gestione della rete e i Solid State drivers per quella dello storage. Potrà però fare un salto di qualità raggiungendo un livello di prestazioni ottimale sostituendo il classico concetto di Cpu con quello di un sistema di elaborazione centrale formato da un insieme di elementi realizzati su di un singolo chip e progettati per lavorare in modo coordinato al meglio delle possibilità della tecnologia costruttiva.

Il data center si trasforma

Ora, il concetto del microsistema, o System-on-a-Chip (SoC) non è certo una novità. Sviluppati per i sistemi embedded i processori SoC, per gli ovvi vantaggi d’ingombro e consumo che presentano, sono da tempo al cuore dei tablet e degli smartphone, un mercato dove Intel gioca in difesa e sul quale invece punta molto Brian Krzanich, che da maggio ha sostituito Paul Otellini alla guida della società. Ma non è solo per i tablet che Intel ha accelerato lo sviluppo dei suoi microsistemi. Lo scorso dicembre, annunciando l’applicazione ai SoC della tecnologia Tri-Gate a 22 nm (al posto di quella a 32 nm sinora adottata) ne aveva preconizzato l’uso in sostituzione ai più tradizionali chip-set nei server di classe Data Center. Oggi Intel si sente evidentemente pronta a questa mossa con le nuove generazioni di microsistemi di cui si dirà più avanti, che fanno leva sulla posizione di forza che ha nei server industry standard e offrono una tecnologia d’avanguardia in grado di rispondere alle esigenze oggi emergenti.

Diane Bryant, Senior Vp e General Manager del Datacenter & Connected Systems Group di Intel

Infatti, come s’è detto, lo sviluppo dell’It ha preso una strada che Intel non può ignorare e che Diane Bryant, Senior Vp e General Manager del Datacenter & Connected Systems Group, ha tracciato nel suo discorso d’apertura. “Il data center si trasforma – ha dichiarato – e dopo aver passato le fasi di focalizzazione sulla produttività prima e sulla riduzione dei costi poi, sta entrando nell’era della rapida delivery dei servizi”. Si parla di cloud e di big data ma, ha proseguito Bryant, “solo il 9% del tipico carico di lavoro aziendale è posto su un cloud pubblico e solo il 6% delle imprese oggi decide tramite big data analytics”. Eppure le infrastrutture sono sotto sforzo: il traffico dati su device mobili cresce del 66% anno su anno (Cisco Index) e lo storage del 40% con il 90% di dati non strutturati (Idc), mentre nello stesso tempo, nonostante la virtualizzazione, lo sfruttamento medio dei server è inferiore al 50% (ancora Idc). Occorre un cambiamento di modello e questo sta, per l’appunto, nella infrastruttura software-defined di cui s’è detto e che Intel è pronta a sostenere. “Vogliamo fare in modo che tutti i carichi di lavoro di un centro dati, quali essi siano, siano svolti al meglio sulla nostra architettura. Un compito ambizioso – ha ammesso Bryant –, ma altre volte ci siamo riusciti, come nel passare dal supercomputing proprietario a quello su cluster di processori standard, e oggi vi vogliamo presentare le attività a breve e lungo termine per abilitare questa trasformazione”.

Jason Waxman, General Manager del Cloud Infrastructure Group di Intel

Jason Waxman, General Manager del Cloud Infrastructure Group (e già responsabile della linea Xeon) ha quindi illustrato gli sviluppi in corso. Diciamo sviluppi e non prodotti in quanto, sebbene nel secondo giorno dell’evento siano stati mostrati sia i nuovi processori (alcuni) sia qualche scheda con chip-set assemblati che Intel sta consegnando già da aprile ad alcuni clienti, la loro messa in commercio non è stata ancora definita. Waxman ha parlato di “entro l’anno” per i chip a 22 nm e “nel 2014” per quelli nell’inedita tecnologia a 14 nm e la società ha posto uno stretto embargo su tutto quanto è stato detto e mostrato nelle sessioni tecnologiche.
Lo sviluppo principale è quello relativo alla nuova famiglia di processori SoC, gli Atom C2000, indirizzati a microserver e sistemi storage (in codice Avoton) e a dispositivi di rete e comunicazione (in codice Rangeley). Questi processori rappresentano la seconda generazione di SoC Intel interamente a 64 bit e saranno disponibili entro fine anno in tecnologia a 22 nm. Adottano l’architettura Silvermont, studiata originariamente per i sistemi mobili e in grado di coniugare alta densità e basso consumo, e sono realizzati in versioni fino a 8 core, ottimizzate per diversi carichi di lavoro (data-intensive piuttosto che computer-intensive); integrano gli switch Ethernet e possono gestire fino a 64 Gbit di Ram. Rispetto alla prima generazione Atom, che ha solo pochi mesi di vita essendo stata introdotta nel dicembre 2012, si avrebbe un guadagno fino a quattro volte nell’efficienza energetica e addirittura fino a sette volte nelle prestazioni generali.

Figura: I componenti funzionali dei nuovi SoC Atom ‘Avoton’ e ‘Rangeley’

Dall’alto in basso: gestione della memoria (fino a 64 Gb); gestione I/O (4 controller per 16 vie); nodi di elaborazione e relative cache (4 nodi dual-core); controller dischi Sata; 4 porte Gigabit Ethernet; 4 porte USB; gestione I/O legacy; acceleratore crittografia.

La seconda linea di sviluppo è quella che riguarda i prodotti che saranno realizzati, a patire dall’anno venturo, nella nuova tecnologia a 14 nanometri. Si tratta della prossima generazione della famiglia di processori Xeon E3 (nome in codice Broadwell) progettati per carichi di lavoro orientati alla grafica (tipicamente, giochi online e codificazione video) e di una terza generazione di SoC Atom (nome in codice Denverton) che grazie alla estrema miniaturizzazione dei componenti permetterà d’incrementare livelli prestazionali ed efficienza energetica dei sistemi realizzando un passo avanti nell’infrastruttura per il data center orientato alla rapida delivery dei servizi.


Intel: bilanci fermi, il data center per la ripresa

Intel ha chiuso il secondo trimestre 2013 con un fatturato di 12,8 miliardi di dollari, un utile operativo di 2,7 miliardi e un profitto netto di due. Oltre il 63% delle vendite proviene dalla business unit PC Client, che ha fatturato 8,1 miliardi nel periodo, in lieve crescita (+ 1,4%) sul primo trimestre, ma in calo del 7,5% rispetto allo scorso anno. Con 2,7 miliardi fatturati nel trimestre, il Data Center Group contribuisce solo al 21% del business Intel, ma la sua crescita è stata netta (+ 6,1% sul primo trimestre) e stabile su base annua. In un periodo difficile, con un fatturato 2013 che viene previsto uguale a quello dell’anno scorso e una contrazione del margine lordo, il risultato della business unit guidata da Diane Bryant dimostra la correttezza di una strategia che guarda all’offerta per data center come a un’opportunità di ripresa.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3