Caso Utente

Per scoprire l’origine dell’universo, servono memorie affidabili e performanti

Per non perdere informazioni preziose sull’origine dell’universo, il CERN non può cancellare dati. Si trova quindi a doverne salvare un’enorme mole con un budget ristretto. Per aiutarlo in questa sfida di conservazione dei dati legata all’attivazione del nuovo acceleratore Lhc Run 3, Western Digital ha creato un’efficace alternativa ai costosi SDD. Le due nuove tecnologie brevettate, ArticFlow e IsoVibe, possono diventare l’ideale alleato per il tutto mondo della ricerca che vive di dati. E anche per la PA, alle prese con le sfide del PNRR, tra cui la creazione di un data center unico.

Pubblicato il 02 Mag 2022

Western Digital caso CERN

È una consulenza tecnologica reciproca, quella che da oltre una decina di anni lega il CERN con Western Digital. Il primo condiziona la roadmap della seconda, che a sua volta propone soluzioni “creative” per risolvere problemi complessi, non sprecando risorse. Nell’istituto di ricerca di Ginevra “esiste un vero e proprio team di esperti che cerca sul mercato soluzioni per salvare dati spendendo di meno. Ormai è diventato un fondamentale riferimento per altre realtà in simili condizioni che possono usufruire di ciò già viene sviluppato lì per implementarlo nella propria realtà” spiega infatti Davide Villa, Director Business Development EMEAI di Western Digital. È già accaduto con il Composable disaggregated infrastructure, un trend e una strategia preziosa per chi deve centellinare le risorse senza rinunciare ad alte ambizioni scientifiche.

Temperature e vibrazioni, le due sfide IT del nuovo Lch del CERN

Con la creazione di Lhc Run 3 il CERN, grazie al contributo di Western Digital, è di nuovo riuscito a trovare una soluzione inedita ed economicamente accessibile che molti in futuro sfrutteranno. Nel 2020, pianificando l’infrastruttura IT adeguata al nuovo acceleratore previsto pronto nell’aprile 2022, il CERN si è trovato a dover fare i conti con una “nuova” e grande quantità di dati al secondo. “Si parla di 1 petabyte al secondo che, grazie a una computer farm che filtra dati e output, si riduce a una velocità di 12,5 gigabyte al secondo. Una sfida che richiederebbe gli SDD, tecnologia dai costi inarrivabili per il CERN, che si è quindi rivolto a noi per poter continuare a usare i dischi, ma in modo affidabile” spiega Villa.

Passando dalle jbod da 24 dischi a quelle di 60 (o addirittura 102) necessarie per il nuovo Lhc Run 3, questa tipologia di storage può infatti creare dei problemi non trascurabili, come racconta Villa. “Troppi dischi vicini tendono a scaldarsi, e l’affidabilità cala in modo significativo superati i 50 gradi. La criticità maggiore riguarda però l’intensità delle vibrazioni: se elevata, scatta il sistema automatico che solleva le testine e il dato rischia di essere corrotto. Ne consegue una riduzione della velocità”.

Tecnologie ad hoc per andare oltre il Modello Standard dell’universo

Da produttore di hard disk e SDD, Western Digital ha scelto di gestire anche questo genere di criticità annesse a beneficio di tutti coloro che, come il CERN, devono trovare un compromesso economicamente sostenibile. Ne sono nate due tecnologie brevettate e inserite nel Lhc Run 3 pronto al varo: ArticFlow e IsoVibe.

La prima permette di gestire la temperatura assicurando un gap tra i dischi di massimo 5 gradi. Grazie a dei canali che lasciano penetrare aria fresca a metà della jbod, e non solo davanti, i dischi posti in fondo vengono ben raffreddati e non impattano sulle performance dello storage. Con IsoVibe, invece, si introducono dei tagli che semi-isolano ogni segmento della motherboard su cui sono montati i singoli dischi. In questo modo ciascuno inevitabilmente vibra, ma non crea vibrazioni indotte.

Grazie a queste due tecnologie, il CERN giunge al lancio del Lhc Run 3 perfettamente in grado di gestire velocità pari e superiori ai 12,5 giga al secondo, in modo costante, senza mai cali di performance con 60 ma anche con 102 dischi. “Le soluzioni di Western Digital hanno soddisfatto i nostri requisiti in termini di prestazioni, capacità, affidabilità e consumo energetico, mantenendo una distribuzione e un funzionamento efficienti” conferma anche Eric Bonfillou Server Hardware Specialist nel Dipartimento IT del CERN.

ArticFlow e IsoVibe non hanno inoltre alcun impatto sul resto delle infrastrutture IT, le nuove jbod più dense del Lhc Run 3 invece sì. L’attuale data center non è infatti abbastanza spazioso per ospitarle e ne è stato messo in produzione uno nuovo. Nulla di sorprendente, però: non potendo mai cancellare dati per questo ente, sa che ciclicamente deve adeguarsi alla crescita del loro volume con nuove strutture e tecnologie.

“Per limitare lo spazio usano anche dischi più grandi, passando da 14 TB a 18 TB, mentre noi stiamo già preparando quelli da oltre 20 TB” precisa Villa. Il mondo della tecnologia sa che è necessario giocare d’anticipo per soddisfare i futuri bisogni della roadmap per la ricerca delle origini dell’universo per offrire puntualmente le infrastrutture adeguate. “La parte IT non è ufficialmente una priorità di realtà come il CERN, che sanno però molto bene come sia essenziale organizzarsi per poter salvare e conservare i dati. Senza un supporto storage adeguato, gli esperimenti sarebbero inutili”.

Non pago delle oltre 60 particelle scoperte, ora Lch nella sua nuova versione “potenziata”, sarà in grado di spiegare i fenomeni avvenuti nei primi momenti di vita dell’Universo e quelli non completamente descritti dal Modello Standard. Questo grazie alle energie altissime raggiunte che fanno aumentare l’”ingrandimento” a chi si osserva il mondo in scala microscopica. Nel 2024 è però previsto un nuovo step che renderà i fasci di particelle ancora più stretti e precisi, aumentando così il numero di collisioni e i dati messi a disposizione della ricerca, superando la soglia delle 40 collisioni ad ogni “scontro” di protoni.

Figura 1: L’interno dell’acceleratore LCH del CERN

Salvare più dati riducendo i costi: il CERN come modello per PA e ricerca

Limitare le spese nel salvare un illimitato numero di dati è una mission che accomuna quasi tutte le realtà del mondo della ricerca. L’INGV (Istituto Nazionale di Geofisica e Vulcanologia) ha infatti adottato una soluzione simile a quella del CERN, sempre attraverso Western Digital. Gran parte del mondo della ricerca, col ritmo di raccolta dati oggi raggiunto, potrebbe fare a breve dover fare lo stesso.

Anche la PA, alle prese con le sfide del PNRR, può attingere a queste tecnologie. Più che “può”, deve. Secondo Villa, infatti, “di fronte a una mole di centinaia di petabyte di dati da conservare, la PA se vuole consolidarli in un solo data center avrà bisogno di ArticFlow e IsoVibe per poter riempire gli armadi di tante jbod dense. Queste tecnologie sono fondamentali per la realizzazione del cloud sovrano “.

La PA italiana dovrebbe copiare il CERN anche nella Composable disaggregated infrastructure: “solo con una separazione tra computing e storage potrà ottimizzare gli investimenti facendo scalare solo ciò che è necessario di volta in volta. È l’unica strada per conservare adeguatamente i dati dei cittadini abilitando l’innovazione ma senza sprecare risorse”.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 3