“L’innovazione basata su Linux e l’open source sta davvero prendendo il sopravvento, e credo che anche l’acquisizione di Red Hat da parte di IBM lo dimostri”: lo sottolinea Paul Cormier, Executive Vice President e President Products and Technologies di Red Hat, rispondendo a una domanda sul rapporto tra le due realtà, e definendo l’operazione da 34 miliardi di dollari, la più grande acquisizione software nella storia. Il contesto è un incontro stampa con i top manager di Red Hat, a margine del Red Hat Open Source Day 2019, svoltosi i primi di dicembre a Milano.
Tra le domande, anche chiarimenti e approfondimenti, non solo sulla collaborazione di Red Hat con IBM ed altri partner, tra cui Amazon, Google, Intel, Microsoft, ma anche sui principi chiave alla base dell’attività di business della società, e sulla visione che guiderà lo sviluppo tecnologico futuro, in uno scenario in cui sullo sfondo ci sono open source, cloud ibrido e multi cloud. Presenti all’incontro, oltre a Cormier, anche Werner Knoblich, Senior Vice President e General Manager per l’area Europa Medio Oriente e Africa (EMEA); Gianni Anguilletti, Vice President Mediterranean Region per Italia, Francia, Spagna, Portogallo, Israele, Grecia, Cipro; Rodolfo Falcone, country manager di Red Hat per l’Italia.
Autorevolezza nelle open source community, valore chiave di differenziazione
Con IBM, Red Hat collabora a livello commerciale per diffondere maggiormente i propri prodotti sul mercato, ed evitare sovrapposizioni che potrebbero confondere la base clienti; ma, chiarisce Cormier, essa mantiene una posizione separata e neutrale dal punto di vista tecnologico. La neutralità è un valore core, perché Red Hat, in qualità di fornitore di software enterprise che adotta un modello di sviluppo open source, non collabora soltanto con i principali cloud provider, ma anche con altri soggetti, e società di consulenza e integrazione di sistemi, come Atos e Capgemini, che competono quotidianamente con IBM.
“C’è però anche un altro valore chiave che ci differenzia, ad esempio, rispetto alla maggior parte dei numerosi vendor di distribuzioni Kubernetes – aggiunge Cormier – ed è che gli ingegneri Red Hat rappresentano figure di riferimento molto autorevoli, influenti in queste comunità e progetti open source di sviluppo upstream”. Di conseguenza, le necessità dei clienti sui prodotti software possono essere soddisfatte direttamente a livello “upstream”, quindi di codice sorgente originale, sviluppato a monte e depositato nel repository dagli autori. “Red Hat lavora inoltre su molti progetti, il kernel Linux, Kubernetes, Hadoop, solo per citarne alcuni, e su questi costruisce prodotti commerciali stabili, per i quali crea un ecosistema” fornendo, come nel caso di Red Hat Enterprise Linux (RHEL), pieno supporto e un ciclo di vita che arriva a dieci anni. Lo stesso modello vale, esemplifica, anche per la piattaforma di orchestrazione di container Kubernetes, su cui si basa OpenShift.
Microservizi strumento privilegiato
Cosa c’è all’orizzonte, quali saranno i prossimi passi, nella prospettiva di evoluzione tecnologica che sfrutta sempre più le potenzialità dei container? “I container sono solo un building block e potranno permettere di fare molte cose” risponde Cormier. “Ad esempio, una di queste sono i microservizi, tramite cui è possibile scomporre grandi applicazioni monolitiche in aree funzionali, ciascuna delle quali ha il suo contenitore: ogni container, poi, può girare dov’è più conveniente”, nel cloud pubblico o nell’infrastruttutra di back-end del data center aziendale, quando è essenziale che i dati restino privati. In questo modo, attraverso una sola piattaforma tecnologica, OpenShift, che funziona come motore di astrazione delle applicazioni sulla nuvola pubblica e privata, è possibile eliminare la rigidità dei sistemi IT legacy e raggiungere la massima fluidità e flessibilità di amministrazione dei workload nel cloud ibrido. Come, chiediamo, Kubernetes può sfruttare l’intelligenza artificiale per migliorare l’orchestrazione di tali workload? “Kubernetes è solo un framework” risponde Cormier, spiegando che, per agire realmente sulla base dell’analisi delle risorse disponibili nei vari ambienti, la piattaforma di orchestrazione dovrà richiamare i servizi AI,e utilizzare motori d’automazione e provisioning dell’IT come Ansible. “Quali saranno i prossimi step? “Lavoreremo attorno al framework Kubernetes per renderlo molto più sofisticato” conclude Cormier.