Guida

Cos’è l’intelligenza artificiale: applicazioni attuali e future



Indirizzo copiato

Un tema di grande attualità quello dell’intelligenza artificiale che apre opportunità inesplorate. Come funziona e cosa comprende questa disciplina? Quali sono le tecnologie che la supportano? Quali le applicazioni già oggi possibili e quelle future?

Aggiornato il 11 ott 2024



concept dei vari ambiti di applicazione dell'artificial intelligence

L’intelligenza artificiale sta trasformando radicalmente il modo in cui le aziende operano e competono. Per comprendere appieno l’impatto della digitalizzazione sulle strategie aziendali, è essenziale esaminare come l’AI sta ridefinendo i processi decisionali e l’innovazione.

L’intelligenza artificiale è la disciplina che studia la progettazione, lo sviluppo e la realizzazione di sistemi hardware e software dotati di capacità caratteristiche dell’uomo. Si tratta di abilità quali ragionamento, apprendimento, pianificazione, adattamento.

 

Indice degli argomenti

Cos’è l’intelligenza artificiale: definizione dell’AI

Prima di addentrarci nell’analisi delle tecnologie su cui si basa l’intelligenza artificiale cerchiamo di darne una definizione più specifica.

Iniziamo subito togliendo ogni speranza a chi cerca una definizione univoca e condivisa della locuzione “intelligenza artificiale”.

Si tratta di un concetto che comprende un numero molto ampio di argomenti che afferiscono a differenti discipline, dalla neurologia all’informatica, dalla neurobiologia alla neurofisiologia (e in genere tutte le discipline che studiano il cervello umano) alla matematica e così via.

Per cui, più si cerca di darne una definizione scientifica omnicomprensiva più si è costretti a semplificarla. Per non tralasciare aspetti fondamentali a seconda del punto di vista preso in considerazione, resta una definizione apparentemente banale.

L’intelligenza artificiale trae la sua linfa dall’evoluzione di metodologie e algoritmi innovativi. Ed è su questi che ci focalizzeremo parlando qui, per esempio, di riconoscimento delle immagini e di realtà aumentata e virtuale e rimandando ad altri articoli che spiegano nel dettaglio machine learning, deep learning, natural language processing.

Tipi di Intelligenza Artificiale

Intelligenza artificiale o intelligenza aumentata? Può apparire strano, dopo aver parlato fino ad ora di intelligenza artificiale, porsi questa domanda, ma non è una domanda peregrina.

Come vedremo nella parte dedicata ai temi etici, l’intelligenza artificiale se da un lato apre grandi opportunità, dall’altro alza anche il sipario su scenari, per ora solo fantascientifici, ma sicuramente allarmanti di un mondo governato dalle macchine.

Intelligenza Artificiale Debole vs Forte

Il massimo livello raggiunto finora dall’Intelligenza Artificiale è quello di un ottimo studente, con una memoria poderosa, ma non del genio. Le macchine fino ad ora correlano ciò che hanno imparato. Da questi insegnamenti traggono nuove informazioni per simulare il comportamento umano, ma non hanno le illuminazioni geniali di un Einstein. Soprattutto non sviluppano proprie capacità cognitive, ma emulano quelle umane.

Sicuramente però possono supportare l’uomo mettendogli a disposizione correlazioni che una mente umana difficilmente potrebbe fare. Questo è possibile macinando la quantità infinita di dati oggi disponibili e contribuendo quindi ad “aumentare” l’intelligenza umana. Per questo in alcuni contesti si preferisce utilizzare il termine intelligenza aumentata invece di intelligenza artificiale.

Questo dibattito rispecchia quello che, nella comunità scientifica, si sostanzia nella differenza tra intelligenza artificiale debole (weak AI) e intelligenza artificiale forte (strong AI).

È al filosofo statunitense, nonché studioso del linguaggio, John Searle che dobbiamo l’esplicitazione di questa differenziazione.

Egli per la prima volta utilizza il termine “intelligenza artificiale forte” (dalla quale, secondo Searle, siamo ancora lontani) nell’articolo Menti, cervelli e programmi del 1980. Non è questa la sede per approfondire l’intenso dibattito che si sviluppa intorno a questa tematica, ma ci limitiamo a riportare sinteticamente le due definizioni.

Cos’è l’Intelligenza artificiale debole

Agisce e pensa come se avesse un cervello, ma non è intelligente, simula solo di esserlo. Per fornire la risposta a un problema indaga su casi simili, li confronta, elabora una serie di soluzioni e poi sceglie quella più razionale. Opta per la decisione che, sulla base dei dati analizzati, è più coerente simulando il comportamento umano.

L’AI debole non comprende totalmente i processi cognitivi umani, ma si occupa sostanzialmente di problem solving. Dà in pratica risposte a problemi sulla base di regole conosciute.

Cos’è l’Intelligenza artificiale forte

Ha capacità cognitive non distinguibili da quelle umane. Si collocano in questo ambito i “sistemi esperti” cioè software che riproducono prestazioni e conoscenze di persone esperte in un determinato ambito.

Il cuore di questi sistemi è il motore inferenziale ossia un algoritmo che, come la mente umana, da una proposizione assunta come vera passa a una seconda proposizione. Lo fa con logiche di tipo deduttivo (quando da un principio di carattere generale ne estrae uno o più di carattere particolare) o induttivo (quando avviene il contrario), la cui verità è derivata dal contenuto della prima.

La caratteristica distintiva di questi sistemi è l’analisi del linguaggio per comprenderne il significato. Infatti, senza comprensione del significato (ricordate quanto detto in tema memoria semantica?) non c’è vera intelligenza.

L’intelligenza artificiale generativa

Ultimate Guide to Generative AI for Businesses

Tecniche di Apprendimento nell’IA

L’apprendimento è un aspetto fondamentale dell’intelligenza artificiale, che permette ai sistemi di migliorare le loro prestazioni nel tempo basandosi sui dati e sull’esperienza. Le tecniche di apprendimento nell’IA sono diverse e si adattano a vari tipi di problemi e dataset. Queste tecniche possono essere ampiamente categorizzate in tre principali approcci:

ciascuno di questi metodi ha i suoi punti di forza e si applica a scenari diversi nel campo dell’IA.

Apprendimento supervisionato

L’apprendimento supervisionato è una tecnica di machine learning in cui l’algoritmo viene addestrato su un dataset etichettato. In questo approccio, il modello riceve sia i dati di input che le corrispondenti etichette di output corrette.

L’obiettivo è imparare una funzione che, dato un nuovo input non etichettato, possa prevedere l’output corretto.

Esempi comuni includono la classificazione di immagini, dove il modello potrebbe essere addestrato su migliaia di immagini etichettate per riconoscere oggetti, e la previsione di prezzi immobiliari basata su caratteristiche come dimensioni, posizione e numero di stanze. L’apprendimento supervisionato è particolarmente efficace quando si dispone di un dataset ben etichettato e si cerca di fare previsioni specifiche.

Apprendimento non supervisionato

Nell’apprendimento non supervisionato, l’algoritmo lavora su dati non etichettati, cercando di scoprire pattern o strutture intrinseche. A differenza dell’apprendimento supervisionato, non c’è un output “corretto” predefinito. L’obiettivo è esplorare i dati e trovare raggruppamenti naturali o relazioni nascoste.

Tecniche comuni includono il clustering, dove il modello raggruppa dati simili, e la riduzione della dimensionalità, che semplifica dataset complessi mantenendo le caratteristiche essenziali.

L’apprendimento non supervisionato è utile per l’analisi esplorativa dei dati, la segmentazione dei clienti e l’individuazione di anomalie. È particolarmente prezioso quando si hanno grandi quantità di dati non etichettati e si vogliono scoprire insights non evidenti.

Apprendimento per rinforzo

L’apprendimento per rinforzo è un approccio in cui un agente impara a prendere decisioni interagendo con un ambiente. L’agente esegue azioni e riceve feedback sotto forma di ricompense o penalità.

L’obiettivo è imparare una strategia (chiamata policy) che massimizzi la ricompensa cumulativa nel tempo. Questo tipo di apprendimento è particolarmente adatto per problemi di decisione sequenziale, come i giochi, la robotica o l’ottimizzazione di sistemi complessi.

Un esempio famoso è l’AlphaGo di DeepMind, che ha imparato a giocare a Go a livello sovrumano attraverso l’apprendimento per rinforzo. Questo approccio si distingue per la sua capacità di adattarsi a situazioni nuove e imprevedibili, imparando attraverso tentativi ed errori in modo simile agli esseri umani.

Deep Learning

Il deep learning è una sottocategoria del machine learning che utilizza reti neurali artificiali con molti strati (da qui il termine “deep”, profondo). Questa tecnica si ispira alla struttura e al funzionamento del cervello umano, con reti di neuroni artificiali che elaborano e trasformano i dati attraverso molteplici livelli di astrazione. Il deep learning ha rivoluzionato molti campi dell’IA, consentendo prestazioni senza precedenti in compiti come il riconoscimento vocale, la visione artificiale, l’elaborazione del linguaggio naturale e il gioco strategico.

Le reti neurali profonde sono in grado di apprendere automaticamente caratteristiche e rappresentazioni complesse dai dati grezzi, eliminando la necessità di una progettazione manuale delle caratteristiche. Questo le rende particolarmente potenti per gestire dati non strutturati come immagini, audio e testo. Modelli come le Convolutional Neural Networks (CNN) per l’elaborazione delle immagini, le Recurrent Neural Networks (RNN) e le Long Short-Term Memory (LSTM) per le sequenze temporali, e i Transformer per l’elaborazione del linguaggio, sono tutti esempi di architetture di deep learning che hanno portato a progressi significativi nei rispettivi campi.

Il deep learning può essere applicato a tutti e tre i paradigmi di apprendimento discussi in precedenza: supervisionato, non supervisionato e per rinforzo. La sua capacità di scalare con grandi quantità di dati e di catturare pattern complessi lo rende uno strumento potente nell’era dei big data e dell’AI moderna.

AI e sicurezza informatica

L’intersezione tra Intelligenza Artificiale (AI) e sicurezza informatica rappresenta un campo complesso e in rapida evoluzione. L’AI offre numerose opportunità per migliorare la sicurezza in vari settori, ma presenta anche nuove sfide e potenziali rischi.

Cybersecurity e AI

L’AI sta trasformando il panorama della cybersecurity, offrendo sia nuovi strumenti per la difesa che nuove sfide da affrontare:

  1. Rilevamento delle minacce: i sistemi di AI possono analizzare enormi quantità di dati in tempo reale per identificare pattern anomali e potenziali minacce alla sicurezza. Questo permette una risposta più rapida e precisa agli attacchi informatici.
  2. Automazione della risposta: l’AI può automatizzare le risposte agli incidenti di sicurezza, riducendo i tempi di reazione e minimizzando i danni potenziali.
  3. Previsione delle vulnerabilità: algoritmi di machine learning possono prevedere potenziali vulnerabilità nei sistemi, permettendo interventi preventivi.
  4. Sfide: l’AI viene anche utilizzata dai cybercriminali per creare attacchi più sofisticati, come malware adattivo o deepfake per il phishing avanzato.
  5. Adversarial AI: emerge la necessità di proteggere i sistemi di AI stessi da manipolazioni, come gli attacchi adversarial che mirano a ingannare i modelli di machine learning.

Rischi e minacce dell’AI

Mentre l’AI offre numerosi benefici, presenta anche rischi significativi che devono essere attentamente considerati:

  1. Autonomia e controllo: sistemi di AI altamente autonomi potrebbero prendere decisioni impreviste o indesiderate, sollevando questioni di controllo e responsabilità.
  2. Amplificazione dei pregiudizi: l’AI può amplificare pregiudizi esistenti nei dati, portando a decisioni discriminatorie in ambiti critici come la giustizia o l’occupazione.
  3. Privacy e sorveglianza: le capacità avanzate di analisi dei dati dell’AI possono portare a una sorveglianza pervasiva, minacciando la privacy individuale.
  4. Disinformazione e manipolazione: tecnologie come i deepfake possono essere utilizzate per creare e diffondere disinformazione su larga scala.
  5. Dipendenza tecnologica: una dipendenza eccessiva dai sistemi di AI potrebbe rendere la società vulnerabile in caso di malfunzionamenti o attacchi.
  6. Impatto sul lavoro: l’automazione guidata dall’AI potrebbe portare a significativi sconvolgimenti nel mercato del lavoro.
  7. Corsa agli armamenti AI: lo sviluppo di AI avanzate per scopi militari potrebbe innescare una nuova corsa agli armamenti tra le nazioni.
  8. Rischio esistenziale: alcuni esperti avvertono dei potenziali rischi a lungo termine di un’IA superintelligente che potrebbe diventare incontrollabile.

L’impatto economico dell’AI

Qualche tempo fa nell’articolo Quale è oggi e in futuro l’impatto economico dell’intelligenza artificiale? abbiamo analizzato alcuni trend che determinavano l’impatto economico dell’AI sull’economia mondiale.

AI nel mondo industriale

Specificatamente rivolta al mondo industriale è stata invece la survey The Present and Future of AI in the Industrial Sector condotta da HPE e Industry of Things World, conferenza europea di riferimento per il mondo dell’Industrial IoT, che ha coinvolto 858 professionisti ed executive di aziende industriali europee.

La maggioranza degli intervistati (61%) risulta già impegnata a qualche titolo nella AI. L’11% ha già implementato la tecnologia nelle funzioni o nelle attività di base. Il 14% prevede di farlo nei prossimi dodici mesi e il 36% ne sta valutando l’implementazione.

La previsione di crescita del fatturato conseguente all’adozione di una qualche forma di intelligenza artificiale è di circa l’11,6% entro il 2030, con un incremento dei margini del 10,4%.

Una delle cose più interessanti che emerge da questa indagine è che queste previsioni si basano sulle elevate percentuali di successo dei progetti di AI completati (risultato in genere non scontato nell’adozione di tecnologie d’avanguardia). Il 95% degli intervistati che hanno già implementato la AI nelle rispettive aziende afferma di aver raggiunto, migliorato o significativamente superato i propri obiettivi.

L’artificial intelligence e l’attività economica

Lo studio del McKinsey Global Institute (MGI) dal titolo Modeling the Impact of AI on the World Economy afferma che entro il 2030 l’AI potrebbe determinare un aumento dell’attività economica globale di circa 13 trilioni di dollari, con una crescita di circa 1,2% del PIL all’anno. L’impatto, se si dovesse confermare questa previsione, sarebbe simile a quello che hanno avuto nel 1800 il motore a vapore, i robot nella produzione industriale negli anni ’90 o la diffusione dell’IT negli anni 2000. Stiamo quindi parlando di tecnologie che possiamo definire disruptive.

L’impatto dell’AI non sarà lineare. Emergerà gradualmente e sarà visibile nel tempo con un’accelerazione crescente più ci si avvicina al 2030.

L’ipotesi è di un’adozione dell’AI basata sul modello della curva a S. Con un avvio lento a causa di costi e investimenti sostanziali associati all’apprendimento e all’implementazione. E un’accelerazione successiva determinata dall’effetto cumulativo e da un miglioramento delle capacità complementari.

Un’ultima considerazione relativa a queste ipotesi di crescita riguarda il modo in cui le aziende e i paesi sceglieranno di abbracciare l’intelligenza artificiale. Per le prime, se la scelta è più orientata verso l’utilizzo di queste tecnologie per ottenere una maggiore efficienza oppure maggiormente rivolta allo sviluppo di soluzioni e prodotti innovativi l’impatto sarà differente. Così se i paesi avranno un approccio di apertura (sostanziato da provvedimenti legislativi, sostegno economico, incentivi, sviluppo di percorsi formativi adeguati) o un atteggiamento prudente o ostile questo non potrà che influire sui risultati economici ipotizzati.

Ambiti applicativi ed esempi dell’intelligenza artificiale nella vita quotidiana e nei settori

L’intelligenza artificiale non è più una disciplina relegata ai laboratori di ricerca. Sono diffuse le applicazioni dove le diverse tecnologie di intelligenza sono implementate nella vita quotidiana.

Ma prima di illustrare alcuni ambiti, vogliamo ricordare i due elementi che stanno, da un lato, rendendo possibile la diffusione di applicazioni AI in ambito business, e dall’altro, le rendono disponibili in tempo reale là dove servono.

Il ruolo del cloud computing

A rendere possibile l’utilizzo di applicazioni AI su vasta scala in ambito business, a “democratizzarne” l’accesso rendendole fruibili anche a realtà medio piccole e non solo alle grandi corporation, è la diffusione del cloud computing.

La fruizione di tecnologie e applicazioni AI dai più diffusi cloud pubblici, nei quali avviene la potente massa elaborativa necessaria per eseguire applicazioni di AI, apre le porte anche a chi non ha grandi possibilità di investimento.

Il ruolo dell’edge computing

Il secondo elemento che è fondamentale è l’edge computing. Nelle applicazioni dove è necessario avere una risposta immediata a problematiche risolvibili con applicazioni di intelligenza artificiale queste devono essere eseguite là dove il dato viene raccolto, con un’elaborazione periferica. E per questo sono tanto importanti evoluzioni tecnologiche come le ReRAM di cui approfondiamo l’impatto più avanti.

AI e riconoscimento delle immagini

Quello del riconoscimento delle immagini, o computer vision, è uno degli ambiti dove, soprattutto negli ultimi anni e grazie all’utilizzo delle reti neurali, maggiori sono gli sforzi e gli investimenti di aziende e organizzazioni pubbliche. Basti pensare all’evoluzione avutasi nel riconoscimento facciale.

In un sistema di visione artificiale, gli oggetti (o le persone) da ispezionare vengono ripresi da telecamere. Le immagini vengono quindi digitalizzate. L’immagine, resa così “comprensibile” per il sistema di calcolo, passa attraverso un algoritmo che la elabora e analizza per “riconoscerla” in base a determinati modelli. Ed è proprio sulle caratteristiche di questo algoritmo e dei dati da cui è alimentato che sta la differenza tra passato e futuro dell’elaborazione delle immagini.

Facciamo un parallelismo con la vista umana. Quando vediamo un oggetto, fisso o in movimento che sia (immaginiamo un bambino che vi corre incontro felice), la nostra retina ne compie un’indagine elementare (qualcosa che viene verso di voi). La invia al cervello dove la corteccia visiva analizza più a fondo l’immagine (identifica un piccolo essere umano).

Questa immagine “approssimativa”, viene quindi inviata alla corteccia cerebrale che confronta questi dati con tutto quello che conosce. Identifica l’immagine attuale, la confronta con altre immagini già classificate e decide cosa fare. Si tratta di un bambino, vostro figlio, che vi corre incontro e vi abbassate per prenderlo in braccio. Tutto questo processo avviene in una microscopica frazione di secondo.

Cosa fa la visione artificiale

Ebbene, la visione artificiale riproduce questo meccanismo e i punti critici sono la qualità della digitalizzazione dell’immagine. E l’algoritmo fa le veci della corteccia cerebrale. Mentre dalla base dati vengono estratti modelli per effettuare il confronto e l’identificazione precisa dell’oggetto analizzato.

Il ruolo dell’algoritmo nel riconoscimento delle immagini

Per quanto riguarda l’algoritmo, il cambio di passo rispetto alle sperimentazioni della seconda metà del secolo scorso, viene dall’implementazione delle reti neurali convolutive o convulazionali (convolutional neural networks – CNN) con le prime sperimentazioni intorno al 2012.

Le reti neurali convoluzionali funzionano come tutte le reti neurali. Un layer di input, uno o più layer nascosti, che effettuano calcoli tramite funzioni di attivazione, e un layer di output con il risultato.

La differenza sono appunto le convoluzioni, non entro nel dettaglio di questo concetto matematico che è piuttosto complicato. In sostanza, nel nostro caso, è come se all’immagine venisse applicato un filtro (la maschera di convoluzione) che consente di collegare ogni neurone di un dato layer della rete neurale solo a una piccola sottosezione del layer precedente. In questo modo il neurone è responsabile solo dell’elaborazione di una determinata parte di un’immagine. E questo è il principio di funzionamento dei singoli neuroni corticali nel cervello.

Perché per l’AI è fondamentale la base dati

Perché la base dati con la quale l’algoritmo viene “addestrato” è fondamentale? La risposta è semplice. Quando diamo in pasto al computer dati parziali, non chiari o che riflettono il nostro modo di pensare, inevitabilmente il risultato dell’elaborazione risentirà di queste scelte (più o meno consapevoli che siano).

In pratica, il principio base della computer science “garbage in, garbage out” è valido per l’applicazione dell’AI nel riconoscimento delle immagini.

Ha fatto scuola lo studio del MIT di Boston del gennaio 2018 dove la ricercatrice Joy Buolamwini, testando i software di IBM, Microsoft e della cinese Face++, aveva appurato che gli algoritmi sono precisi al 99% nel caso di uomini bianchi, ma questa percentuale crolla al 35% per le donne dalla pelle scura. Il motivo? Il set di dati da analizzare che questi algoritmi utilizzavano per “apprendere” si basa su soggetti per l’80% bianchi e per il 75% maschi.

Realtà aumentata e realtà virtuale

Anche in questo caso partiamo dalla semplice definizione.

  • La realtà aumentata rappresenta la realtà arricchendola con oggetti virtuali grazie all’utilizzo di sensori e algoritmi che consentono di sovrapporre immagini 3D generate dal computer al mondo reale.
  • La realtà virtuale, invece, simula completamente un ambiente. Nel caso di realtà virtuale immersiva l’utente “entra” all’interno di questo ambiente grazie a speciali visori, guanti dotati di sensori utilizzati per i movimenti, per impartire comandi o tute (sempre dotate di sensori) che avvolgono l’intero corpo. Nella realtà virtuale non immersiva l’utente si troverà semplicemente dinanzi ad un monitor, il quale fungerà da finestra sul mondo tridimensionale con cui l’utente potrà interagire attraverso joystick appositi.

Come vedremo più avanti, l’utilizzo a fini ludici di queste tecnologie integrate con AI non è il principale scopo. Ormai molte aziende le utilizzano nello sviluppo e nel testing di nuovi prodotti (anche nel software testing) o nella vendita di prodotti e servizi.

Intelligenza artificiale nella Sanità

In questo ambito, il potenziale di applicazione è ampio. Tanto si può fare con l’analisi dei big data e della storia clinica dei pazienti applicando il machine learning. È il caso dei miglioramenti in fase diagnostica così come della possibilità di somministrare cure personalizzate in base al corredo genetico dell’individuo.

Grandi sono anche le promesse dell’intelligenza artificiale per la previsione e prevenzione di malattie o epidemie su larga scala. Si va dal monitoraggio in remoto delle condizioni di salute grazie ai wearable device, all’effettuazione di test di routine senza l’intervento del medico, fino al calcolo delle probabilità che un paziente sia affetto da una malattia. Per non parlare del supporto che si può fornire agli studi in ambito genetico e sul genoma.

Qualche dato sul rapporto tra AI e Sanità

Dall’applicazione dell’AI alla sanità possono trarre vantaggio le strutture ospedaliere, ma anche il sistema sanitario di interi paesi, grazie alla riduzione dei costi di ospedalizzazione. Una indagine di mercato realizzata da Accenture nel 2018 stima che la sanità USA entro il 2026 potrebbe risparmiare 150 miliardi di dollari grazie ad applicazioni di intelligenza artificiale sia in ambiti strettamente legati all’attività medica (dalla medicina generale alla chirurgia, alla somministrazione di farmaci) sia per quanto riguarda la sicurezza informatica in ambito ospedaliero.

Tractica, società specializzata in ricerche di mercato nell’ambito dell’AI e della robotica, nel 2017 stimava che le entrate mondiali delle tecnologie per l’analisi delle immagini mediche dovrebbero raggiungere i 1.600 milioni di dollari entro il 2025.

Mentre le entrate globali delle app di assistenza virtuale potrebbero, sempre entro la stessa data, superare i 1.200 milioni di dollari.

Intelligenza artificiale nell’Automotive: automobili a guida autonoma

Una delle applicazioni più note dell’intelligenza artificiale nel mondo dell’auto è quella delle auto autonome. Secondo il colosso della finanza BlackRock nel 2025 il 98% dei veicoli sarà connesso e nel 2035 il 75% sarà a guida autonoma.

I problemi etici dell’uso dell’AI nella guida autonoma

L’applicazione dell’AI nella guida autonoma non manca di sollevare problemi etici. I ricercatori del MIT hanno pubblicato nell’ottobre 2018 su Nature i risultati del sondaggio The Moral Machine experiment che ha coinvolto 2 milioni di persone in 233 paesi. Lo studio è nato per capire cosa pensa la gente riguardo alle scelte che un’auto a guida autonoma dovrebbe compiere in caso di emergenza.

Se l’auto deve scegliere se schiantarsi (rischiando di uccidere il guidatore) per non investire un bambino, che deve fare? E se invece del bambino c’è un anziano? E se deve scegliere tra investire un gruppo di persone o una persona sola? O se da una parte c’è un senza tetto e dall’altra una signora ben vestita?

Se su alcune risposte (meglio salvare persone che animali, gruppi più numerosi rispetto a gruppi meno numerosi) il parere era abbastanza condiviso. Su altre sono emerse differenze culturali. In America Latina, per esempio, si preferisce salvare i giovani rispetto agli anziani. Per gli asiatici l’auto dovrebbe scegliere di salvare gli anziani rispetto ai giovani.

AI sulle auto, cosa succede oggi

Non occorrerà attendere le auto che guidano da sole per vedere l’AI implementata sulle auto. Un esempio sono le videocamere intelligenti dotate di sistemi di facial recognition, già oggi installate su tir e veicoli commerciali. Essi rilevano lo stato del guidatore monitorando stanchezza, distrazioni, stati di scarsa lucidità. Questo consente, oltre di evitare incidenti, di abbassare i costi assicurativi per le flotte commerciali. E alcune case automobilistiche stanno sviluppando soluzioni, meno costose, da implementare sulle automobili.

In ogni caso, se alcune (per il momento un numero limitato) realtà stanno lavorando intensamente sulle auto a guida completamente autonoma, un numero crescente di produttori sta sviluppando servizi di AI a supporto del guidatore. Sistemi per evitare collisioni, alert per la segnalazione di pedoni o ciclisti ecc.

Artificial intelligence nel Finance e mercato azionario

Facciamo due esempi. I dati sulle abitudini individuali di rimborso, il numero di prestiti attivi in un dato momento, il numero di carte di credito intestate e altri dati possono essere utilizzati per personalizzare il tasso di interesse su una carta o su un mutuo. Sulla base delle risposte, il sistema di machine learning a supporto di questi servizi può migliorare ulteriormente offrendone di nuovi. Lo stesso meccanismo può risultare estremamente efficace nella rilevazione e gestione delle frodi dove il sistema, imparando dai propri errori, può essere sempre più efficace.

I vantaggi dell’AI per i clienti dei servizi finanziari

La AI sta ridefinendo il tipo di servizi finanziari offerti e la loro modalità di erogazione? Con quale impatto sugli istituti finanziari e quali vantaggi per i clienti? Sono le domande alle quali ha cercato di dare delle risposte lo studio realizzato qualche tempo fa dal World Economic Forum in collaborazione con Deloitte, The New Physics of Financial Services – Understanding how artificial intellligence is transforming the financial ecosystem.

Lo studio rileva che sono molto numerosi gli specifici servizi finanziari che possono ottenere importanti benefici dall’adozione di tecnologie di intelligenza artificiale. Come si vede nella figura 5, questi servizi sono stati raggruppati in 6 ambiti. Depositi e prestiti, Assicurazione, Pagamenti, Gestione degli investimenti, Capital markets (tutte le attività relative alla gestione degli strumenti finanziari emessi dai clienti della banca come obbligazioni, azioni e derivati) e Market infrastructure (intermediazione di servizio di brokeraggio per esempio gestione derivati).

Ogni servizio si posiziona poi su una scala di maturità che parte dall’utilizzo dell’AI per “fare meglio le cose” (A) per arrivare a un utilizzo che consente di “fare le cose in modo radicalmente diverso” (B).

Schema che mostra i 6 ambiti nei quali sono raggruppati i servizi finanziari e i benefici che possono ottenere dall’adozione di tecnologie di AI
Figura 5 – I 6 ambiti nei quali sono raggruppati i servizi finanziari e i benefici che possono ottenere dall’adozione di tecnologie di AIFonte: World Economic Forum, The New Physics of Financial Services – Understanding how artificial intellligence is transforming the financial ecosystem

Ecco alcuni spunti emersi dalla ricerca.

Trasformare gli investimenti in AI in centri di profitto diretto

I processi di back-office abilitati all’IA possono essere migliorati più rapidamente se vengono offerti as a service ad altre aziende (anche competitor). Nella figura 6, che evidenzia le differenze tra un modello tradizionale di implementazione di AI e uno di back office come servizio, si evidenzia come questa seconda opzione, che abilita un miglioramento continuo dei servizi basato su ciò che si apprende nell’eseguirli presso i clienti, induca vantaggi economici diretti per il fornitore dei servizi.

Schema che mostra Differenze tra un modello tradizionale di implementazione di AI e uno di back office come servizio
Figura 6 – Differenze tra un modello tradizionale di implementazione di AI e uno di back office come servizio – Fonte: World Economic Forum, The New Physics of Financial Services – Understanding how artificial intellligence is transforming the financial ecosystem

L’AI è un nuovo campo di battaglia sul quale giocarsi la fedeltà del cliente

L’AI abilita nuove strade per differenziare la propria offerta ai clienti basata su una personalizzazione estremamente puntuale dei servizi. Essi possono essere offerti in tempo reale al manifestarsi di un’opportunità di mercato o di un’esigenza del cliente stesso.

Servizi finanziari auto gestiti

Grazie all’AI, la customer experience può cambiare radicalmente con un’interazione diretta tra il cliente e gli “agenti” di AI dei diversi fornitori di servizi finanziari (o dei diversi servizi dello stesso fornitore).

Il cliente stesso può autogestirsi, in modo completamente autonomo rispetto alla tradizionale consulenza finanziaria. Sempre nella logica del circolo virtuoso, inoltre, gli algoritmi di AI acquisiscono nuovi insegnamenti per migliorare.

Soluzioni collettive per problemi condivisi

Strumenti di collaborazione basati su AI, che si sviluppano su dataset condivisi, possono rendere più sicuro ed efficiente il sistema finanziario nel suo insieme.

schema che mostra la Maggiore sicurezza del Sistema finanziario grazie all’AI
Figura 7 – Maggiore sicurezza del Sistema finanziario grazie all’AI
Fonte: World Economic Forum, The New Physics of Financial ServicesUnderstanding how artificial intellligence is transforming the financial ecosystem

Polarizzazione della struttura del mercato dei servizi finanziari

La diffusione dell’AI porterà a una graduale scomparsa delle realtà di medie dimensioni. Da una parte si andrà verso una sempre maggiore concentrazione. Processo già in atto da tempo in questo mercato a causa di altri fattori per i quali rimandiamo all’articolo Finance, i fattori esterni e interni che stanno trasformando il settore. L’altro polo è composto da una proliferazione di piccolissime realtà, molto agili, in grado di offrire prodotti di nicchia.

Il dato diventa il fulcro introno al quale costruire alleanze. Come abbiamo visto nei punti precedenti, infatti, maggiori sono i dati, migliori sono le performance delle soluzioni. Questa logica porterà inevitabilmente verso la periferia del mercato finanziario quelle realtà che non trovano la propria collocazione all’interno di un ecosistema.

Altro interessante studio sull’uso dell’AI per i servizi finanziari è fornito dalla ricerca Global AI in Financial Services Survey, che spiega gli impatti dell’intelligenza artificiale sul business model ala forza lavoro, ma non solo.

Intelligenza artificiale per avvocati e studi professionali

Gli studi professionali, dagli avvocati ai commercialisti ai notai, sono considerati un settore che sarà sempre più impattato dall’intelligenza artificiale. E questo non solo per automatizzare le attività di routinarie, ma anche per attività di media complessità. Esse sostituiscono il lavoro umano che, nella migliore delle ipotesi, potrà essere riqualificato per attività a maggior valore. Ma nella peggiore verrà estromesso dal settore fino ad arrivare alla scomparsa di alcune figure professionali oggi presenti.

Riassumiamo brevemente alcune delle attività che potrebbero ottenere benefici dall’adozione di tecnologie di AI.

Revisione dei documenti e ricerche legali

Software di AI possono migliorare l’efficienza dell’analisi dei documenti per uso legale. Possono catalogarli come rilevanti per un caso particolare o richiedere l’intervento umano per ulteriori approfondimenti.

Supporto dell’AI alla due diligence

Effettuare la ricerca di informazioni per conto dei loro clienti con la “dovuta diligenza”. È una delle attività più impegnative degli studi di assistenza legale. Si tratta di un lavoro che richiede la conferma di fatti e cifre e una valutazione approfondita delle decisioni sui casi precedenti. Gli strumenti di intelligenza artificiale possono aiutare questi professionisti a condurre la loro due diligence in modo più efficiente.

AI per revisione e gestione dei contratti

Gli avvocati del lavoro svolgono attività molto impegnative per rivedere i contratti di lavoro al fine di identificare eventuali rischi per i loro clienti. I contratti vengono rivisti, analizzati punto per punto per consigliare se firmarli o eventualmente rinegoziarli. Con l’ausilio di software di machine learning è possibile redigere il “migliore” contratto possibile.

L’AI aiuterà a prevedere il risultato di un procedimento giudiziario

Grazie a strumenti di intelligenza artificiale gli avvocati possono essere supportati nel fare previsioni sugli esiti di un procedimento giudiziario. E aiutare quindi i clienti nella decisione se, per esempio, proseguire in una determinata causa.

Fornire informazioni di base ai clienti o potenziali clienti

I grandi studi di assistenza legale devono dedicare assistenti alla preliminare attività di front end per tutte quelle persone che pensano di poter avere bisogno di un avvocato, ma non sono sicure.

L’utilizzo di chatbot basate su tecnologie di natural language processing (più o meno evolute quindi solo testuali o integrate con sistemi voce) possono supportare gli studi nella prima fase di risposta a queste richieste e per indirizzare il potenziale cliente al professionista più competente sul suo caso.

Esempi di adozione dell’AI nei casi legali

La banca d’affari JP Morgan qualche tempo fa stava sperimentando il software COntract INtelligence (COIN). Esso, in pochi secondi, dovrebbe essere in grado di leggere e interpretare accordi commerciali e contratti di prestito.

Un lavoro che implica procedure che occupano oltre 360 mila ore di lavoro/anno degli avvocati della Banca. A oggi non è ben chiaro se il software è già stato messo in produzione. Sicuramente rappresenta un indicatore importante di quello che può attendere i professionisti del settore.

E vari sono anche gli esempi per gli studi di commercialisti. H&R Block, società americana di consulenza fiscale e tributaria, ha stretto una collaborazione con IBM per l’utilizzo del sistema cognitivo Watson per automatizzare le attività relative alla dichiarazione dei redditi.

Grazie all’analisi di normativa e agevolazioni possibili, i propri clienti possano presentare la dichiarazione fiscalmente più conveniente.

AI e occupazione

Il tema dell’impatto sull’occupazione delle nuove tecnologie e, in particolare, di intelligenza artificiale e automazione suscita dibattiti accesi.

Da un lato vi è chi prospetta un futuro catastrofico con la perdita di migliaia di posti di lavoro. Dall’altro chi minimizza questo aspetto. C’è chi ricorda che tutte le rivoluzioni hanno portato alla scomparsa di alcuni lavori. Ma ne hanno creato altri.

L’Osservatorio Artificial Intelligence del Politecnico di Milano, nel cercare di capire quale sarà l’impatto dell’Ai sull’occupazione, è partito da una prospettiva originale. Dopo avere analizzato le dinamiche socio-demografiche del nostro paese, con una visione a 15 anni, le ha prima messe in relazione con la domanda e l’offerta di lavoro. Quindi ha analizzato l’impatto dell’AI su uno scenario globale, e successivamente ne ha verificato l’impatto sul sistema previdenziale.

Entro il 2033 ci sarà un disavanzo di posti di lavoro pari circa a un milione

Per una visione approfondita rimandiamo all’articolo Lavoro e AI: “Più che una minaccia o un’opportunità, l’intelligenza artificiale è una necessità” . E alla videointervista rilasciata dal Direttore dell’Osservatorio Giovanni Miragliotta.

Qui ci limitiamo a fornire il dato finale emerso dall’indagine. A causa di diversi fattori, illustrati nell’articolo, nel 2033 in Italia mancheranno circa 4,7 milioni di posti di lavoro equivalenti. Contemporaneamente si stima che le nuove tecnologie sostituiranno 3,6 milioni di posti di lavoro.

Quindi, secondo il Politecnico, ci troveremo con un disavanzo pari a circa 1,1 milioni di posti di lavoro. Un disavanzo che potrà essere colmato grazie alla riduzione del tasso di disoccupazione. Questo impone un’azione di riconversione e formazione della forza lavoro non occupata. Un’analisi, quindi, che ribalta le previsioni catastrofiche su un impatto esclusivamente negativo dell’AI sul lavoro.

Resta evidente il bisogno di lavorare fin da subito in primis nella formazione di nuove competenze.

Le tecnologie che abilitano e supportano l’intelligenza artificiale

Dal quantum computing, ai chip neuromorfici, alle ReRAM

La ricerca per sviluppare tecnologie hardware in grado di supportare gli sviluppi in ambito software dell’intelligenza artificiale è intensa. Riportiamo qui le tecnologie che possono consentire di realizzare pienamente le promesse di questa disciplina.

General Purpose GPU

Nate nel mondo dei videogiochi per elaborare le informazioni grafiche dei computer, le GPU (Graphic Processing Unit) hanno via via aumentato le proprie prestazioni. Soprattutto dopo l’introduzione della grafica 3D nei videogiochi.

Per una volta, però, la solita storia dell’informatica si ribalta. Contrariamente a situazioni dove il software “divoratore” di capacità computazionale deve “combattere” con l’hardware mai completamente all’altezza, il potenziale di calcolo delle GPU rimaneva inespresso. Nel 2007, Nvidia (uno dei maggiori produttori di acceleratori grafici) introduce perciò General Purpose GPU.

Una brevissima digressione per capire come funzionano CPU e GPU. Nelle CPU le istruzioni vengono eseguite in maniera seriale sequenziale e tutti i core (i nuclei elaborativi) del processore si occupano della stessa istruzione finché non è terminata.

La logica con cui lavora una GPU è invece parallela. Molteplici istruzioni vengono eseguite contemporaneamente. Per farlo, invece di pochi core ottimizzati per il calcolo seriale, è strutturata con migliaia di unità di elaborazione, meno potenti di quelle delle CPU, ma ottimizzate per lavorare in parallelo.

Le GPGPU (General Purpose GPU) possono quindi eseguire porzioni di codice o programmi differenti in parallelo trovando applicazione in campo scientifico. Per esempio, dove diversi problemi possono essere scomposti e analizzati parallelamente. Velocizzano enormemente, per esempio, le operazioni nelle quali sono richiesti elaborazione e trattamento delle immagini. (figura 4)

Schema interno di una GPU (nVidia GeForce 6800)
Figura 4 – Schema interno di una GPU (nVidia GeForce 6800) – Fonte: Wikipedia

Tensor Processing Unit: acceleratori di AI

Le Tensor Processing Unit (TPU) sono ASIC (Application specific integrated circuit) progettati e realizzati da Google espressamente per operazioni caratterizzate da alto carico di lavoro, quindi tipicamente quelle di machine learning. Questi circuiti sono destinati a ridurre il tempo dedicato alla fase inferenziale del machine learning, ossi quella che compara i singoli dati con il modello creato nella fase di apprendimento e che costituisce quella con il più elevato carico di lavoro), per questo vengono definiti acceleratori di AI.

Lo sviluppo di questi chip è iniziato nel 2008 e durante il Google I/O 2018, la conferenza annuale dedicata agli sviluppatori web, l’azienda di Mountain View ha presentato la release 3.0 delle TPU che, ha dichiarato l’amministratore delegato di Google Sundar Pichai, ha prestazioni 8 volte superiori rispetto alla v. 2.0, raggiungendo sino a 100 Petaflop per le operazioni di machine learning. Una potenza che, per la prima volta, ha richiesto l’inclusione nel circuito di un sistema di raffreddamento a liquido dato l’elevato calore prodotto.

ReRAM – Resistive Random Access Memory

Le memorie resistive ad accesso casuale sono in grado di immagazzinare dati per 1 terabyte (1.000 gigabyte) in chip grandi come un francobollo. Sono non volatili (capaci di mantenere l’informazione salvata anche in assenza di alimentazione elettrica). Non hanno bisogno di essere “avviate” e consumano pochissimo. Sono un grande abilitatore tecnologico per le applicazioni di intelligenza artificiale perché componente ideale per la costruzione di reti neurali.

Le memorie resistive trovano fondamento nel cosiddetto memristore (parola formata dalla fusione dei termini memoria e resistore), descritto come il quarto elemento fondamentale di un circuito elettrico (dopo condensatore, induttore e resistore).

La sua esistenza sinora era solamente teorica (la teorizzazione compare per la prima volta in un articolo di Leon Chua dell’Università di Berkeley nel 1971).

Nel 2007 negli HP Lab è stata prodotta una versione sperimentale di un dispositivo con caratteristiche simili a quelle di un memristore. Da allora i principali produttori di microprocessori e memorie hanno lavorato in questa direzione e da qualche tempo varie aziende ne hanno annunciato la produzione (Fujitsu Semiconductor, Western Digital, 4DS Memory, Weebit Nano, Crossbar, Intel e altri).

Proprietà fondamentale del memristore è quella di “ricordare” lo stato elettronico a prescindere dall’esistenza di una costante tensione elettrica (motivo per cui non necessita di “riavvio” all’accensione della macchina che lo integra) e di rappresentarlo con stati analogici.

I vantaggi delle ReRAM

Un esempio di vantaggio? La non necessità di caricare il sistema operativo ogni volta che si accende il device. La macchina sarebbe subito “sveglia” appena messa in azione. Le ReRAM hanno una struttura fisica semplice e compatta e le loro caratteristiche le rendono ideali per dispositivi come smartphone o tablet e, in genere, in quelli dell’IoT dato che, oltre a essere 20 volte più veloci delle attuali memorie utilizzate nei dispositivi mobili di ultima generazione, consumerebbero anche 20 volte di meno. Bisogna dire che la ricerca in questo campo è una delle più attive.

Nel gennaio 2017, per esempio, la Nanyang Technological University di Singapore, insieme alle tedesche RWTH Aachen University e Forschungszentrum Juelich Research Center hanno annunciato lo sviluppo di un prototipo che, sfruttando le potenzialità dei chip ReRAM, è in grado di svolgere sia le funzionalità di processore sia quelle di RAM.

La peculiarità di questo chip, oltre ad essere ancora più veloce e consumare meno dei microprocessori di ultima generazione, è però un’altra. Il memristore conserva e processa le informazioni in modalità analogica e non digitale.

Il prototipo euroasiatico adotta quella che viene chiamata computazione ternaria dove ai consueti 0 e 1 del sistema binario si affianca il 2. Combina i vantaggi del sistema binario con quelli di un sistema che, aggiungendo una dimensione, si avvicina a quello analogico.

Quantum computing

La definizione da vocabolario (Treccani) di computer quantistico è la seguente: “Macchina che elabora l’informazione e compie operazioni logiche in base alle leggi della meccanica quantistica. Esso opera cioè secondo una logica quantistica, profondamente diversa da quella classica in base alla quale funzionano gli attuali calcolatori. L’unità di informazione quantistica è il qubit”.

Diciamo che, per chi è a digiuno dei principi di base della fisica moderna, questa definizione non chiarisce molto e quindi riportiamo, per punti, gli step fondamentali che hanno consentito di arrivare a questa tecnologia.

L’introduzione del concetto di “quanto”

Alla fine del XIX secolo, la meccanica classica appariva incapace di descrivere il comportamento della materia o della radiazione elettromagnetica a livello microscopico (scale di grandezza inferiori o uguali a un atomo).

Agli inizi del ‘900, il fisico tedesco Max Planck introduce il concetto di “quanto”. Alcune quantità o grandezze di certi sistemi fisici (come l’energia) a livello microscopico possono variare soltanto di valori discreti, detti quanti, e non continui. Il quanto (che deriva dal latino quantum, quantità) è quindi la quantità elementare discreta e indivisibile di una certa grandezza.

La meccanica quantistica

Con gli studi degli anni successivi si arriva al concetto di meccanica quantistica che si basa su 5 postulati. Qui non li approfondiremo perché ci farebbe deviare dal nostro percorso. Ma i fenomeni che si riveleranno particolarmente importanti per lo sviluppo della tecnologia di cui stiamo parlando sono quelli della sovrapposizione degli effetti e della correlazione quantistica (detta entanglement). In base a questi in determinate condizioni lo stato quantico di un sistema fisico non può essere descritto singolarmente, ma solo come sovrapposizione di più sistemi (o strati).

La meccanica quantistica rappresenta, insieme alla relatività, un punto di svolta della fisica classica e apre le porte alla fisica moderna.

Informatica e meccanica quantistica

Per decenni l’aumento della potenza dei computer è stato regolato dalla cosiddetta Legge di Moore (la densità dei transistor su un microchip e la relativa velocità di calcolo raddoppiano ogni 18 mesi). La miniaturizzazione dei componenti presenta oggettivi limiti (oltre i quali non è possibile ridurre le dimensioni dei componenti).

Agli inizi degli anni ’80 del secolo scorso, grazie all’elaborazione di diversi scienziati, si arriva a teorizzare un possibile uso della teoria dei quanti in informatica. Al posto dei convenzionali bit (che definiscono 1 dimensione con due stati: aperto/chiuso) si utilizza come unità di misura il qubit (o qbit): la più piccola porzione in cui una qualsiasi informazione codificata può essere scomposta che, per sua natura, è continua.

È un concetto che non è facile da comprendere, ma su Wikipedia si trova una metafora che può aiutare per comprendere la natura “continua” del qbit: “Mentre il bit classico è immaginabile come una moneta che, una volta lanciata, cadrà a terra mostrando inesorabilmente una delle due facce, il qbit è immaginabile come una moneta che, una volta lanciata, cadrà a terra continuando a ruotare su sé stessa senza arrestarsi finché qualcuno non ne blocchi la rotazione, obbligandola a mostrare una delle sue facce”.

L’altro fenomeno della meccanica quantistica è l’entanglement. Secondo questo, nel momento in cui vengono combinati, due qbit perdono la loro natura individuale per assumerne una unica di coppia. Quindi lo stato di un qbit influenza quello dell’altro e viceversa portando a una combinazione matematica esponenziale.

Alcuni computer quantistici

IBM Quantum System Two: Questo sistema supporta il processore IBM Quantum Osprey da 433 qubit, annunciato a fine 2022, e il processore IBM Quantum Condor da 1.121 qubit. Questi processori rappresentano un significativo passo avanti nella capacità di calcolo quantistico.

Google Sycamore: Google ha sviluppato il processore quantistico Sycamore, che ha raggiunto il “vantaggio quantistico” risolvendo un problema complesso in pochi minuti, un compito che avrebbe richiesto migliaia di anni a un supercomputer tradizionale.

Xanadu Borealis: Il computer quantistico Borealis di Xanadu ha risolto un problema matematico in soli 36 microsecondi, un compito che avrebbe richiesto 9000 anni a un computer tradizionale. Questo risultato è stato ottenuto utilizzando i fotoni come qubit e lavorando a temperatura ambiente.

Chip neuromorfici

Si tratta di chip in grado di simulare il funzionamento del cervello umano quindi, come abbiamo visto per le reti neurali, basati su una logica di funzionamento analogica. Si attivano in maniera differente a seconda del gradiente di segnale scambiato tra due o più unità.

Processori di questo tipo si rivelerebbero fondamentali per lo sviluppo di reti neurali artificiali e negli ultimi anni la ricerca si è molto concentrata, con risultati altalenanti, su questi chip. Riportiamo un annuncio del gennaio 2018 dei ricercatori del MIT di Boston. Fino a oggi nei chip “neuromorfici” la sinapsi (il collegamento) era formata da due strati conduttori separati da un materiale amorfo, in cui le particelle elettricamente cariche usate come messaggeri erano libere di muoversi in modo incontrollabile. In questo modo la performance della sinapsi poteva variare di volta in volta, senza garantire uniformità.

I ricercatori del MIT hanno sfruttato del silicio monocristallino al posto del materiale amorfo. All’interno di questo materiale, formato da un reticolo cristallino continuo, è stato creato un ‘imbuto’ che consente il passaggio degli ioni in modo uniforme e controllabile. Le sinapsi artificiali così create sono riuscite a superare un test di apprendimento per il riconoscimento di diversi tipi di calligrafia con un’accuratezza del 95%.

L’intelligenza artificiale nel 2023

Dai dati dell’Osservatorio Artificial Intelligence 2023 si evidenzia un continuo incremento dell’adozione di tecniche AI presso le aziende e non solo.

Il mercato di prodotti e servizi in quest’ambito è aumentato del 32% e, dato ancora più interessante, il 61% delle imprese ha implementato almeno un progetto di intelligenza artificiale. Si tratta, per lo più, di applicazioni in ambito

  • Intelligent Data Processing
  • Interpretazione del linguaggio
  • Recommendation System
  • Computer Vision
  • Intelligent RPA

A ciò si aggiunga la sempre maggiore confidenza nell’AI da parte degli utenti finali, basti pensare alla popolarità di ChatGPT.

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati

Articolo 1 di 5