I sistemi digitali hanno già modificato tanti aspetti dei nostri processi ma, nel passare da sistemi programmati a sistemi addestrati, l’evoluzione dell’intelligenza conversazionale sta dimostrando capacità così notevoli da aver colto di sorpresa anche i più esperti.
Al di là delle varie prese di posizione, tra tecno-ottimisti e tecno-pessimisti, quello che è certo è che l’ingresso della GenAI sta spostando la potenza computazionale delle macchine dalla dimensione dell’informazione alla dimensione del sapere.
Oltre a sparigliare le carte di alcune certezze prima solo umane (il linguaggio, il dialogo, il ragionamento), questa tecnologia ci pone di fronte alcuni dilemmi operativi ed etici.
In una relazione causa-effetto, se un programma sbaglia è un bug che può essere risolto, se un umano sbaglia è un errore da cui può imparare. Quando la GenAI ha un’allucinazione, il fenomeno è così complesso da richiedere una gestione dedicata a comprenderne le cause e sviluppare strategie per mitigarne l’impatto.
Le allucinazioni possono portare alla generazione di informazioni imprecise o fuorvianti, e ciò sottolinea la necessità di un controllo umano e di una validazione continua dei risultati prodotti.
L’Intelligenza Artificiale trasforma i sistemi digitali
Il tema è stato affrontato in un keynote dell’esclusivo evento Digital360 Awards e CIOsumm.IT 2024 organizzato a Lazise da Digital360 e Aused e intitolato: “La missione possibile del CIO: mettere ordine nel nuovo caos”.
Andrea Provini, Global CIO di Bracco Imaging e Direttore IT CDI, Presidente AUSED, si è confrontato con Luca Mari, professore ordinario di Scienza della misurazione presso l’Università Cattaneo-LIUC, dopo aver letto il suo saggio intitolato “Intelligenza Artificiale di Dostoevskij – riflessioni sul futuro, la conoscenza, la responsabilità umana”.
“I chatbot, o dialogatori automatici, imparano rapidamente in modi ancora imprevedibili – ha spiegato Mari -. Dal punto di vista speculativo, la GenAI ci mette di fronte all’incertezza. In che cosa ci faremo aiutare e in che cosa ci sostituiranno? Non dobbiamo dimenticare che ogni cosa che non facciamo più noi è qualcosa in meno che dobbiamo imparare a fare. Allora: cosa è più utile imparare oggi? Ammettiamolo: a proposito della GenAI non abbiamo ancora le idee chiare. Quello che sta succedendo intorno ai chatbot è cominciato da troppo poco tempo e sta ancora cambiando troppo in fretta. Dobbiamo vivere in modo consapevole e attivo questo cambiamento, invece di esserne sopraffatti o spaventati. Anche perché la paura del cambiamento non è una buona compagna: ingigantisce i rischi e ci fa perdere delle opportunità”.
I CIO sono chiamati ad agire in prima linea per gestire il cambiamento, fare chiarezza, dirimere le attività, implementare l’innovazione e scaricare a terra i progetti.
Sono loro che, da sempre, si occupano di presidiare la gestione dell’informazione e dell’automazione nelle aziende, risolvendo problemi e processi.
Ma con la GenAI la questione è più delicata. Dalla sperimentazione all’azione, nell’ultimo anno si sono diversificati i progetti. Ma pur con alcuni risultati oggettivi e misurabili, manca ancora una governance controllata dell’evolutiva associata a questa tecnologia.
Tra responsabilità e innovazione, il ruolo cruciale dei CIO
Il primo problema è che, analogamente con quanto è successo con lo shadow IT del cloud o delle app, la facilità della GenAI può indurre dipendenti e collaboratori a usare questo tipo di strumenti in maniera non controllata dall’IT. Quali sono le competenze di persone lontanissime dai concetti tecnologici che usano sistemi digitali potenziati per prendere decisioni a qualsiasi livello: operativo, tattico o strategico? Quali le conseguenze? La responsabilità di queste risposte ricade prima di tutto sui CIO.
“I sistemi digitali potenziati dalla GenAI sono dei facilitatori rispetto alla gestione dei problemi perché, in pochi clic, ci aiutano ad avvicinarci progressivamente alla soluzione che stavamo cercando – ha puntualizzato Mari -. Questa è indubbiamente una grande opportunità per noi esseri umani. Oggi siamo in grado di interagire con un ente artificiale il cui comportamento è il risultato di processi di addestramento. A rischio di peccare di sciovinismo di specie, rispetto a noi l’intelligenza artificiale ha un grosso gap a livello di responsabilità (morale) e di motivazione. I chatbot non sono nella condizione di prendersi delle responsabilità di fronte alla nostra società. Se fanno cose giuste non sappiamo come premiarli. Se sbagliano non sappiamo come punirli. Sono letteralmente non responsabili cosicché, anche quando li usiamo per prendere decisioni (ed eventualmente deleghiamo loro delle decisioni) rimaniamo noi i responsabili”.
Evoluzione dei sistemi digitali
Le aziende oggi devono sviluppare una visione prospettica capace di guardare ben oltre le capacità attuali dei chatbot. Questi strumenti, ad oggi limitati alla gestione di testi senza interazione diretta con l’ambiente, integrati con l’Internet of Things (IoT) sono destinati a trasformarsi in chatbot 5.0 con una capacità di conoscenza statistica ma anche co-creativa dal valore predittivo e prescrittivo.
Questa evoluzione porterà la GenAI a operare attivamente, acquisendo dati non solo dal web, ma anche dal mondo reale. E, perseguendo le caratteristiche dello sviluppo informatico, lo farà in modo continuo e dinamico, che traguarderà il modello dei Digital Twins per creare una terza dimensione della conoscenza.
“L’assenza di una connessione diretta dei chatbot con l’ambiente circostante li rende degli alieni – ha sottolineato Mari -. In questo momento sono solo parzialmente attivi, ma presto questo tipo di entità sintetiche diventeranno i controllori di sistemi tecnologici più complessi. Acquisendo informazioni dal web e perfino dal mondo empirico mediante sensori, telecamere, microfoni e droni, potranno essere addestrati per funzionare anche in modo attivo, intervenendo in modo diretto sul loro ambiente: informazionale o empirico.
Anche in questo caso la responsabilità del loro comportamento resterà nostra. Il chatbot è un aiutante che può operare in modo anche molto sofisticato, ma siamo noi a dovergli fare le domande corrette e a interpretare in modo corretto le risposte che ci fornisce. Insomma, anche se l’elaborazione è in carico al sistema digitale, la produzione degli input e l’interpretazione e l’uso degli output devono rimanere sotto una responsabilità umana”.
Il Prompt Engineering come competenza essenziale
Per i CIO, questa ennesima transizione tecnologia rappresenta una sfida in termini di gestione e di responsabilità. Anche se i chatbot evoluti saranno in grado di elaborare informazioni in modo autonomo, la vera sfida è quella di aiutare le organizzazioni a sistematizzare nel modo corretto la responsabilità umana.
“A proposito degli input e degli output è fondamentale imparare a fare a un chatbot le domande giuste nel modo giusto. L’ingegneria delle domande è una competenza fondamentale per diventare dei buoni solutori di problemi. Ma, se non sai che problema vuoi risolvere, come puoi sperare di trovare la soluzione? O, più ancora, se non sai spiegare al sistema digitale potenziato il tuo problema, come puoi sperare che il chatbot trovi per te la soluzione? La qualità delle risposte che un chatbot ci fornisce dipende dalla qualità delle domande che gli poniamo durante la conversazione. Con un punto di attenzione in più: la fiducia nelle risposte richiede alle persone che usano la GenAI di applicare la propria intelligenza esperienziale, analitica e critica. Un punto di attenzione dei chatbot, che al momento va gestito è che nel loro comportamento non deterministico (nel senso che a parità di domanda possono produrre risposte diverse), possano generare informazioni imprecise, non aggiornate o false. In sintesi, rispetto all’affidabilità dei sistemi software tradizionali, i chatbot sono enormemente più flessibili, magari anche creativi, al prezzo di una molto minore immunità agli errori”.
Una visione strategica sui limiti dei sistemi digitali potenziati
Nel contesto dell’implementazione dei chatbot e delle tecnologie AI nelle aziende, i CIO svolgono un ruolo cruciale nel garantire che queste innovazioni siano integrate in modo sicuro ed efficace nei processi aziendali.
E, parallelamente, lavorando al change management per programmare una formazione adeguata alle persone. Sebbene i chatbot possano simulare l’intelligenza umana e fungere da consulenti virtuali, il punto critico è che rimangono strumenti privi di vera autonomia e responsabilità.
Pertanto, i CIO devono sviluppare strategie che non solo incorporino queste tecnologie, ma che lo facciano con una chiara comprensione delle loro capacità e limitazioni. Oltre ad assicurarsi che le decisioni prese con l’ausilio dei chatbot siano basate su dati accurati e interpretazioni corrette devono prevedere modalità umane di supervisione in tutti i progetti legati all’uso di sistemi digitali potenziati. Questo richiede ai CIO di promuovere una cultura aziendale che valorizzi il Prompt Engineering e incoraggi un uso consapevole delle tecnologie AI.
“Anche il tema dei prompt lo considero controverso. Da una parte è vero che dobbiamo imparare a interagire con queste entità aliene. Dall’altra, questi cosi stanno cambiando così rapidamente che alcune tecniche di prompt engineering che un anno fa erano considerati basilari oggi sono già obsolete – conclude Mari -. Gli attuali chatbot sono delle entità nuove e questa novità rende complessa l’individuazione dei rischi e delle opportunità. Pur essendo addestrati con contenuti e in linguaggi che sono parte della nostra società, i sistemi digitali potenziati producono ragionamenti che non sembrano prodotti nello stesso modo dei ragionamenti che noi produciamo, perché ciò che genera tali testi non pensa, non capisce e non sperimenta il mondo come noi. Tuttavia, le loro conversazioni possono essere di sorprendente qualità e profondità, suggerendo una possibile terza rivoluzione culturale (dopo quella cosmologica copernicana e quella biologica darwiniana) che metterà in discussione il nostro primato cognitivo. Come cambieranno i processi di apprendimento? Come cambieranno le competenze richieste nel mondo del lavoro? Come cambieranno i ruoli nelle organizzazioni? Come cambieranno le strutture stesse delle organizzazioni? Possiamo certamente fare delle ipotesi, ma dobbiamo ammettere che è ancora troppo presto per formulare delle previsioni affidabili. Non è invece troppo presto per analizzare e discutere i limiti dei sistemi digitali potenziati. Quello che penso è che diventeranno sempre più autonomi – perché potrebbe essere il mercato a volerlo e perché almeno in certi casi è razionale che accada – ma non potranno diventare responsabili delle loro decisioni”.
Lo studioso evidenzia i tre che sono plausibilmente strutturali più che solo contingenti e che sono importanti nelle loro conseguenze cognitive ed etiche. Gli attuali chatbot nel loro comportamento sono:
- poco affidabili nelle informazioni fattuali che riportano, insomma non sono trustable
- capaci di indicare le loro fonti in modo spesso approssimativo o, raramente, di rendere conto di come giungono i risultati che propongono. Insomma, non sono explainable
- entità socialmente aliene, così che non sappiamo attribuire loro una responsabilità per quanto producono, insomma, non sono accountable
Mari tiene a precisare come i sistemi di GenAI stiano diventando e potranno diventare sempre più trustable ed explainable nel loro comportamento, ma rimarranno non accountable.
Cablare l’augmentation in modo sostenibile
Nel contesto dell’implementazione dei progetti di GenAI connessi a sistemi digitali potenziati, i CIO devono considerare attentamente diversi punti di attenzione per garantire che siano utilizzati in modo funzionale ed efficace all’interno delle loro organizzazioni, presupponendo una rigorosa validazione dei dati ma anche delle risposte fornite da queste entità artificiali.
Ad esempio, considerando l’uso di tool nella logica del function calling per integrare capacità numeriche e analitiche che i chatbot non possiedono intrinsecamente o tenendo conto del fatto che le capacità di memoria di un chatbot per i contenuti di una conversazione è relativamente limitata, per cui è opportuno usare anche tecniche diverse dal prompt engineering.
Il tutto presidiando temi di carattere etico, come la privacy e la proprietà dei dati, soprattutto quando si tratta di informazioni sensibili.
Attraverso l’integrazione strategica e responsabile di questa nuova forma di intelligenza collaborativa, i CIO possono sfruttare appieno la nuova era dell’augmentation per incorporare i dati sintetici nei processi aziendali, supportare ancora meglio gli utenti e guidare le organizzazioni verso un futuro più innovativo e informato.