Nel corso della storia, molte innovazioni hanno suscitato timori e sollevato dubbi. Socrate temeva che la scrittura potesse indebolire la memoria e la capacità di ragionare. Quando la radio divenne di uso comune, alcuni credevano che avrebbe ridotto la capacità di concentrazione. Persino l’orologio meccanico è stato accolto con sospetto: si pensava che imponesse un ritmo artificiale alla vita.
Oggi, con l’intelligenza artificiale generativa (GenAI), la questione si ripropone: questi strumenti ci aiutano ad essere più produttivi o stanno riducendo la nostra capacità di pensare in modo critico?
Se lo sono chiesto i ricercatori di Microsoft che insieme all’Università di Carnegie Mellon, in Pennsylvania, hanno studiato l’effetto dell’IA sul pensiero critico.
Osservando il comportamento di 319 lavoratori che utilizzano strumenti di GenAI almeno una volta a settimana, hanno analizzato, nel tempo, quasi 1.000 casi d’uso.
Il risultato? Più ci affidiamo all’intelligenza artificiale, meno ci sforziamo di ragionare in modo autonomo. Ma c’è di più.
Come cambia il pensiero critico con l’AA?
Fino ad ora, gli studi sull’intelligenza artificiale si sono concentrati soprattutto sull’istruzione e sul lavoro, analizzando in che modo la GenAI sostituisce o migliora competenze tecniche come la scrittura e la programmazione. Meno attenzione è stata data a un aspetto più profondo: l’impatto dell’AI sulla conoscenza stessa e sul modo in cui le persone elaborano e valutano le informazioni.
Il pensiero critico è diventato un tema centrale solo di recente. Scrivono gli studiosi nella ricerca: “la GenAI non si limita a influenzare cosa produciamo, ma cambia il modo in cui costruiamo il nostro ragionamento e prendiamo decisioni”. Dalla loro analisi emerge che l’AI sposta il pensiero critico dalla ricerca attiva di informazioni alla loro verifica; dalla risoluzione autonoma dei problemi all’integrazione passiva delle risposte generate.
Inoltre, chi ha maggiore fiducia nelle proprie capacità tende a valutare e applicare con attenzione le risposte, mentre chi si affida ciecamente alla tecnologia riduce il proprio sforzo cognitivo.
L’illusione della semplicità
L’AI promette velocità ed efficienza. Strumenti come ChatGPT e Copilot generano testi, scrivono codice e riassumono documenti in pochi secondi. Questo accelera il lavoro, ma può anche creare un’illusione pericolosa: l’idea che l’AI sia sempre affidabile. I ricercatori sottolineano che “quelli che si affidano troppo all’AI tendono a ridurre l’impegno nel verificare e analizzare le informazioni”.
Il pensiero critico passa in secondo piano: invece di costruire soluzioni proprie, ci si limita a controllare e accettare le risposte dell’IA senza metterle in discussione.
Da protagonisti a supervisori con il rischio di atrofia cognitiva
Un altro dato interessante emerso dalla ricerca è il fenomeno della “convergenza meccanizzata”: chi usa spesso la GenAI tende a produrre risposte simili agli altri, perdendo originalità nel pensiero. Più una persona si fida dell’AI, meno si impegna a valutare le risposte in modo critico.
Si rischia di diventare semplici supervisori delle soluzioni fornite dalla macchina, invece di essere i veri protagonisti del ragionamento. Questo riduce l’autonomia intellettuale e, nel tempo, può compromettere la capacità di problem-solving.
I ricercatori avvertono che “l’uso costante della GenAI potrebbe portare a una standardizzazione del pensiero, limitando la creatività e la diversità di ragionamento”.
I neuroscienziati parlano di cognitive offloading, ovvero la tendenza a delegare alla tecnologia compiti che un tempo si svolgevano autonomamente.
“Sebbene l’AI possa migliorare l’efficienza lavorativa, rischia anche di limitare il coinvolgimento critico, in particolare nei compiti di routine o a basso rischio” spiegano i ricercatori. Se lasciamo che l’AI faccia tutto il lavoro per noi (paradossalmente anche i compiti più automatizzati), il nostro cervello si abitua a sforzarsi di meno e, nel tempo, potrebbe perdere flessibilità e capacità di apprendimento.
Rendere l’AI un’alleata, non una “stampella”
Ma la GenAI non deve necessariamente essere un ostacolo al pensiero critico. I ricercatori suggeriscono di progettare strumenti che non si devono limitare a fornire risposte ma che siano in grado di spiegare l’intero ragionamento. Per evitare che la GenAI diventi una stampella su cui appoggiarsi per sempre, consigliano di sviluppare interfacce che spingono l’utilizzatore a personalizzare e verificare i risultati. “La progettazione di strumenti interattivi potrebbe incentivare un maggiore coinvolgimento critico e mantenere attive le capacità cognitive degli utenti”, scrivono.
Le aziende e le Istituzioni, poi, dovrebbero adottare percorsi formativi per bilanciare l’efficienza con la capacità critica e questo potrebbe aiutare a mantenere inalterate le competenze cognitive, anche con tecnologie sempre più sofisticate.
Verso una nuova forma di pensiero critico?
Il dibattito sull’idea che la tecnologia ci renda meno acuti e intelligenti non è sicuramente una novità. L’abbiamo vissuto già in passato. Con il tempo abbiamo capito che la capacità critica di discernere e selezionare fonti affidabili da Internet è una competenza essenziale per navigare in un mare di informazioni. Ed ora, l’AI generativa rischia di spingerci ancora più verso la delega del nostro pensiero, riducendo il bisogno di riflettere in autonomia.
Come detto, non tutto è negativo. In definitiva, l’AI non cancella il nostro pensiero critico, ma ci offre una scelta: usarla per rafforzarlo o per metterlo da parte. Sta a noi decidere come affrontare questa rivoluzione.
In un momento in cui gli investimenti e gli sforzi nello sviluppo dell’IA crescono, dobbiamo essere consapevoli dei rischi. E, indubbiamente, interrogarsi su “un aspetto fondamentale del pensiero, considerato prezioso e da preservare” come scrivono i ricercatori parlando di pensiero critico, non può che essere un aiuto concreto.