Prospettive

Intelligenza artificiale, quando nasce e come si è evoluta

Tutte le tappe dell’evoluzione della storia dell’intelligenza artificiale sin dai suoi albori, ormai secoli fa

Pubblicato il 21 Mag 2022

Intelligenza artificiale

Per capire che cosa significa intelligenza artificiale oggi, è molto utile tracciarne una breve storia e recuperarne le radici, sintetizzando in modo schematico i principali snodi della sua evoluzione. Dato che stiamo parlando di sistemi che simulano il comportamento umano, lo facciamo utilizzando come metafora per il racconto proprio la vita.

La gestazione dell’AI, le prime scintille

Le prime scintille che porteranno alla nascita di questa disciplina sono quelle accese nel secolo che ha rivoluzionato la scienza e dato inizio alla scienza moderna, il 1600.

Anche se convenzionalmente l’anno di inizio della rivoluzione scientifica è il 1543 con la pubblicazione del De revolutionibus orbium coelestium di Niccolò Copernico. È nel XVII secolo infatti che vengono costruite le prime macchine in grado di effettuare calcoli automatici (Blaise Pascal, Gottfried Wilhelm von Leibniz).

Charles Babbage, con la sua “macchina analitica” che anticipava le caratteristiche dei moderni calcolatori, e Alan Turing, considerato il padre dell’informatica, a partire dalla seconda metà degli anni ’30 del secolo scorso, rappresentano il liquido amniotico nel quale la gestazione dell’intelligenza artificiale prosegue.

Verso la nascita dell’AI

È però nel 1943, con il lavoro del neurofisiologo Warren Sturgis McCulloch e del matematico Walter Harry Pitts, che questa gestazione si avvicina al termine. Prima di tutto i due scienziati, basandosi sull’osservazione neurofisiologica, teorizzano che i segnali tra due cellule siano caratterizzati da un comportamento di tipo esclusivo dove la trasmissione del neuroimpulso può essere solo completa o nulla (accesa/spenta).

Assimilando quindi il neurone a un sistema binario, McCulloch e Pitts mostrano, con un modello matematico, come dei semplici neuroni possano essere combinati per calcolare le tre operazioni logiche elementari NOT, AND, OR. È da questi assunti che nasceranno le reti neurali artificiali e che si giunge a partorire l’intelligenza artificiale.

La nascita dell’AI

La locuzione “intelligenza artificiale” ha una data di nascita precisa: viene utilizzata per la prima volta dai matematici e informatici John McCarthy, Marvin Minsky, Nathaniel Rochester e Claude Shannon in un documento informale del 1955 per proporre la conferenza di Dartmouth che si terrà l’anno successivo. Essa sarà considerata la vera e propria “sala parto” dell’intelligenza artificiale. Viene infatti qui presentato il primo programma esplicitamente progettato per imitare le capacità di problem solving degli esseri umani.

L’infanzia dell’AI

Il periodo dal 1950 al 1965 è di grandi aspettative e, come l’osservazione di un bambino che inizia a parlare o a camminare. Le prime attività intorno alla neonata disciplina sono entusiasmanti.

Ascolta “AI e blockchain, come possono integrarsi fra loro” su Spreaker.

Il gioco dell’imitazione di Turing

Nel 1950 Turing propone il suo famoso “gioco dell’imitazione” nell’altrettanto famoso articolo Computing machinery and intelligence. Il fine è tentare di rispondere alla basilare domanda: le macchine possono pensare?

Il percettrone

Nel 1958 lo psicologo Franck Rosenblatt propone il primo schema di rete neurale, detto Perceptron (percettrone). Esso è pensato per il riconoscimento e la classificazione di forme e consiste in un’entità con un ingresso, un’uscita e una regola di apprendimento basata sulla minimizzazione dell’errore.

Il contributo di McCarthy

Nel 1958 McCarthy sviluppa il linguaggio Lisp per studiare la computabilità di funzioni ricorsive su espressioni simboliche che per lungo tempo è stato il linguaggio di riferimento nei progetti di intelligenza artificiale. È stato il primo linguaggio ad adottare i concetti di virtual machine e virtual memory management.

Sempre McCarthy descrive un programma ideale, Advice Taker, progettato per trovare soluzioni a problemi di tipo non strettamente matematico.

L’adolescenza dell’AI

L’entusiasmo si scontra con le prime difficoltà nella seconda metà degli anni ’60 in quello che in questa nostra metafora è il periodo dell’adolescenza. Adolescenza che, come si sa, è sempre accompagnata da grandi quesiti e da problemi che appaiono irrisolvibili. La messa in pratica dei modelli matematici, in teoria funzionanti, si rivela fallimentare per vari motivi.

Alle macchine manca la conoscenza semantica dei domini trattati

Ci sia consentita una piccola digressione. La memoria è un magazzino nel quale sono custodite tutte le nostre esperienze di vita. Tutti sappiamo che esiste quella a breve termine (dove la traccia mnesica, ossia l’immagine mentale, staziona per poco tempo). E quella a lungo termine, dove l’informazione rimane più a lungo.

All’interno di quest’ultima gli studi dell’ultimo secolo distinguono tra memoria episodica e memoria semantica. La prima immagazzina informazioni relative a situazioni che avvengono in un determinato arco di tempo (per esempio: a scuola ho imparato che l’uomo è un mammifero).

La seconda è molto più articolata, è composta da significati, simboli e relazioni che si creano tra loro. In pratica rappresenta il patrimonio di conoscenza generale sul mondo di un soggetto. Per esempio: so che l’uomo è un mammifero.

Sebbene affascinante, non approfondiamo ulteriormente questo tema. Un accenno era fondamentale perché ci permette di capire il motivo per cui la messa in pratica dei modelli matematici ideati negli anni precedenti si traduce in fallimenti. Ci si rende conto che la capacità di ragionamento delle macchine si basa solo su una mera manipolazione sintattica. Essa sviluppa relazioni e correlazioni sulla base di regole e singoli episodi. E non è in grado di sviluppare e correlare significati (conoscenza semantica).

Il percettrone di Rosenblatt viene messo in discussione

Nel 1969 i matematici Marvin Minsky e Seymour Papert mettono in discussione il percettrone di Rosenblatt. Essi dimostrano che, nonostante questo fosse in grado di apprendere qualsiasi funzione potesse rappresentare, un percettrone con due input non era in grado di rappresentare una funzione che riconoscesse quando i due input sono diversi.

Nel mondo scientifico si diffonde la sfiducia nelle reti neurali. Bisognerà attendere 20 anni prima che tornino alla ribalta grazie agli studi di Jay McClelland e David Rumelhart.

Reti neurali

Abbiamo visto che la prima teorizzazione delle reti neurali artificiali (il percettrone di Rosenblatt) era stata messa in discussione.

Nel 1986, Jay McClelland e David Rumelhart pubblicano Parallel distributed processing: Explorations in the microstructure of cognition. Essi gettano le basi del connessionismo e danno nuovo vigore agli studi in questo campo. Una rete neurale è un grafo diretto non lineare, nel quale ogni elemento di elaborazione (ogni nodo della rete) riceve segnali da altri nodi. Esso emette a sua volta un segnale verso altri nodi. In pratica, mentre in un computer la conoscenza è concentrata in un luogo ben preciso, la memoria, nella rete neurale la conoscenza non è localizzabile. È distribuita nelle connessioni della rete stessa consentendo alla rete di imparare dalle proprie esperienze.

Si sviluppa il modello di rete neurale multistrato (MLP-Multilayer Perceptron) dove ogni strato di nodi è completamente connesso con quello successivo e utilizza una tecnica di apprendimento supervisionato chiamata retropropagazione dell’errore per l’allenamento della rete che parte da un risultato già noto per un campione specifico.

Nanotecnologie

L’evoluzione delle nanotecnologie, ossia la miniaturizzazione sempre più spinta di microprocessori, ha portato allo sviluppo di una nuova generazione di componenti. Dalle General Purpose GPU alle ResistiveRAM ai chip antropomorfici, essi hanno dato nuovo impulso all’intelligenza artificiale grazie alla enorme potenza di calcolo messa a disposizione.

Algoritmi innovativi

I filoni precedenti rappresentano (con un ultimo parallelismo con la nostra metafora) la fisicità dell’intelligenza artificiale. Gli algoritmi dovrebbero rappresentare ciò che più si avvicina al pensiero: quella “magica” azione che rende l’uomo un essere del tutto speciale rispetto agli altri animali. È proprio dall’evoluzione di metodologie e algoritmi innovativi che trae linfa vitale l’intelligenza artificiale.

Cognitive computing

Utilizzando algoritmi di autoapprendimento, data mining e big data analytics, riconoscimento di pattern, elaborazione del linguaggio naturale, signal processing (un segnale è una variazione temporale dello stato fisico di un sistema o di una grandezza fisica che serve per rappresentare e trasmettere messaggi ovvero informazione a distanza, quindi l’analisi dei segnali è una componente che supporta il cognitive computing) e implementando le più avanzate tecnologie hardware vengono realizzate piattaforme tecnologiche che cercano di imitare il cervello umano, partendo da attività più semplici per arrivare a elaborazioni sempre più complesse.

Dallo storico IBM Watson, il primo supercomputer commerciale di questo tipo, a Google Deepmind fino a Baidu Minwa sono ormai diversi gli esempi oggi disponibili.

Valuta la qualità di questo articolo

La tua opinione è importante per noi!

Speciale Digital360Awards e CIOsumm.it

Tutti
Update
Keynote
Round table
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo
Video
Digital360Awards e CIOsumm.it, i momenti salienti
Approfondimenti
La sinergia tra CIO e CISO trasforma la cybersecurity in un obiettivo di business strategico
Approfondimenti 
Etica dell’innovazione tecnologica per i CIO: prima chiedersi perché. Poi definire cosa e come
Eventi
Digital360 Awards e CIOsumm.IT, ecco i progetti vincitori
Tavola rotonda
Evoluzione del CIO: da centro di costo a motore strategico del business
Tavola rotonda
Business Process Augmentation: dall’RPA alla GenAI… il dato e tratto
Approfondimenti
Sistemi digitali potenziati: l’intelligenza dei chatbot è nelle mani dei CIO
Tavola rotonda
Intelligenza collaborativa e AI: sfide e opportunità per i CIO nell’era dello Human to Machine (H2M) 
Approfondimenti
Open Source: collaborazione e innovazione nel caos apparente del software libero 
Metodologie
BANI: che cos’è e come l’AI può aiutare i CIO a gestire la felicità (e l’infelicità) dei talenti
Prospettive
AI in un mondo complesso. Tra ordine e disordine, le aziende iniziano a capire la giusta via
Approfondimenti
Intelligenza Umana vs Intelligenza Artificiale insieme. Non invece
Eventi
Digital360 Awards e CIOsumm.IT, al via l’evento conclusivo

Articoli correlati