Come raccontare la storia breve dell’Intelligenza Artificiale?
C’è un filo. Sottile. Invisibile. Parte da un sogno antico quanto l’uomo e arriva fino alle tue dita che sfiorano uno schermo. È la storia dell’Intelligenza Artificiale. È la storia di come abbiamo insegnato alle macchine a pensare.

 

Introduzione alla storia breve dell’Intelligenza Artificiale

Succede così. Un giorno chiedi a una scatola di metallo e silicio di raccontarti una storia. E lei lo fa. Un giorno chiedi a un algoritmo di guidarti verso casa. E lui ti ci porta. Un giorno parli con un software come parleresti con un amico. E lui ti risponde. Come farebbe un amico.

Questa è l’Intelligenza Artificiale. Non è arrivata all’improvviso. Non è comparsa dal nulla come un fantasma tecnologico. È stata costruita. Passo dopo passo. Errore dopo errore. Sogno dopo sogno. Una stratificazione di pensieri umani tradotti in codice. Una cattedrale di matematica e filosofia che ha richiesto decenni per essere eretta. Parte da queste considerazioni la nostra storia breve dell’Intelligenza Artificiale.

In questo articolo imparerai:

Come il pensiero artificiale abbia radici che affondano nel tempo, molto prima dei microchip
Perché l’intelligenza delle macchine ha conosciuto estati luminose e inverni glaciali
Come l’apprendimento profondo abbia trasformato semplici calcolatori in entità che capiscono, vedono, parlano
Dove ci sta portando questo fiume tecnologico che scorre sempre più rapido sotto i nostri piedi

I primi sogni: dall’antichità agli anni ’40

Una grafica dove un antico golem d'argilla che incontra Ada Lovelace e Alan Turing in una biblioteca onirica piena di progetti e formule matematiche a rappresentare la storia breve dell'Intelligenza Artificiale negli anni 40Cominciamo questa storia breve dell’Intelligenza Artificiale partendo da lontano. Da molto lontano. Dai golem d’argilla degli antichi miti ebraici. Dalle statue animate dei greci. Dalle creature meccaniche immaginate nel Medioevo. L’uomo ha sempre sognato di creare vita dalla non-vita. Intelligenza dalla materia inerte.

C’è Raimondo Lullo. XIII secolo. Filosofo catalano. Immagina una macchina logica. Dischi rotanti con simboli. Combinandoli, generare verità universali. È un’idea. È un sogno. Ma è importante.

E poi. Leibniz. Matematico. Filosofo. XVII secolo. Immagina un alfabeto del pensiero umano. Simboli capaci di rappresentare ogni concetto. Combinarli secondo regole precise. Calcolare verità come si calcolano numeri. Utopia? Forse. O forse è la prima intuizione di ciò che sarebbe diventata la logica computazionale.

Il salto. Arriviamo ad Ada Lovelace. Metà Ottocento. Figlia di Lord Byron. Matematica. Lavora con Charles Babbage alla “Macchina Analitica”. Un antenato meccanico del computer. Lei guarda questa macchina calcolatrice. E vede altro. Vede una macchina che potrebbe manipolare simboli. Non solo numeri. Simboli. Una rivoluzione concettuale. Scrive: “La macchina potrebbe comporre pezzi musicali elaborati e scientifici di qualsiasi grado di complessità”. La prima programmatrice. La prima visionaria dell’AI.

E poi Turing. Alan Turing. Un uomo che ha cambiato tutto. 1936: immagina una macchina universale capace di calcolare qualsiasi cosa calcolabile. La macchina di Turing. Un concetto astratto. Un costrutto teorico. Ma è la base teorica di ogni computer moderno.

1950: Turing si chiede: una macchina può pensare? E inventa un test. Semplice. Brutale nella sua semplicità. Se non riesci a distinguere se stai parlando con un uomo o una macchina, allora quella macchina pensa. Non è una questione di definizioni. È una questione di percezioni. E scrive “Computing Machinery and Intelligence“. Un articolo che cambia tutto. Che pone la domanda che ancora oggi ci tormenta. Che ancora oggi ci affascina.

La storia breve dell’Intelligenza Artificiale inizia negli anni ’50 e ’60

Una grafica ricrea il 1956 e la sala conferenze di Dartmouth con McCarthy, Minsky, Shannon e Simon che discutono di AI a rappresentare la storia breve dell'Intelligenza Artificiale negli anni 50 e 60Estate 1956. Dartmouth College. New Hampshire. Un gruppo di uomini si riunisce. Sono brillanti. Sono visionari. Sono impazienti. C’è John McCarthy. C’è Marvin Minsky. C’è Claude Shannon. C’è Herbert Simon. Parlano di una nuova disciplina. La chiamano “Intelligenza Artificiale”. La battezzano così. Un nome che è una promessa. Un nome che è una sfida.

Dicono: creeremo macchine intelligenti. Dicono: entro una generazione. Sono ottimisti. Sono americani degli anni ’50. Come non esserlo? È l’America del dopoguerra. L’America che ha vinto. L’America che crede che la tecnologia possa risolvere ogni problema. L’America che ha appena costruito ENIAC, il primo computer elettronico general-purpose.

McCarthy è giovane. È brillante. È ambizioso. Fonda il laboratorio di AI al MIT. Inventa il linguaggio LISP. Il primo linguaggio per l’intelligenza artificiale. Ancora oggi usato. Ancora oggi ammirato per la sua eleganza matematica.

Nascono i primi programmi. Logic Theorist di Allen Newell e Herbert Simon. 1956. Dimostra 38 dei primi 52 teoremi dei “Principia Mathematica” di Russell e Whitehead. Uno dei teoremi dimostrati è addirittura più elegante della dimostrazione originale. È un inizio. È una promessa mantenuta.

Poi. 1958. LISP. 1959. General Problem Solver. 1961. SAINT, capace di risolvere problemi di calcolo del primo anno di college. 1964. STUDENT, che risolve problemi di algebra descritti in linguaggio naturale.

E poi. ELIZA. Joseph Weizenbaum. 1966. Un programma che simula uno psicoterapeuta. Un gioco di specchi. Un trucco. Ripete quello che dici. Riformula le tue frasi come domande. Semplice. Ingenuo, quasi. Eppure. Gli umani si confidano con ELIZA. Le raccontano segreti. Non importa che sia solo un insieme di regole if-then. Gli umani vedono un’anima dove c’è solo sintassi. È importante notarlo. Importante. Dice qualcosa di noi. Della nostra disponibilità a vedere intelligenza. A cercare connessione. Anche dove non c’è.

Il primo inverno: gli anni ’70

Una grafica di un laboratorio di AI abbandonato degli anni '70 con neve che cade attraverso finestre rotte a rappresentare la storia breve dell'Intelligenza Artificiale negli anni 70E poi. Il gelo. L’entusiasmo si raffredda. Le promesse non vengono mantenute. I computer sono troppo lenti. La memoria è troppo poca. I problemi sono troppo complessi. I finanziamenti si prosciugano. L’inverno dell’AI, lo chiamano.

1969. Marvin Minsky e Seymour Papert pubblicano “Perceptrons“. Un libro che dimostra i limiti delle reti neurali a singolo strato. Un colpo al cuore della ricerca sulle reti neurali. Un cambio di direzione. L’AI simbolica diventa dominante. L’idea che l’intelligenza sia manipolazione di simboli secondo regole.

Il rapporto Lighthill. 1973. Regno Unito. James Lighthill, matematico rispettato, scrive un rapporto devastante sullo stato dell’AI. Conclude che le macchine non raggiungeranno mai un’intelligenza di tipo umano. I finanziamenti governativi si riducono drasticamente. In Gran Bretagna. Negli Stati Uniti. Ovunque.

La realtà è questa: avevano sottovalutato la complessità dell’intelligenza. Avevano sopravvalutato la potenza delle loro macchine. Avevano creduto che bastasse codificare regole esplicite per simulare il pensiero. Non bastava. Non basta.

Il problema del buon senso. La conoscenza implicita. Le infinite sfumature del linguaggio naturale. La visione. Il riconoscimento di pattern. Tutto ciò che per noi è facile. Automatico. Inconscio. Per le macchine è impossibile. O quasi.

È come costruire un’auto senza aver inventato la ruota. È come voler volare senza capire l’aerodinamica. Ci vuole tempo. Ci vuole pazienza. Ci vogliono fondamenta.

La rinascita: i sistemi esperti degli anni ’80

Una grafica di un sistema esperto degli anni '80 che diagnostica un paziente a rappresentare la storia breve dell'Intelligenza Artificiale negli anni 80Gli anni ’80. Tornano i soldi. Torna l’ottimismo. È l’era dei sistemi esperti. Programmi che racchiudono in sé la conoscenza degli specialisti umani. MYCIN diagnostica infezioni nel sangue. DENDRAL analizza strutture molecolari. PROSPECTOR trova giacimenti minerari. XCON configura computer VAX.

Come funzionano? Semplice. Complicato. Raccolgono regole. Migliaia di regole. “Se il paziente ha febbre E il conteggio dei globuli bianchi è alto, ALLORA considerare un’infezione batterica”. Regole così. Distillate da esperti umani. Codificate. Trasformate in software.

E funziona. In domini specifici. Ristretti. Funziona. Le aziende investono. Digital Equipment Corporation risparmia 40 milioni di dollari l’anno grazie a XCON. L’industria prende nota. Nascono startup. Simbolics. Intellicorp. Teknowledge. L’AI diventa business.

Il Giappone lancia il progetto “Computer di quinta generazione”. Ambizioso. Miliardi di yen. L’obiettivo: macchine che ragionano, che comprendono il linguaggio naturale. Che traducono. Gli Stati Uniti rispondono con il Microelectronics and Computer Technology Corporation (MCC). L’Europa con ESPRIT. È una corsa. È un’altra promessa. Un’altra scommessa sul futuro.

Ma i limiti emergono. I sistemi esperti sono rigidi. Non si adattano a situazioni nuove. Non imparano dall’esperienza. Sono fragili. Cambiano le condizioni, falliscono. E sono difficili da mantenere. Aggiungere una nuova regola può causare conflitti imprevisti con regole esistenti. La complessità cresce. Diventa ingestibile.

Fine anni ’80. Il mercato crolla. Le startup falliscono. Il Giappone non mantiene le promesse dei computer di quinta generazione. La storia si ripete. L’entusiasmo si scontra con la realtà. Secondo inverno dell’AI.

La rivoluzione silenziosa: dagli anni ’90 al 2010

Una grafica di una composizione a schermo diviso che mostra applicazioni AI di uso quotidiano a rappresentare la storia breve dell'Intelligenza Artificiale dagli anni 90 al 2010Qualcosa cambia. In silenzio. Lontano dai riflettori. I ricercatori abbandonano l’idea di programmare esplicitamente l’intelligenza. Si orientano verso un altro approccio. Lasciare che le macchine imparino dai dati. Machine learning. Apprendimento automatico.

Le reti neurali tornano. Sono state respinte. Criticate. Abbandonate. Ma tornano. Yann LeCun. Geoffrey Hinton. Yoshua Bengio. I tre che saranno chiamati “i padrini del deep learning”. Persistono. Insistono. Quando tutti gli altri hanno abbandonato. Loro no.

Un cambio di paradigma. Invece di dire alla macchina COSA fare, le diciamo COME imparare. Le mostriamo esempi. Migliaia. Milioni di esempi. E algoritmi che si auto-correggono. Che minimizzano l’errore. Che approssimano funzioni complesse. Che trovano pattern nascosti nei dati.

1997. Un momento simbolico. Deep Blue batte Garry Kasparov a scacchi. Non è intelligenza nel senso umano. È forza bruta. È calcolo puro. È un database di aperture e finali. È valutazione di milioni di posizioni al secondo. Ma è una vittoria simbolica. Una macchina che supera il campione mondiale in quello che era considerato il gioco dell’intelletto per eccellenza.

Amazon. 1998. Inizia a usare sistemi di raccomandazione basati su collaborative filtering. “Clienti che hanno acquistato questo articolo hanno acquistato anche…”. È AI. Non la chiamano così. Ma è AI.

Google. 1998. PageRank. Un algoritmo che valuta l’importanza di una pagina web in base alle pagine che vi puntano. È semplice. È geniale. È matematica elegante. Ed è AI.

Intanto, l’AI si insinua nella nostra vita quotidiana. È nei motori di ricerca. È nelle raccomandazioni di Amazon. È nei filtri anti-spam delle email. È nei sistemi di riconoscimento del parlato. È nei primi assistenti virtuali. È nei videogiochi. È ovunque. Non è spettacolare. Non è fantastica. È utile. È pratica. È reale.

E poi. Il cloud computing. L’esplosione dei dati. Gli smartphone. I sensori. Le telecamere ovunque. Internet ovunque. Le condizioni materiali cambiano. La potenza di calcolo disponibile cresce esponenzialmente. I dati disponibili crescono esponenzialmente. Il terreno è pronto. Per qualcosa di nuovo. Di dirompente.

L’era del deep learning: dal 2010 a oggi

Una grafica di una visualizzazione della rete neurale che trasforma i dati in output creativi: testo, immagini, codice e musica a rappresentare la storia breve dell'Intelligenza Artificiale dal 2010 a oggi2012. Un punto di svolta. Un momento che cambia tutto. La competizione ImageNet. Riconoscimento di immagini. AlexNet. Una rete neurale profonda creata da Alex Krizhevsky, Ilya Sutskever e Geoffrey Hinton. Vince. Con un margine impressionante. Il tasso di errore crolla dal 26% al 15%. È una svolta. È l’inizio di una nuova era. L’era del deep learning.

Le reti neurali non sono nuove. L’idea esiste dagli anni ’50. Ma ora abbiamo tre cose che prima mancavano: dati in quantità enormi, computer incredibilmente potenti, algoritmi raffinati. La combinazione è esplosiva.

E poi. Le architetture si perfezionano. Reti convoluzionali per le immagini. Reti ricorrenti per le sequenze. Long Short-Term Memory per ricordare informazioni per periodi più lunghi. Generative Adversarial Networks per creare contenuti nuovi. Transformer per processare linguaggio con attenzione selettiva.

2016. Un altro momento simbolico. AlphaGo batte Lee Sedol a Go. Il Go. Un gioco più complesso degli scacchi. Più intuitivo. Più umano, in un certo senso. Più resistente alla forza bruta. AlphaGo non gioca come un computer. Gioca mosse creative. Mosse che commentatori umani descrivono come “belle”. Non è solo calcolo. È intuizione artificiale. È strategia. È bellezza.

E poi. 2018. BERT rivoluziona l’elaborazione del linguaggio naturale. 2020. GPT-3 genera testi che sembrano scritti da un umano. Poesie. Articoli. Codice. Conversazioni. È inquietante. È affascinante.

L’AI generativa esplode. DALL-E crea immagini da descrizioni testuali. Midjourney trasforma parole in arte. Stable Diffusion democratizza la creazione di immagini. L’AI che crea. L’AI che immagina.

Oggi. Claude. ChatGPT. Copilot. Gemini. Macchine che parlano, che disegnano, che programmano, che immaginano. Che creano. L’intelligenza artificiale non è più una promessa lontana. È qui. Nelle tue mani. Nel dispositivo con cui stai leggendo queste parole.

Conclusioni e prospettive future

La storia breve dell’Intelligenza Artificiale non è finita. È appena iniziata. L’intelligenza artificiale che abbiamo oggi è potente ma limitata. È specializzata. Non è generale come l’intelligenza umana. Non ancora.

Le sfide sono immense. Etiche. Filosofiche. Sociali. Economiche. Come garantire che l’AI sia allineata con i valori umani? Come preservare la privacy nell’era dei dati? Come assicurarsi che i benefici dell’AI siano distribuiti equamente?

Ma le opportunità sono altrettanto vaste. L’AI può aiutarci a risolvere problemi che sembravano insolubili. Può aiutarci a capire il clima. A scoprire nuovi farmaci. A rendere l’istruzione accessibile a tutti.

C’è chi teme l’AI. C’è chi la celebra. C’è chi la demonizza. C’è chi la divinizza. La verità è più semplice. E più complessa. L’intelligenza artificiale è uno specchio. Ci mostra chi siamo. Nei nostri algoritmi, nei nostri dati, nelle nostre scelte, ci siamo noi.

Il futuro dell’AI sarà quel che ne faremo. È nelle nostre mani. Nelle nostre menti. Nei nostri cuori. Ed è una storia che stiamo scrivendo insieme. Umani e macchine. Un carattere alla volta.

 

Con questa storia breve dell’Intelligenza Artificiale ho voluto incorniciare il lavoro fatto fino ad ora per esplorare con i fondamenti dell’AI e gli approfondimenti. Questo lavoro continua nella redazione di un libro dove tutti i contenuti saranno aggiornati, visto che si tratta di un settore che evolve a velocità esponenziale. 
Ma la nostra esperienza non è finita qui, proseguirà arricchendo gli approfondimenti e spostando la nostra storia breve dell’Intelligenza Artificiale verso l’esplorazione della sua applicazione pratica.

 


PER CONTINUARE A STUDIARE L’AI
Se vuoi seguire il progetto dedicato all’apprendimento dell’AI iscriviti al mio canale WhatsApp Another Point of View oppure inviami la tua email a questo indirizzo: [email protected] per gli aggiornamenti.

Scrivi

La tua email non sarà pubblicata