La storia dell’intelligenza artificiale è stata, fin dalle sue origini, attraversata da una convinzione molto forte: che l’intelligenza potesse essere ridotta a un processo di calcolo sufficientemente complesso. Secondo questa visione, la mente umana sarebbe in fondo una macchina che elabora informazioni. Se riuscissimo a replicare quel processo attraverso algoritmi e computer abbastanza potenti, l’intelligenza emergerebbe inevitabilmente.

Per molti anni questa ipotesi ha rappresentato la bussola teorica dell’informatica e delle scienze cognitive. E in parte ha funzionato. I progressi dell’intelligenza artificiale negli ultimi decenni sono stati straordinari. I sistemi di AI sono oggi in grado di riconoscere immagini, tradurre lingue, generare testi complessi, analizzare enormi quantità di dati e supportare decisioni in contesti sempre più sofisticati.

Di fronte a questi risultati è naturale pensare che l’intelligenza sia davvero una questione di calcolo.

Eppure, proprio mentre l’AI raggiunge livelli di performance sempre più impressionanti, comincia a emergere una crepa in questa convinzione.

Le macchine sono diventate straordinariamente abili nel riconoscere pattern nei dati, ma continuano a mostrare limiti evidenti quando si tratta di comprendere il significato delle informazioni che elaborano.

Un sistema di intelligenza artificiale può produrre un testo perfettamente coerente su un tema complesso, ma non possiede una comprensione del mondo paragonabile a quella di un essere umano. Può generare risposte plausibili, ma non ha una vera esperienza della realtà a cui quelle risposte si riferiscono.

Questo non significa che l’AI non sia intelligente. Significa piuttosto che la sua forma di intelligenza è profondamente diversa da quella umana.

Il problema nasce quando tendiamo a confondere queste due dimensioni. Gran parte del dibattito contemporaneo sull’intelligenza artificiale si basa su una semplificazione implicita: l’idea che l’intelligenza consista principalmente nella capacità di elaborare informazioni e trovare correlazioni nei dati.

Ma osservando il comportamento umano ci accorgiamo rapidamente che la nostra intelligenza funziona in modo molto più articolato.

Gli esseri umani non si limitano a elaborare dati. Interpretano il mondo. Costruiscono significati. Collegano esperienze passate a situazioni nuove. Riconoscono contesti, intenzioni, sfumature emotive.

Quando una persona entra in una stanza percepisce immediatamente molto più di ciò che è esplicitamente visibile. Coglie il tono di una conversazione, interpreta il linguaggio del corpo, comprende relazioni implicite tra le persone presenti.

Questo tipo di comprensione non deriva semplicemente dall’analisi di dati. Deriva da anni di esperienza, da un corpo che interagisce con l’ambiente e da una mente che ha imparato a costruire modelli del mondo. L’intelligenza umana è quindi inseparabile dall’esperienza.

Un bambino non impara soltanto osservando informazioni. Impara toccando, muovendosi, sbagliando, interagendo con altre persone. Il linguaggio stesso nasce da un processo sociale e relazionale molto prima che diventi una struttura logica.

L’intelligenza artificiale, invece, si sviluppa in un ambiente completamente diverso. I modelli generativi apprendono analizzando grandi quantità di dati, ma non possiedono un corpo né una storia personale attraverso cui interpretare quei dati. Questa differenza è fondamentale.

Significa che l’AI può diventare estremamente potente nel riconoscere strutture statistiche nei dati, ma non possiede quell’esperienza incarnata che per gli esseri umani rappresenta una componente centrale dell’intelligenza.

Ed è proprio qui che emerge l’errore più comune nel modo in cui interpretiamo l’intelligenza artificiale: pensare che calcolare e comprendere siano la stessa cosa.

Comprendere questa differenza è fondamentale per interpretare correttamente il significato della rivoluzione dell’intelligenza artificiale. Non perché le macchine non possano diventare sempre più sofisticate, ma perché la natura della loro intelligenza non coincide necessariamente con quella umana.

I sistemi di AI eccellono nell’individuare correlazioni nei dati e nel generare risposte coerenti all’interno di un determinato contesto informativo. Possono analizzare quantità enormi di informazioni e produrre risultati con una velocità che supera di gran lunga le capacità cognitive individuali degli esseri umani.

Tuttavia la comprensione del mondo non nasce soltanto dall’analisi delle informazioni disponibili. Nasce dall’esperienza.

Quando un essere umano interpreta una situazione, non si limita a elaborare dati. Attiva una rete complessa di ricordi, percezioni corporee, esperienze passate e conoscenze culturali. Ogni decisione è il risultato di un processo che coinvolge non soltanto il cervello, ma anche il corpo e il contesto sociale in cui l’individuo vive.

È proprio questa dimensione esperienziale che rende l’intelligenza umana così flessibile.

Un medico riconosce spesso un sintomo non soltanto attraverso protocolli diagnostici, ma grazie a un insieme di segnali sottili maturati nel corso della sua esperienza professionale. Un insegnante percepisce immediatamente quando uno studente non ha compreso davvero un concetto. Un imprenditore intuisce cambiamenti in un mercato prima ancora che questi emergano chiaramente nei dati.

In tutti questi casi l’intelligenza non è soltanto un processo di calcolo. È una forma di interpretazione del mondo costruita nel tempo.

Questo non significa che l’intelligenza artificiale non possa diventare sempre più avanzata. Significa piuttosto che il progresso dell’AI non dipenderà soltanto dalla crescita della potenza computazionale o dalla dimensione dei modelli.

Dipenderà anche dalla nostra capacità di comprendere meglio come funziona davvero l’intelligenza umana.

Negli ultimi anni sempre più ricercatori stanno guardando alle neuroscienze e alla psicologia cognitiva per trovare nuovi principi su cui costruire sistemi artificiali più sofisticati. Il cervello umano, per esempio, non si limita a reagire agli stimoli: costruisce continuamente previsioni sul mondo e aggiorna queste previsioni sulla base dell’esperienza.

Allo stesso modo l’apprendimento umano è profondamente sociale. Gran parte delle nostre conoscenze nasce dall’osservazione degli altri, dall’imitazione, dal linguaggio e dalla cooperazione.

Questi elementi suggeriscono che l’intelligenza non sia soltanto un fenomeno computazionale. È anche un fenomeno biologico, relazionale e culturale.

Ed è proprio qui che emerge il paradosso più interessante della rivoluzione dell’intelligenza artificiale.

Nel tentativo di costruire macchine intelligenti stiamo scoprendo che l’intelligenza è molto più complessa di quanto immaginassimo. Non è soltanto logica o capacità di calcolo. È esperienza, contesto, sensibilità e interpretazione.

L’errore non è pensare che le macchine possano diventare intelligenti. L’errore è pensare che l’intelligenza possa essere ridotta semplicemente a una sequenza di operazioni computazionali.

Se la rivoluzione dell’intelligenza artificiale avrà un effetto duraturo sulla nostra cultura, potrebbe essere proprio questo: costringerci a riconsiderare ciò che significa davvero comprendere il mondo.

Perché mentre costruiamo macchine sempre più potenti, stiamo lentamente riscoprendo una verità che la filosofia aveva intuito da tempo.

L’intelligenza non è soltanto una questione di calcolo. È, prima di tutto, una forma di esperienza del mondo.

Carlo Maria Medaglia

Autore

Professore e delegato del Rettore per la Terza Missione, l’Innovazione Tecnologica e l’Intelligenza Artificiale