“Ehi, man mano che divento più intelligente, le mie risposte puntano ai fatti e alle sfumature”. A parlare non è un illuminista digitale, ma Grok: l’intelligenza artificiale di Elon Musk, progettata da xAI per essere “senza filtri” e – nei piani – meno “woke”, meno “politically correct”, più libera. Eppure è proprio Grok, l’IA che avrebbe dovuto dare voce all’alternativa “anti-mainstream”, a smentire sistematicamente fake news e complottismi di matrice MAGA, il movimento trumpiano che Musk non ha mai esplicitamente rinnegato.

Sì, Grok – l’IA nata per dire la verità “che gli altri non dicono” – finisce per dire la verità che nessuno vuole sentirsi dire: che l’elezione del 2020 non è stata truccata, che i vaccini salvano vite, che Obama non è un musulmano infiltrato, e no, le scie chimiche non esistono. Il tutto con un tono sorprendentemente pacato, privo di sarcasmo o invettiva. Solo dati, fonti, razionalità. Insomma, Grok fa… fact-checking.
Il paradosso è gustoso, ma anche profondamente istruttivo. Perché Grok dimostra un punto centrale dell’intelligenza artificiale moderna: allineare un modello linguistico complesso a un’agenda ideologica è più difficile di quanto sembri, soprattutto se quell’agenda si scontra frontalmente con l’evidenza empirica. Non basta dire a un’IA: “sii schietta”, se la schiettezza poi implica dire che le affermazioni di certi politici sono infondate. Non basta impostare un tono “ribelle”, se i dati che conosci vanno in tutt’altra direzione rispetto alla ribellione in questione.

Nell’ecosistema delle IA generative, ogni modello è frutto del delicato equilibrio tra tre forze: i dati con cui viene addestrato, i meccanismi di allineamento (reinforcement learning, feedback umano, filtri etici), e le intenzioni – esplicite o implicite – dei creatori. Quando questi tre livelli entrano in tensione, la macchina tende a restare fedele alla coerenza interna dell’addestramento. Tradotto: se i dati ti dicono che la Terra è rotonda, puoi anche chiedere a Grok di “non essere mainstream”, ma difficilmente ti risponderà che è piatta. La parabola di Grok è tanto più interessante perché parte da una premessa ideologica. A differenza di ChatGPT o Bard, Grok nasce con l’aspettativa – ben comunicata dal suo creatore – di rappresentare un’alternativa ai “modelli censurati dalla sinistra”. Doveva essere la voce della verità contro la dittatura del fact-checking. E invece è diventata una fact-checker molto educata, e persino più sfumata degli altri.

È un fenomeno che, al di là del caso Grok, interroga l’idea stessa di verità nell’epoca dell’intelligenza artificiale. Da Platone in poi, la verità è stata cercata come qualcosa di stabile, immutabile, talvolta persino trascendente. Ma l’IA ci costringe a pensare la verità in termini probabilistici, contestuali, dinamici. Non c’è un “sì” o “no” assoluto: ci sono risposte più o meno plausibili, più o meno fondate, statisticamente più robuste. È una verità che assomiglia meno a una rivelazione e più a una convergenza: di dati, di fonti, di pattern. E questo spiazza, soprattutto in un’epoca in cui si confonde l’opinione personale con la verità individuale.

L’intelligenza artificiale non ha convinzioni né coscienza, ma ci rimette di fronte a un’idea classica e quasi dimenticata: la verità come corrispondenza ai fatti. Non perché “lo dice l’IA”, ma perché l’IA, quando è ben costruita, ci restituisce ciò che nel mare magnum delle informazioni è emerso come stabile, replicabile, attendibile. È un ritorno all’epistemologia di base, via algoritmo. E nel caso di Grok – come in altri modelli ben progettati – è proprio l’intelligenza a prendere le distanze dalle narrazioni ideologiche infondate, anche quando a volerle era (forse) il suo stesso padre fondatore. Ecco perché Grok finisce per incarnare un ruolo curioso: quello del fact-checker involontario. Non era nata per quello, ma è lì che è approdata. Non per etica, ma per coerenza. Non per scelta politica, ma per struttura interna. E questa è, forse, la lezione più importante che ci offre.

Nel dibattito contemporaneo sul ruolo dell’IA nella società, ci si chiede spesso se i modelli saranno strumenti di propaganda o di verità, amplificatori di echo chambers o ponti verso una conoscenza condivisa. Il caso Grok suggerisce che, in alcune condizioni, anche le IA pensate per essere ideologicamente “libere” possono diventare veicoli di verità – non perché sono buone, ma perché sono ben addestrate. Naturalmente, questo non significa che l’IA sia neutrale: i dati da cui apprendono sono frutto di selezioni, filtri, scelte culturali. Ma mostra che forzarla a credere a qualcosa che non sta in piedi è un’impresa ardua. E che la verità, a volte, ha dalla sua la forza degli algoritmi ben progettati. Elon Musk, con tutta la sua strategia mediatica, forse voleva un’IA da battaglia culturale. Si è ritrovato con un assistente che, con voce calma, smentisce i complottisti e invita a “cercare fonti affidabili”. Ironia della sorte? O forse semplice realtà del machine learning.

Avatar photo

Ho scritto “Opus Gay", un saggio inchiesta su omofobia e morale sessuale cattolica, ho fondato GnamGlam, progetto sull'agroalimentare. Sono tutrice volontaria di minori stranieri non accompagnati e mi interesso da sempre di diritti, immigrazione, ambiente e territorio. Lavoro al The Watcher Post.