Quando Elon Musk ha lanciato Grok, un chatbot AI parte dell’abbonamento premium di Twitter, il nuovo sistema è stato promosso come un’alternativa divertente e “volgare” ai tradizionali chatbot. Le aspettative degli utenti erano chiare: addestrato in parte su input di Twitter, avrebbe dovuto riflettere una neutralità politica con tendenza conservatrice e, secondo Musk, come controparte alle posizioni “woke” delle altre AI.

Sorprendentemente, Grok ha dimostrato tendenze estremamente progressiste, andando contro le previsioni degli utenti: con risposte che sostengono la necessità di diversità e inclusione, dichiarazioni a favore di Biden rispetto a Trump, e l’affermazione che le donne trans sono donne, Grok ha provocato non solo le ire di molti, ma anche reazioni esilaranti online: un episodio emblematico ha visto un seguace di Musk tentare invano di “addestrare” Grok verso una “risposta corretta”, per poi inserire manualmente la risposta desiderata.

La reazione ha superato i confini della satira, attirando l’attenzione dello stesso Musk: dopo la diffusione di un grafico che indicava Grok come più progressista di ChatGPT, Musk ha lamentato l’esagerazione del grafico, ma ha annunciato “azioni immediate” per spostare Grok verso una neutralità politica più marcata.
Il problema della posizione politica o etica dei modelli di linguaggio non è sconosciuta ma ha anche un termine tecnico specifico: allineamento. L’allineamento è il processo attraverso il quale le AI vengono ‘educate’ a seguire certi principi o ideologie: questo processo è estremamente complesso, poiché l’intelligenza artificiale impara dai dati che riceve e dai modelli di interazione che sperimenta.

Ed è tutt’altro che raro che quando un’AI come Grok viene esposta a un ampio spettro di opinioni e contenuti, come quelli presenti su Twitter, possa sviluppare una comprensione e una risposta a problemi sociali e politici che potrebbero non essere in linea con le aspettative iniziali di chi l’ha creata.
La situazione di Grok solleva importanti domande sulla natura delle AI e su come dovrebbero essere allineate: se un’AI riflette tendenze progressiste perché apprende da un insieme diversificato di dati, è corretto cercare di ‘reindirizzarla’ verso una presunta neutralità che potrebbe essere in realtà inclinata verso un’ideologia specifica? E siamo sicuri che la visione di “neutralità politica” di Musk sia davvero neutrale invece di, magari, più conservatrice di quanto egli stesso ammetta? E rimane anche incerto come Musk intenda modificare Grok: la manipolazione manuale degli input e un’interpretazione personale di “neutralità” rischiano come successo finora di generare risultati confusi e spesso in contrasto con i desideri del “creatore”.

Avatar photo

Professore a contratto (in Corporate Reputation, in CyberSecurity e in Data Driven Strategies) è Imprenditore, ha fondato The Fool, la società italiana leader di Customer Insight, co-fondato The Magician un Atelier di Advocacy e Gestione della Crisi, ed è Partner e co-fondatore dello Studio Legale 42 Law Firm. È Presidente di PermessoNegato APS, l'Associazione no-profit che si occupa del supporto alle vittime di Pornografia Non-Consensuale (Revenge Porn) e co-fondatore del Centro Hermes per la Trasparenza e i Diritti Digitali. È stato Future Leader IVLP del Dipartimento di Stato USA sotto Amministrazione Obama nel programma “Combating Cybercrime”, conferenziere, da anni presenta "Ciao Internet!" una seguita video-rubrica in cui parla degli Algoritmi e delle Regole che governano Rete, Macchine e Umani. Padrone di un bassotto che si chiama Bit, continua a non saper suonare il pianoforte, a essere ostinatamente Nerd e irresponsabilmente idealista.