Il chatbot AI
Grok, l’intelligenza artificiale di Musk: nata contro i dem è più progressista di ChatGPT
![Tesla and SpaceX’s CEO Elon Musk during an in-conversation event with Britain’s Prime Minister Rishi Sunak at Lancaster House in London, Thursday, Nov. 2, 2023. Sunak discussed AI with Elon Musk in a conversation that is played on the social network X, which Musk owns.(AP Photo/Kirsty Wigglesworth, Pool)
Associated Press/LaPresse
Only Italy And Spain Tesla and SpaceX’s CEO Elon Musk during an in-conversation event with Britain’s Prime Minister Rishi Sunak at Lancaster House in London, Thursday, Nov. 2, 2023. Sunak discussed AI with Elon Musk in a conversation that is played on the social network X, which Musk owns.(AP Photo/Kirsty Wigglesworth, Pool)
Associated Press/LaPresse
Only Italy And Spain](https://www.ilriformista.it/wp-content/uploads/2023/12/musk-900x600.jpg)
Quando Elon Musk ha lanciato Grok, un chatbot AI parte dell’abbonamento premium di Twitter, il nuovo sistema è stato promosso come un’alternativa divertente e “volgare” ai tradizionali chatbot. Le aspettative degli utenti erano chiare: addestrato in parte su input di Twitter, avrebbe dovuto riflettere una neutralità politica con tendenza conservatrice e, secondo Musk, come controparte alle posizioni “woke” delle altre AI.
Sorprendentemente, Grok ha dimostrato tendenze estremamente progressiste, andando contro le previsioni degli utenti: con risposte che sostengono la necessità di diversità e inclusione, dichiarazioni a favore di Biden rispetto a Trump, e l’affermazione che le donne trans sono donne, Grok ha provocato non solo le ire di molti, ma anche reazioni esilaranti online: un episodio emblematico ha visto un seguace di Musk tentare invano di “addestrare” Grok verso una “risposta corretta”, per poi inserire manualmente la risposta desiderata.
La reazione ha superato i confini della satira, attirando l’attenzione dello stesso Musk: dopo la diffusione di un grafico che indicava Grok come più progressista di ChatGPT, Musk ha lamentato l’esagerazione del grafico, ma ha annunciato “azioni immediate” per spostare Grok verso una neutralità politica più marcata.
Il problema della posizione politica o etica dei modelli di linguaggio non è sconosciuta ma ha anche un termine tecnico specifico: allineamento. L’allineamento è il processo attraverso il quale le AI vengono ‘educate’ a seguire certi principi o ideologie: questo processo è estremamente complesso, poiché l’intelligenza artificiale impara dai dati che riceve e dai modelli di interazione che sperimenta.
Ed è tutt’altro che raro che quando un’AI come Grok viene esposta a un ampio spettro di opinioni e contenuti, come quelli presenti su Twitter, possa sviluppare una comprensione e una risposta a problemi sociali e politici che potrebbero non essere in linea con le aspettative iniziali di chi l’ha creata.
La situazione di Grok solleva importanti domande sulla natura delle AI e su come dovrebbero essere allineate: se un’AI riflette tendenze progressiste perché apprende da un insieme diversificato di dati, è corretto cercare di ‘reindirizzarla’ verso una presunta neutralità che potrebbe essere in realtà inclinata verso un’ideologia specifica? E siamo sicuri che la visione di “neutralità politica” di Musk sia davvero neutrale invece di, magari, più conservatrice di quanto egli stesso ammetta? E rimane anche incerto come Musk intenda modificare Grok: la manipolazione manuale degli input e un’interpretazione personale di “neutralità” rischiano come successo finora di generare risultati confusi e spesso in contrasto con i desideri del “creatore”.
© Riproduzione riservata