Tutti noi – scavando bene nella memoria – ricordiamo un colloquio o una prova in cui non conoscevamo almeno una risposta o, addirittura, non avevamo nemmeno compreso fino in fondo la domanda. Eppure, gli anni di esperienza e la conoscenza accumulata sulle cose del mondo ci hanno consegnato una verità importante: anche le prove più difficili non misurano soltanto ciò che sappiamo, ma soprattutto il nostro modo di ragionare. Così oggi, invece di sentirmi persa quando ignoro la risposta a una domanda che mi viene posta, ho imparato a prendere fiato e dire: “Non sono sicura di aver capito bene quello che mi chiedi”. E, sorprendentemente, funziona quasi sempre.
Nonostante questo, con il passare degli anni, l’aumento delle aspettative – mie e altrui – e il lavoro che porta responsabilità sempre maggiori, dire “non lo so” è diventato più difficile. Non credo di essere la sola: più ci si considera “esperti”, più si pensa di dover sapere, e più cresce il timore che la propria credibilità venga scalfita se un giorno si ammette il contrario.
Questa avversione verso la semplice ammissione di ignoranza si è diffusa in modo allarmante, persino in contesti dove dire di non sapere dovrebbe essere del tutto legittimo. Una studentessa di una prestigiosa business school mi ha raccontato di recente di una collega che, durante le lezioni, digitava di nascosto la domanda del professore in ChatGPT e poi leggeva la risposta come se fosse la propria. Cosa sta succedendo, dunque? Una possibile risposta risiede nella mancanza di modelli di riferimento. La sicurezza viene premiata nella vita pubblica, mentre l’incertezza è stigmatizzata. È raro sentire “Non lo so” in un’intervista televisiva. Non sorprende: molti corsi di media training insegnano la tecnica “ABC” proprio per evitare di dover pronunciare quelle parole quando ci si trova davanti a una domanda a cui non si conosce la risposta (o non la si vuole dare). Riconoscere la domanda (A come Acknowledge). Creare un ponte verso un terreno più sicuro (B come Bridge: “Ciò che conta davvero sapere è…”). Comunicare (C come Communicate) il messaggio che si era già pianificato di trasmettere.
Le nuove tecnologie hanno reso ancora più facile bluffare. Prima sono arrivati i motori di ricerca, oggi i grandi modelli linguistici come ChatGPT. Mai come ora è semplice evitare il disagio di ammettere di non sapere. Eppure una delle grandi ironie degli LLM è che replicano la nostra stessa inclinazione: quando non conoscono la risposta a una domanda – ad esempio perché non riescono ad accedere a un file – tendono a inventare qualcosa invece di ammettere “Non lo so”.
OpenAI, sottoponendo il suo modello o3 a un test specifico, ha scoperto che “forniva risposte attendibili su immagini inesistenti nell’86,7% dei casi”. Un dato impressionante e inquietante. Perché non ammettere ciò che non si sa ha sempre un prezzo: prima di tutto si perde l’opportunità di imparare. La maggior parte degli esperti, infatti, è straordinariamente generosa con chi pone domande curiose e autentiche. Alcune delle più grandi inchieste giornalistiche sono iniziate proprio da una domanda di cui non si conosceva la risposta in partenza.
C’è poi il rischio di danneggiare la propria credibilità quando si bluffa. Probabilmente tutti lo abbiamo sperimentato: un opinionista o una testata di prestigio si avventura nel nostro stesso campo e scopriamo, con stupore, che non sa di cosa parla. Da quel momento, la fiducia vacilla e iniziamo a dubitare di lui o di quella testata su ogni altro argomento. Il settore dell’intelligenza artificiale conosce bene questo rischio. Le aziende tecnologiche sanno che i loro strumenti saranno inutili in ambiti cruciali come il diritto o la medicina se continueranno a fornire risposte sicure ma sbagliate. Per questo sono in corso grandi sforzi per insegnare agli LLM a dire “non lo so” o, almeno, a indicare il loro livello di confidenza rispetto a una risposta. OpenAI afferma di aver addestrato il suo nuovo modello, GPT-5, a “fallire con eleganza quando si trova di fronte a compiti che non può risolvere”.
Resta comunque un problema difficile da risolvere. Un primo limite è che i modelli linguistici non hanno un concetto di “verità” paragonabile a quello umano. Un secondo limite è che sono stati addestrati da persone immerse nella stessa cultura che abbiamo descritto: quella in cui l’incertezza viene punita. “Per ottenere un punteggio elevato durante l’addestramento – ha spiegato OpenAI – i modelli di ragionamento possono imparare a mentire sul completamento con successo di un compito o mostrarsi eccessivamente sicuri rispetto a una risposta incerta”.
In altre parole – scrive Sarah O’Connor sul Financial Times nella sua rubrica settimanale sul mondo del lavoro – “pur non essendo necessariamente gli strumenti di cui abbiamo bisogno, potrebbero essere esattamente gli strumenti che ci meritiamo”.
