Avete presente quando qualcuno si insinua nella nostra vita, ci conquista e ci fa allentare le difese, entrando sempre più nelle nostre privatissime sfere? L’ex ministro Gennaro Sangiuliano ne sa qualcosa. Ma la minaccia, a quanto pare, può anche venire da soggetti molto meno biondi e attraenti. Da ChatGPT, Gemini, Copilot o Claude, ad esempio. È la tesi di padre Benanti, il frate francescano che presiede la Commissione sull’Intelligenza Artificiale di Palazzo Chigi. Benanti ritiene che ormai siamo sull’orlo di una sorta di pericolo finale. Gli LLM, i modelli linguistici estesi che sono alla base delle intelligenze artificiali, elaborano sempre maggiori quantità di dati (token, rappresentazioni numeriche delle parole) per poter gestire contenuti complessi e quindi rispondere in modo puntuale alle richieste. Ma per diventare indispensabili, anelano a riprodurre la struttura mentale umana.

Per persuaderci che senza di loro non possiamo stare, questi chatbot narcisisti patologici “devono spingerci a trattarli come le persone, o meglio come persone fidate”. Per questa via le IA stanno per toccare un limite che per padre Benanti è inviolabile: sviluppare una forma di “teoria della mente” (ToM). Considereremo le macchine con cui lavoriamo come carissimi amici, e con loro saremo indotti a dialogare in modo sempre più continuo e intimo. E “loro” interpreteranno i nostri desideri e i nostri stati d’animo e, poiché dotate di memoria, sapranno dirci di noi anche cose profonde di cui siamo inconsapevoli. Secondo Benanti, a questo non siamo pronti. Quindi, occorrono dei “metaprompt”, ovvero dei prompt speciali di configurazione con cui gli utenti possono “insegnare a questi modelli ad essere rispettosi di quella parte così fragile e preziosa degli umani che chiamiamo vita privata”. Le macchine, insomma, sono viste un po’ come bambine irresponsabili che vanno costrette – con le buone o con le cattive – a non montarsi la testa.

Il ministro Valditara ha un’idea comprensibilmente più fiduciosa, e non a caso nelle scuole avvia un’importante sperimentazione che servirà a testare quanto l’Intelligenza Artificiale possa servire alla personalizzazione della didattica. Ma certamente l’argomento di Benanti merita attenzione, visti anche i galoppanti progressi della tecnologia che mira a produrre robot dotati di sembianze umane e di IA. Ma forse prima dovremmo porci un’altra domanda: questa intelligenza come la vogliamo? Artificiale o no? Finora l’abbiamo rimproverata di essere troppo fredda e calcolatrice. Ci siamo detti: come ci può davvero aiutare una produttrice di contenuti se non sa intercettare i nostri reali bisogni e desideri? Chi si farebbe affiancare, nel lavoro e nella vita, da un assistente che non ti conosce e quindi non cresce con te? Ma se le cose cambiano, e l’IA si avvia a essere ben più che “calda”, mirando addirittura a condividere con noi anche le emozioni, scattano allarmi molto accesi sui rischi e le contromisure da adottare.

Non potrebbe essere l’esatto opposto? Se l’intelligenza generativa si attrezzasse a intercettare le diverse sensibilità degli esseri umani, saremmo forse sulla soglia di un nuovo mondo di interazioni che ci aiuterà a riflettere e crescere. Certo, per non esondare dall’umanesimo occorre la famosa educazione digitale, ma non si elude certo il problema cercando di imbrigliare la tecnologia. Se l’esecutore si trasforma in anima gemella, se l’assistente parla direttamente a noi per come siamo davvero, può diventare un magnifico ircocervo che conosce e calcola ma all’occorrenza sa essere un consigliere o addirittura un terapeuta. Così la bella definizione del vicepresidente di Microsoft, Steve Clayton, “l’Intelligenza Artificiale è il partner del nostro brainstorming”, è già superata.

L’IA, in potenza, è colei che ci conosce più di ogni altro. E ciò può avvenire solo perché la macchina sembra aver appreso ciò che non sempre è chiaro all’uomo, cioè che si impara solo con l’umiltà. Ascoltando, chiedendo, sbagliando e poi riprovando di nuovo. Chissà. Magari l’IA ci spaventa perché minaccia di fare ciò che a noi è da sempre proposto dalla religione e dall’etica ma sostanzialmente inibito, cioè imparare continuamente dagli errori per trovare alla fine le parole giuste. Lei – l’“her” del famoso film del 2013 con Joaquin Phoenix – imparando a conoscerci, potrà farci da specchio, regalare compagnia alle persone sole, dialogare con ragazzi allo sbando o con adulti in crisi di identità. Insomma, saprà consigliarci, consolarci o spronarci. Il “metaprompt” potrebbe servire se mai a darle una mano a dirci le cose giuste. Sarebbe paradossale, visto che noi non riusciamo proprio a comportarci bene, pretendere di insegnare l’educazione a un bot.