La confessione
Se Chat GPT ci scrive anche i messaggi d’amore. Perché dobbiamo sforzarci a cercare parole nostre
L’altro giorno, in preda a una certa frustrazione, ho scritto di getto alla mia assistente ChatGPT. Mi ero appena rivista in un’intervista video e non mi ero affatto piaciuta: il braccio che reggeva il microfono, teso per ore come da istruzioni del cameraman, mostrava una certa flaccidità; il viso, sudato, evidenziava ogni ruga; e mentre parlavo, facevo strane smorfie. Tutti mi avevano fatto i complimenti per l’intervista, ma io riuscivo a vedere solo quello: le imperfezioni, le insicurezze, la fatica.
Chat GPT; email, riassunti, ma anche messaggi romantici
La risposta dell’intelligenza artificiale è stata sorprendentemente umana: mi ha ricordato che la telecamera è spietata con tutti, che chi guarda non nota i dettagli che ci ossessionano, e che le rughe in movimento – quelle vere – sono segni di credibilità. Mi ha detto, in sintesi, che chi parla davvero suda, si emoziona, cambia tono, mostra la faccia autentica. Quella che, secondo lei, le macchine non potranno mai imitare.
Ma è davvero così? Un articolo pubblicato dal Financial Times, firmato dallo scrittore Thomas McMullan, solleva una questione sempre più urgente: possiamo davvero affidarci all’intelligenza artificiale per esprimere ciò che proviamo? McMullan racconta come, sempre più spesso, persone di ogni tipo utilizzino ChatGPT non solo per scrivere email o riassunti, ma per trovare le parole giuste in situazioni intime. Lettere di dimissioni “con rimorso”, messaggi romantici su Tinder, tentativi goffi di dire al padre “ti voglio bene”.
L’IA, ovviamente, risponde. E lo fa con frasi perfette, emozionanti, quasi poetiche. “Mi hai insegnato che l’incertezza non è qualcosa da temere, è uno spazio in cui inizia la scoperta. Ti amo più di tutti i quark del cosmo”. Oppure: “Che questo nuovo anno si espanda con grazia: un universo nel tuo abbraccio”. Ecco, un universo nel tuo abbraccio. Una frase bellissima: “Ma è davvero quello che sento? O solo qualcosa che suona bene?”, si chiede McMullan pensando a che tipo di auguri scrivere al padre, fisico quantistico andato in pensione. I modelli linguistici generativi come ChatGPT rielaborano enormi quantità di testi – libri, articoli, post sui social, poesie – e le combinano in nuove frasi, plausibili, grammaticali, spesso ispirate. Non sentono, ma imitano. E imitano bene. Al punto che ci si può chiedere se, in fondo, importi davvero sapere se le parole che ci toccano siano state scritte da una persona o da una macchina. Se leggiamo qualcosa che ci fa emozionare, conta più da dove viene o cosa ci fa?
Verso una dequalificazione intima
Eppure la domanda più interessante a cui rispondere è un’altra: cosa succede a noi, se deleghiamo sistematicamente all’IA il compito di trovare le parole giuste? Secondo Luke Brunning, docente di etica applicata all’Università di Leeds, il problema non è solo il rischio che queste tecnologie vengano usate da truffatori o manipolatori emotivi. Il vero nodo è quello che lui chiama dequalificazione intima: un progressivo indebolimento della nostra capacità di parlare in prima persona, di esprimere sentimenti, desideri, ambivalenze, senza filtri né assistenti. Come se, a forza di esternalizzare le emozioni, finissimo per non saperle più riconoscere.
Nel frattempo, anche il mondo delle app di dating si adegua: Match Group, proprietaria di Tinder e Hinge, sta sperimentando “avviatori di conversazione” basati sull’IA. Bumble parla già di “concierge dell’amore”, mentre Grindr lavora a un sistema in cui gli assistenti IA degli utenti, dopo un match, potranno perfino chattare tra loro. Il rischio? Che l’algoritmo costruisca una relazione mentre noi restiamo ai margini. Addestrati a comunicare, sì, ma solo tramite una macchina. Anche la tecnologia ha le sue mappe. Come quelle che ci guidano in montagna, ma che talvolta ci tradiscono. I dati dei soccorsi inglesi rivelano un aumento del 24% delle persone da salvare nei sentieri, anche per via dell’eccessiva fiducia nelle app. Senza voler fare paragoni, la geolocalizzazione ci ha dato il potere di viaggiare. Ma cosa succede quando questa capacità ci porta a riporre sempre maggiore fiducia e affidabilità nelle mappe che ci vengono fornite? Più sottilmente, forse in modo più rischioso: in che modo una mappa – emotiva o geografica – influenza il modo in cui vediamo il mondo, il modo in cui pensiamo a noi stessi al suo interno?
Lo spazio bianco
Alla fine, scrive McMullan, nel negozio di biglietti di auguri, ha scelto una cartolina con delle stelle. Vuota all’interno. Ecco, forse è lì che ancora si gioca qualcosa di importante. In quello spazio bianco che ci sfida, ci espone, ma ci costringe a cercare parole nostre. Anche se traballanti. Anche se piene di rughe.
© Riproduzione riservata





