In democrazia il successo dipende dall’approvazione, quantificata dal numero di voti, che i cittadini danno a persone e programmi. Con il loro voto gli elettori esprimono orientamenti che si sono, almeno idealmente, formati vagliando il flusso di informazioni, ragioni, argomenti e proposte che scorre liberamente negli spazi informali di un’opinione pubblica non organizzata dall’alto. Avendo libero accesso a informazioni nuove o a ragioni migliori, gli elettori possono (in linea teorica) sempre decidere di cambiare opinione e di trasferire le proprie scelte da un partito all’altro. In questo modo l’influenza politica esercitata dall’opinione pubblica può trasformarsi in potere politico, ossia nella possibilità di condizionare le forze istituzionali che hanno la capacità di assumere decisioni vincolanti.

L’IA, gli algoritmi e la democrazia

Ma una democrazia in cui le informazioni sono estrapolate, ripulite ed elaborate da applicazioni dell’Intelligenza Artificiale capaci di indirizzare ai cittadini sciami di informazioni personalizzate predisposte dagli algoritmi automatici, è ancora una democrazia? Il cittadino “profilato” che riceve le informazioni suscettibili di plasmarne inavvertitamente la mentalità, le opinioni e persino le scelte politiche è ancora il cittadino capace di individuare i probabili effetti di decisioni alternative, oppure di modificare la propria opinione di partenza per effetto delle informazioni avanzate da altre parti? Il cittadino è ancora in condizioni di scegliere tra programmi politici alternativi e di convincersi che la vittoria di un certo partito favorisca soluzioni migliori che non il governo di un altro? In sintesi: una democrazia incapace di contrastare l’uso improprio di informazioni per la profilazione e per le learning machine è ancora una democrazia, oppure rischia di trasformarsi in qualcosa di simile a una “algocrazia”, ovvero a una democrazia digitalmente modificata?

La fabbrica di bot russa

Come sappiamo, non si tratta di una domanda retorica. Dopo gli anni in cui gli agenti russi hanno interferito nelle elezioni presidenziali americane del 2016, un’altra tecnologia dotata del potenziale di accelerare la diffusione della propaganda si ritrova al centro dell’attenzione: l’Intelligenza Artificiale. Oggi accade lo stesso nel caso delle elezioni americane di novembre: la Russia ha creato una vera e propria “fabbrica di bot” potenziata dall’Intelligenza Artificiale per inquinare il dibattito pubblico. Ma si pensi anche ai rischi dei deepfake audio e video per creare immagini o eventi mai realmente verificatisi. Il pericolo è duplice: non solo i modelli linguistici adottati da questa tecnologia potrebbero manipolare l’opinione pubblica, ma potrebbero anche corrodere la fiducia dei cittadini nelle informazioni su cui fare affidamento per formulare giudizi e prendere decisioni, isolandoli sempre di più dal dibattito.

E’ presto per l’apocalisse dell’informazione

Sebbene i modelli linguistici stiano diventando potenti strumenti di propaganda, è tuttavia prematuro immaginare un’apocalisse dell’informazione. Per eseguire una campagna di influenza basata sull’IA che abbia successo sono necessarie almeno tre condizioni. In primo luogo chi intende manipolare l’opinione pubblica ha bisogno di accedere a un modello linguistico utile, che potrebbe essere creato da zero, rubato, scaricato da siti open source oppure ottenuto da un fornitore di servizi privo di scrupoli. In secondo luogo, ha bisogno di infrastrutture, come siti Web o account falsi sui social network per diffondere la propria propaganda. E infine ha bisogno che le persone reali siano influenzate o almeno confuse o frustrate dai falsi contenuti immessi in rete.

Le tre condizioni e il margine d’intervento

In ogni fase di questo processo, i governi, le imprese e gli specialisti del digitale hanno la possibilità di intervenire e mitigare i danni. Nella fase di accesso, realizzando un livello di software in grado di operare da firewall tra utenti e modelli linguistici, oppure creando modelli dotati di una filigrana digitale per facilitare l’identificazione del contenuto prodotto. A livello di infrastruttura, le società di social media e i motori di ricerca potrebbero lavorare in modo proattivo per identificare i contenuti generati dall’IA e richiedere agli utenti di fare lo stesso. Potrebbero anche rendere possibile l’applicazione di standard di provenienza digitale al testo, il che consentirebbe alle persone di sapere come è stato prodotto, chi lo ha creato e se è stato generato dall’IA. Infine le società dovrebbero incentivare l’educazione digitale e inserire nelle scuole l’alfabetizzazione mediatica, in modo che i giovani imparino ad analizzare le notizie che consumano e a controllare i fatti attraverso più fonti.
Sebbene gli effetti dei futuri modelli linguistici siano difficili da prevedere, è chiaro che si faranno sentire ben oltre i laboratori o le aziende in cui vengono creati. Pertanto i governi, le imprese, la società civile e il pubblico in generale dovrebbero avere voce in capitolo su come questi modelli sono progettati e utilizzati e su come gestire i potenziali rischi che comportano. Il regolamento UE in materia di IA rappresenta in questo campo un significativo passo in avanti. È da sperare che possa costituire un modello al quale altri paesi, a cominciare dagli Stati Uniti, vogliano ispirarsi.

Edoardo Greblo e Luca Taddio

Autore