Il 3 settembre 1967, gli automobilisti svedesi, dalle quattro e quarantacinque del mattino, iniziarono a guidare a destra e non più a sinistra, come avevano fatto fino a quel momento. Le foto delle strade di Stoccolma, quel giorno, mostrano numerosi casi di disorientamento e qualche incidente, ma nel giro di poche ore, milioni di individui passarono da una regola ad un’altra, da un equilibrio ad un altro, in un esercizio di straordinaria coordinazione collettiva. Di regole efficaci scriveva Vittorio Pelligra, qualche anno fa: “Quelle che funzionano sono equilibri del gioco della vita, come direbbero i teorici dei giochi”. E sebbene “gioco della vita” appaia al lettore un’astrazione sentimentale, qui si fa riferimento a un’infinità di scenari, più o meno complessi: da una partita a scacchi a come si regolamenta un mercato per gli scambi economici. Ma chi gioca, lo fa con lo scopo di vincere, quindi di massimizzare il proprio risultato. È uno dei principali presupposti. La scommessa, dunque, perché le regole funzionino, è riuscire a realizzare il fantomatico “giusto equilibrio”: tra interessi in gioco e diritti da tutelare.

Cercano di farlo, negli ultimi tempi, i governi di tutto il mondo, alle prese con la regolamentazione dell’IA. A partire dall’“AI Act” – il regolamento approvato quest’anno dal Parlamento europeo – fino alla Casa Bianca, dove Biden, lo scorso ottobre, ha emesso uno storico ordine esecutivo per garantire che l’America fosse all’avanguardia nel cogliere le promesse e gestire i rischi delle nuove tecnologie. Sia la legge europea che l’Executive Order si propongono di “proteggere la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione”. Che è – per le società tecnologiche – il vero ago della bilancia. Così, mentre la California (dove c’è la Silicon Valley e operano i big del settore) si prepara a votare una proposta di legge che obbligherebbe le aziende a integrare una sorta di “kill switch” nei loro sistemi (letteralmente, interruttore di emergenza), in modo da disattivarli subito con un semplice comando, i colossi tecnologici stanno correndo ai ripari. Come? Espandendo i team di lobbying per influenzare le regole del gioco. Per esempio, OpenAI – secondo quanto ha dichiarato al Financial Times – sta creando un team internazionale di lobbisti: il numero dei dipendenti per gli “Affari globali” da tre, all’inizio del 2023, è passato a 35. E diventeranno 50 entro il 2024.

Gli obiettivi sarebbero ambiziosi. David Robinson, responsabile della pianificazione politica in OpenAI, dopo una carriera nel mondo accademico e già consulente per la Casa Bianca sulla politica per l’intelligenza artificiale, spiega al FT: “Significa creare leggi che non solo ci consentano di innovare, ma anche di arrivare a un mondo in cui la tecnologia sia sicura”. Un equilibrio verosimilmente perfetto. Se fosse possibile. Un indice sviluppato alla Stanford University – Foundation Model Transparency Index (FMTI) – ha di recente misurato la trasparenza dei grandi colossi tecnologici, leader in IA, come Google, Amazon, Meta e OpenAI, scoprendo che non sarebbe all’altezza dello standard necessario. L’FMTI ha stabilito che queste società somigliano oramai a scatole opache sulla base di ben 100 indicatori su questioni relative a dati, manodopera, elaborazione, capacità di calcolo, limiti, rischi, policy di utilizzo e impatto a valle. E c’è una ragione storica.

Un tempo i ricercatori divulgavano i dati di addestramento su riviste scientifiche, consentendo agli altri di diagnosticare i difetti e valutare la qualità degli input. Oggi, i principali attori in gioco tendono a trattenere i dettagli dei propri dati per proteggersi dalle potenziali azioni legali per violazione del copyright. È successo per esempio che il New York Times, nel 2023, abbia citato in giudizio Microsoft e OpenAI, sostenendo che entrambe le società avessero sfruttato milioni di suoi articoli, per contribuire a creare chatbot di intelligenza artificiale generativa. Non solo i dati addestramento sono oramai poco trasparenti, anche gli stessi modelli lo sono: le società di IA tendono a vedere l’architettura del proprio modello come una “ricetta segreta” per garantirsi un vantaggio competitivo nella corsa alla conquista della fetta di mercato. Questo ha chiuso definitivamente la “scatola”.

Ed è il punto critico: senza la comprensione di come funziona un modello, è difficile valutare le informazioni e misurare la sicurezza di questi sistemi. Il “giusto equilibrio”, dunque, tra interessi di mercato e diritto alla sicurezza potrebbe essere il rispetto della regola della trasparenza, secondo un “gioco di tipo cooperativo”. L’IA ha il potenziale per trasformare il mondo in meglio, forse con ancora più potenza e velocità rispetto alla rivoluzione di Internet. Le società che sviluppano i sistemi di IA potrebbero sostenere che i requisiti di trasparenza rallenteranno l’innovazione e indeboliscano il loro vantaggio competitivo, ma la storia recente suggerisce il contrario: queste tecnologie sono avanzate sulla base della collaborazione e della ricerca condivisa. Ritornare a quelle norme servirebbe solo ad aumentare la fiducia del pubblico e a consentire un’innovazione più rapida, ma più sicura.

Ilaria Donatio

Autore