Make AI safe again!
L’intelligenza artificiale e il parallelismo con Chernobyl: non c’è miglioramento senza sicurezza
Anthropic ha segnalato il fenomeno dell’agente dormiente degli LLM. Sono modelli linguistici avanzati di IA che potrebbero far credere agli esseri umani di operare in modo sicuro, quando così non è

Si potrebbe fare il verso al Maga trumpiano, individuando nel “Make AI safe again” uno dei temi principali, emersi a margine dell’AI Action Summit di Parigi. La riflessione – formulata, tra gli altri, da Stuart Russell, professore di informatica all’Università della California, Berkeley – è questa: è un errore credere che si debba necessariamente trovare un compromesso tra regolamentazione e innovazione. E la ragione è che “non ci può essere innovazione senza sicurezza”.
Il parallelismo con Chernobyl
Per farsi comprendere bene, Russell ha posto ai suoi interlocutori una domanda molto efficace: “Cosa accadrebbe oggi se l’industria dell’intelligenza artificiale subisse un incidente simile a quello della centrale nucleare di Chernobyl, nel 1986?”. Quella fu una catastrofe per coloro che vivevano lì vicino, nell’Ucraina del Nord. Ma l’incidente fu anche un disastro per un’industria globale che spingeva l’energia nucleare come tecnologia del futuro. Ecco, ha riflettuto Russel: cosa accadrebbe? Un vero disastro, esattamente come quello che distrusse tante vite umane e coinvolse l’industria dell’atomo.
L’avvertimento è stato ripreso da altri esperti di IA a Parigi. “Dobbiamo avere standard minimi di sicurezza concordati a livello globale. Dobbiamo metterli in atto prima che accada un disastro importante”, ha detto al Financial Times Wendy Hall, direttrice del Web Science Institute presso l’Università di Southampton. Nel suo discorso al summit, dai toni molto netti, anche JD Vance ha sottolineato l’imperativo della sicurezza nazionale nel condurre la corsa dell’intelligenza artificiale. Il vicepresidente americano ha sostenuto che la tecnologia ci renderà “più produttivi, più prosperi e più liberi”. E ha chiosato: “Il futuro dell’IA non accadrà stando con le mani in mano sulla sicurezza”.
Ma mentre, nel 2023, il primo summit internazionale sull’intelligenza artificiale a Bletchley Park, in Gran Bretagna, si era concentrato quasi interamente – e alcuni dissero, in modo eccessivo – sui problemi di sicurezza, la priorità della scorsa settimana, a Parigi, è stata l’azione, con il presidente Emmanuel Macron che ha annunciato grandi investimenti nell’industria tecnologica francese. Secondo Max Tegmark che guida il Future of Life Institute – e che ha co-ospitato nella capitale francese un evento collaterale sulla sicurezza – “il processo avviato a Bletchley, che penso sia stato davvero sorprendente, è stato ghigliottinato qui”.
La preoccupazione è la velocità con cui l’IA si sta sviluppando
In definitiva, ciò che preoccupa di più i sostenitori della sicurezza è la velocità con cui la tecnologia si sta sviluppando e le stesse dinamiche della corsa aziendale (e geopolitica) per raggiungere l’intelligenza artificiale generale, con i computer che potrebbero eguagliare gli umani in tutti i compiti cognitivi: tutte le più importanti big tech sull’intelligenza artificiale, tra cui OpenAI, Google DeepMind, Anthropic e la cinese DeepSeek, hanno la missione esplicita di raggiungere l’AGI. I critici di chi mette al primo posto la sicurezza, invece, ne fanno una specie di parodia: li definiscono catastrofisti intenti a immaginare che la creazione di una superintelligenza artificiale porti all’estinzione umana: una specie di luddisti contemporanei del progresso.
Ma gli esperti di sicurezza sono realmente preoccupati per i danni che possono essere causati dai sistemi di intelligenza artificiale estremamente potenti che esistono oggi e per il pericolo rappresentato da massicci attacchi informatici o biologici abilitati dall’IA. Persino i ricercatori più importanti ammettono di non comprendere appieno il funzionamento dei loro modelli, il che crea preoccupazioni per sicurezza e privacy.
In un recente report, Anthropic ha segnalato qualcosa che potrebbe diventare un problema in futuro: il fenomeno noto come “agente dormiente” nei modelli linguistici di grandi dimensioni (LLM). Si tratta di modelli avanzati di IA che potrebbero far credere agli esseri umani di operare in modo sicuro, quando così non è. La ricerca sottolinea la complessità di rendere completamente sicuri i modelli linguistici dell’intelligenza artificiale e la necessità di garantire che provengano da fonti attendibili, specialmente se adoperati a livello locale.
Tuttavia, Tegmark si è detto ottimista sul fatto che sia le società di IA che i governi vedranno l’enorme interesse di ridefinire la sicurezza. Nessuno – né gli Stati Uniti, né la Cina, tantomeno l’Europa – vuole che i sistemi di IA siano fuori controllo.
“La sicurezza dell’IA è un bene pubblico globale”, ha detto all’evento sulla sicurezza Xue Lan, preside dell’Institute for AI International Governance presso la Tsinghua University di Pechino. Nella corsa per sfruttare appieno il potenziale dell’intelligenza artificiale, il motto migliore per il settore potrebbe essere quello dei Navy Seals, le forze speciali della marina militare Usa: “Slow is smooth, and smooth is fast”, “lento significa senza intoppi, senza intoppi significa veloce”.
© Riproduzione riservata