L’intelligenza artificiale non è più solo un affare delle big tech o dei laboratori di ricerca. Entra ormai anche nei comandi militari, nei sistemi di sorveglianza, nella logistica, nella pianificazione delle missioni. È un’evoluzione inevitabile, secondo Michael C. Horowitz, professore e direttore del Perry World House dell’Università della Pennsylvania, tra i massimi esperti al mondo di tecnologia e sicurezza internazionale. La vera domanda, spiega, non è se accadrà, ma come: in modo da rafforzare la sicurezza globale o, al contrario, da renderla più fragile.
Un rapporto del mese scorso curato dalla Commissione globale sull’intelligenza artificiale responsabile nel dominio militare – Responsible by Design – propone una via concreta: adottare il principio della responsabilità per progettazione. Significa incorporare, sin dall’inizio, criteri etici e legali nello sviluppo dei sistemi d’intelligenza artificiale militari, anziché aggiungerli a posteriori come un correttivo. In pratica, vuol dire che chi progetta, testa e utilizza queste tecnologie deve lavorare insieme per anticipare i rischi: pianificare cosa accade se l’algoritmo sbaglia, costruire piste di audit, prevedere protocolli d’addestramento e simulazioni d’emergenza. Un approccio che riduce la probabilità di incidenti e chiarisce le responsabilità quando qualcosa va storto.
Questa visione si distingue da molte proposte utopiche – o irrealistiche – che vorrebbero semplicemente vietare lo sviluppo di armi “intelligenti”. La responsabilità per progettazione parte invece dalle condizioni reali: non bloccare il progresso tecnologico, ma governarlo con regole chiare e condivise. È un metodo che si ispira alle buone pratiche già adottate nelle forze armate per altre capacità complesse, come la sicurezza nucleare o la cyber-difesa. Ed è anche una questione di fiducia: sistemi costruiti in modo trasparente e verificabile ispirano più sicurezza, dentro e fuori i confini nazionali. I governi dovrebbero quindi sostenere questo approccio non per ragioni di principio, ma di efficacia: un sistema imprevedibile non è un buon alleato sul campo di battaglia. C’è però un limite netto che nessuna innovazione dovrebbe superare: le decisioni sull’uso delle armi nucleari devono restare sotto controllo umano. Su questo punto, Stati Uniti, Regno Unito, Francia e Cina hanno già espresso una posizione comune, confermata in un accordo bilaterale tra Washington e Pechino nel 2024. È un segnale importante: quando si parla delle armi più distruttive mai create, nessuna macchina può sostituire la responsabilità morale e politica dell’uomo.
Resta comunque aperta una zona grigia: quella dei cosiddetti pregiudizi di automazione. È il rischio che comandanti o analisti militari finiscano per fidarsi troppo delle decisioni suggerite dall’IA, anche quando i dati sono incompleti o le situazioni troppo ambigue. In scenari di crisi, dove la velocità delle decisioni è cruciale, questa fiducia cieca può portare a escalation involontarie, errori di calcolo, o incidenti simili a quelli avvenuti tra navi e aerei statunitensi e sovietici durante la Guerra Fredda. Il problema, insomma, non è tanto la macchina, ma il contesto in cui la macchina opera e la psicologia di chi la utilizza. Per questo il rapporto della Commissione chiede di creare forum internazionali di cooperazione, dove gli Stati possano condividere standard, esperienze e protocolli, riducendo i rischi di malintesi e rafforzando la fiducia reciproca. Anche in un mondo geopoliticamente competitivo, c’è spazio per accordi che evitino che un errore tecnico o un algoritmo male addestrato inneschi un conflitto reale.
La responsabilità per progettazione non eliminerà tutti i pericoli legati all’uso militare dell’intelligenza artificiale, ma offre una bussola per orientarsi. Aiuta a evitare il doppio rischio di un’IA senza regole o di un proibizionismo sterile. E riconosce che la vera sfida del nostro tempo non è decidere se usare l’IA in ambito militare, ma come farlo in modo che resti al servizio dell’uomo, non del caso o della macchina.
