L’idea che i sistemi di Intelligenza Artificiale possano compiere attività tipicamente umane, come quella giudiziaria, non è più soltanto la trama ispiratrice di un romanzo di fantascienza, ma una realtà che si sta imponendo negli ordinamenti di molti Paesi del mondo, sia pure con un impatto assai variabile sulle geometrie del processo.

In caso in Brasile

In Brasile, ad esempio, per smaltire il più alto numero di arretrati del mondo, stimato in circa 80 milioni di procedimenti in attesa di una decisione, uno ogni 2.6 abitanti, dopo aver constatato il fallimento di tutti i meccanismi alternativi di risoluzione delle controversie (ADR), si è deciso di affidare a Victor Ai System il vaglio di ammissibilità degli oltre cinquantamila ricorsi pendenti dal 2018 davanti al Supremo Tribunale Federale. È stato calcolato che la stessa scrematura effettuata dai funzionari pubblici richiedeva 40 minuti per ogni richiesta, mentre “Victor” impiega 5 secondi per rielaborare il dataset di quasi tre milioni di fascicoli usati per addestrarlo, per classificare le questioni legali presentate col ricorso e per stabilire quale debba superare il criterio di ammissibilità della “repercussão geral”.

Argentina e Regno Unito

In Argentina, invece, dal 2017, sono gli uffici della Procura di Buenos Aires ad avvalersi di “Prometea”, un’Intelligenza Artificiale addestrata per generare, sulla base di criteri statistici, determinazioni corrispondenti a quelle già adottate nei casi analoghi. Ogni qual volta “Prometea” individua delle analogie con questioni precedentemente affrontate, in circa venti secondi, propone una bozza di decisione che gli utenti possono a piacimento integrare. Nel Regno Unito, le forze di polizia utilizzano un algoritmo di ML, The Harm Assessment Risk Tool (“HART”), per determinare la pericolosità sociale di un sospettato in base ad un’analisi complessa di tutti quei dati che riguardano situazioni socioeconomiche, familiari, di vicinanza al crimine, di occupazione e ogni altro elemento che consenta di giungere a una predizione del rischio individuale, compresa in una scala fra basso e alto o addirittura in percentuale esatta.

I sistemi negli Stati Uniti per determinare il rischio di recidiva

Ma è negli Stati Uniti d’America, non a caso la culla dell’Intelligenza Artificiale, che l’impiego dei sistemi algoritmici ha trovato piena consacrazione legislativa. Si pensi ad alcuni ordinamenti, come quelli della Pennsylvania, del Kentucky, del New Jersey e del Wisconsin, che ammettono l’utilizzo di programmi di valutazione artificiale del rischio di recidiva per la determinazione della pena, come COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) o come il software SAVRY per la valutazione della concessione della libertà su cauzione.
Questi primi esempi di applicazione dei sistemi di AI mettono in risalto come prevalga l’esigenza di efficientare le prestazioni dei modelli di prevenzione e di repressione a discapito dei diritti fondamentali. Non si rinvengono, infatti, esempi in cui i sistemi algoritmici siano messi a disposizione di tutte le persone coinvolte nell’accertamento giurisdizionale per garantire una effettiva parità delle armi. Così come non sono noti i protocolli di profilassi per impedire che le prognosi sulle future condotte criminali siano indenni dal condizionamento di bias e dai pregiudizi politico-territoriali.

Solo il risultato punitivo

L’utilizzo fin qui sperimentato dei sistemi di Intelligenza Artificiale sembra essere proiettato al raggiungimento, attraverso la standardizzazione dei calcoli computazionali, del solo “risultato punitivo”, dimenticando che il processo dovrebbe essere un’operazione cognitiva complessa aperta a ogni alternativa, compresa quella del fallimento dell’accusa. Le esperienze finora maturate ci restituiscono l’immagine di un’Intelligenza Artificiale arcigna, impiegata come potente strumento di law enforcement, di polizia di prevenzione e, in definitiva, di controllo sociale. Unica eccezione sembra la notizia che, nel 2024, l’Ordine degli Avvocati (Barreau) di Parigi ha preso l’iniziativa di acquistare, per poi offrire gratuitamente agli iscritti, la licenza di un’Intelligenza Artificiale addestrata nel settore giuridico. Questa iniziativa rappresenta un passo concreto per consentire anche ai difensori, soprattutto a quelli meno abbienti, di affrontare le sfide di un cambiamento dei paradigmi tecnologici che investe direttamente anche la professione. Si tratta di un preciso e importante segnale in controtendenza, che vorrebbe garantire un’effettiva parità delle armi nel processo e, soprattutto, mettere l’AI al servizio dei diritti e non solo delle pretese securitarie.

Ludovica Tavassi

Autore