Nel corso degli ultimi anni, il fenomeno dell’Intelligenza Artificiale (IA) ha fatto ingresso – anzi, oserei dire irruzione – in numerosi settori del vivere quotidiano, da ultimo in quello giuridico, suscitando sentimenti spesso contrastanti. Un misto di speranza e diffidenza. Da un lato, l’IA potrebbe rendere più efficiente il sistema giustizia, permettendo una gestione più rapida e mirata dei procedimenti, attraverso l’automazione di compiti amministrativi. Dall’altro, il rischio di delegare la giustizia a un sistema automatizzato, senza un adeguato controllo umano, apre a scenari preoccupanti. In Italia, infatti, l’accostamento di IA e giustizia penale solleva numerosi interrogativi, così riassumibili: è davvero possibile applicare algoritmi e apprendimento automatico a un settore tanto sensibile senza comprometterne i princìpi di equità e giusto processo che lo governano?

Il quadro normativo europeo

Partiamo dal quadro normativo europeo, che ha iniziato a delineare i confini di questa delicata interazione. Il Regolamento sull’Intelligenza Artificiale (AI Act) dell’Unione europea del 13 marzo 2024, pur non affrontando nello specifico il tema della giustizia penale, ha stabilito linee guida cruciali per l’utilizzo dell’AI in vari settori, evidenziando i rischi associati all’uso di tecnologie automatizzate in un ambito così delicato. L’AI Act pone una serie di obblighi di trasparenza e responsabilità per le applicazioni di AI, soprattutto quando si tratta di decisioni che potrebbero influenzare i diritti fondamentali delle persone. La finalità è garantire che le tecnologie impiegate non solo rispettino i diritti umani, ma che siano anche comprensibili e controllabili. Sulla scia tracciata dal quadro normativo europeo, la scorsa settimana il Senato italiano ha approvato un disegno di legge sull’Intelligenza Artificiale, che passa ora all’esame della Camera dei deputati. Il testo, suddiviso in 26 articoli, attribuisce al Governo la delega per adottare, entro un anno, uno o più decreti legislativi finalizzati ad armonizzare la normativa nazionale con quella europea. L’art. 14 del DDL, però, precisa che l’algoritmo può essere usato esclusivamente per la ricerca giurisprudenziale, dottrinale, mentre restano in capo al magistrato l’interpretazione della legge, la valutazione dei fatti e delle prove e la finale adozione del provvedimento. L’AI Act e il DDL di delega al Governo forniscono una cornice normativa che, purtroppo, non risolve gran parte delle questioni etiche e pratiche sollevate dall’integrazione dell’IA nel settore giustizia, e in particolare in quello penale. Le voci di Magistratura Democratica (MD) e dell’UCPI sollecitano un approccio prudente e riflessivo, che preservi la giustizia da rischi di disumanizzazione e bias tecnologici. MD, uno dei gruppi della magistratura associata italiana, ha pubblicamente espresso preoccupazioni sul ruolo dell’AI nel sistema giudiziario, per le derive che potrebbe comportare. Pur riconoscendo il potenziale di innovazione di questa tecnologia, MD sottolinea i pericoli legati alla meccanicizzazione del processo decisionale: la giustizia non può ridursi a un calcolo algoritmico che non tiene conto della complessità dei singoli casi. La posizione dell’associazione mette in guardia dall’introduzione indiscriminata dell’AI nei procedimenti penali, evidenziando la necessità di proteggere l’autonomia del giudice, che non può essere sostituito da un sistema che manca della sensibilità e delle competenze, anche morali, proprie dell’essere umano.

La critica dell’Unione delle Camere Penali

Anche l’Unione delle Camere Penali Italiane, attraverso la sua Carta dei Valori, ha affrontato in maniera critica l’ingresso delle nuove tecnologie nel mondo della giustizia penale. Ci si è espressi con fermezza sulla necessità di tutelare i diritti fondamentali dell’uomo, ponendo l’accento sulla protezione della libertà personale e sul rispetto dei princìpi del giusto processo, “con i suoi corollari della presunzione di innocenza, del principio del contraddittorio, della possibilità di confutare le prove, dell’obbligo di motivazione della decisione, del principio in dubio pro reo, del controllo di legalità e di logicità della motivazione della sentenza”. L’associazione favorirà la conoscenza degli errori e delle distorsioni cognitive che possono emergere nel processo decisionale, promuovendo l’adozione di modelli e procedure idonei a mitigare l’incidenza di tali distorsioni, foriere di errori giudiziari. È evidente che il ruolo dell’Intelligenza Artificiale nella giustizia penale italiana è ancora in fase di definizione, e il dibattito su come bilanciare innovazione e tutela dei diritti fondamentali è più che mai aperto. La chiave per un uso responsabile dell’Intelligenza Artificiale nella giustizia penale italiana sembrerebbe risiedere nell’individuazione di un delicato equilibrio. Se da un lato l’AI può rivelarsi uno strumento utile per ottimizzare le risorse, ridurre i tempi processuali e migliorare l’efficienza del sistema giudiziario, dall’altro non possiamo ignorare le sue potenziali derive: la giustizia è umana, e tale deve rimanere.

Maria Vittoria Ambrosone

Autore

Avvocato penalista