Immaginatevi a casa, mentre preparate i bambini per portarli a scuola dopo aver fatto colazione tutti insieme, quando qualcuno bussa alla porta interrompendo la quiete domestica. Ad annunciare la propria presenza è la polizia, che vi arresta per un reato che non avete commesso, che non potete avere commesso. Il vostro alibi? All’epoca dei fatti vi trovavate da tutt’altra parte, con una moltitudine di testimoni pronti a scagionarvi, e per di più in questi mesi non siete stati fisicamente possibilitati a compiere il reato di cui vi accusano.
Ma non importa, perché ad accusarvi è una tecnologia presunta “infallibile“: il riconoscimento facciale gestito da una intelligenza artificiale. Sembra uno scenario da distopia futuristica, eppure è esattamente quello che è successo a Porcha Woodruff, una donna americana che si è trovata ad affrontare questa situazione, per di più mentre si trovava all’ottavo mese di gravidanza.
Un Arresto Ingiusto e Scioccante
Porcha Woodruff stava preparando le sue due figlie per la scuola quando sei agenti di polizia si sono presentati alla sua porta a Detroit. È stata invitata a uscire perché sotto arresto per rapina e furto d’auto. La Woodruff, incredula, ha indicato il suo pancione per far notare la propria incapacità a commettere un tale crimine.
Ma arrestata davanti casa sua un giovedì mattina di febbraio, lasciando le sue figlie piangenti con il fidanzato, la signora Woodruff è stata portata al Detroit Detention Center. Qui è stata trattenuta per 11 ore, interrogata su un crimine di cui affermava di non avere alcuna conoscenza, e il suo iPhone è stato confiscato per cercare prove.
Rilasciata quella sera stessa con una cauzione personale di $100.000, Woodruff ha dovuto immediatamente recarsi in ospedale dove è stata diagnosticata con una grave disidratazione. Un mese più tardi, il procuratore della contea di Wayne ha dimesso le accuse nei suoi confronti poiché totalmente innocente: si era trattato di uno “scambio di persona”, ma l’errore non era stato di un umano….
L’Errore dell’Intelligenza Artificiale
All’origine di questa vicenda inquietante c’è una ricerca automatizzata all’interno di una banca dati di visi, che utilizza l’intelligenza artificiale per il riconoscimento facciale dei sospetti, o per lo meno questo è ciò che mostra un rapporto d’indagine del Dipartimento di Polizia di Detroit. La signora Woodruff non è un caso isolato: è la sesta persona a riferire di essere stata falsamente accusata di un crimine a seguito dell’utilizzo della tecnologia di riconoscimento facciale della polizia per abbinare il volto di un criminale sconosciuto a una foto in un database. Tutte e sei le persone sono di colore; la signora Woodruff è la prima donna a segnalare tale episodio.
Il Dipartimento di Polizia di Detroit, che in media effettua 125 ricerche di riconoscimento facciale all’anno – prevalentemente su uomini di colore – è stato coinvolto per la terza volta in un caso del genere. I critici della tecnologia sostengono che questi casi ne evidenziano le debolezze e i pericoli che possono arrecare a persone innocenti.
Un’Accusa Inquietante
Il caso della signora Woodruff apre una importante riflessione sul ruolo della tecnologia e sui suoi limiti nella società moderna. Sebbene l’intelligenza artificiale stia rivoluzionando molti aspetti della nostra vita, l’errore commesso nel suo caso ci ricorda e ci deve ricordare che la tecnologia non è (ancora o forse mai) infallibile. La presunzione di infallibilità che sempre più spesso associamo ai verdetti di “una macchina” può avere conseguenze serie, soprattutto in ambito legale, dove l’errore può portare all’arresto ingiusto di persone innocenti.
Il caso della signora Woodruff non è soltanto un episodio isolato, ma rappresenta l’inizio di una discesa lungo un pendio scivoloso per la società: se la tecnologia di riconoscimento facciale continua a essere usata in maniera così sbrigativa e impulsiva, potrebbe avere ripercussioni sociali ed economiche rilevanti.
Per non parlare dell’impatto sulla vita delle persone coinvolte: la signora Woodruff ha riferito di essere stata stressata per il resto della sua gravidanza e di aver dovuto quindi affrontare la costante preoccupazione di essere nuovamente accusata ingiustamente. Le sue figlie sono rimaste traumatizzate, fino al punto di prendere in giro il loro fratellino neonato dicendo che era stato “in prigione prima ancora di nascere”.
E in Italia?
E se l’arresto ingiusto è nato negli Stati Uniti, ciò nonostante solleva importanti questioni sulla sicurezza e l’efficienza di tali sistemi anche nel contesto italiano. Anche in Italia, infatti, sono in uso sistemi di identificazione biometrica, come il SARI (Sistema Automatico di Riconoscimento Immagini), un sistema di riconoscimento facciale attualmente utilizzato dalla Polizia Scientifica italiana. Nonostante il potenziale beneficio di un utilizzo più veloce e preciso nel riconoscimento dei criminali, l’intero processo di sviluppo del SARI è stato segnato da una ben scarsa trasparenza e da una altrettanto scarso dibattito pubblico, mentre anche in Italia la strada è aperta per potenziali errori e abusi. Inoltre l’uso di tali sistemi solleva numerose questioni relative alla privacy, alla sicurezza e ai diritti umani, questioni che richiedono sicuramente uno scrutinio e un dibattito pubblico molto più estesi e una regolamentazione adeguata che tenga in conto ampi poteri per prevenire e punire abusi o errori.
Cosa Sarà del Futuro?
Di fronte a queste prospettive, non possiamo fare a meno di chiederci quale sarà il futuro della tecnologia di riconoscimento facciale. È facile finire a pensare a scenari distopici, ma sfortunatamente proprio le distopie raccontate in un paio di saggi tra cui “The Age of Surveillance Capitalism” di Shoshana Zuboff e “Weapons of Math Destruction” di Cathy O’Neil, vedono moltre delle loro preoccupazioni per l’uso indiscriminato di queste tecnologie e le implicazioni etiche di queste pratiche avverarsi con un ritmo inquietante.
Nonostante la promessa di un futuro in cui la criminalità può essere combattuta con l’aiuto dell’intelligenza artificiale, e nonostante la promessa della “giustizia algoritmica” imparziale e super-partes, i casi come quello della signora Woodruff ci ricordano che ci troviamo ancora in un territorio incerto, in cui le linee tra giustizia e ingiustizia possono essere facilmente offuscate dalla cieca fiducia nella tecnologia.
In tale contesto, la domanda che dobbiamo porci non è se l’intelligenza artificiale sarà parte del nostro futuro – sappiamo già che lo sarà facendo una parte da leone – ma quale forma questa prenderà.
Sarà uno strumento di giustizia o una minaccia per i diritti umani? E più importante ancora, come possiamo garantire che la risposta a questa domanda sia a favore della giustizia piuttosto che dell’ingiustizia?
