Yuval Noah Harari, brillante analista dei nostri tempi con cui non sempre mi trovo d’accordo, afferma nel suo ultimo libro (21 Lezioni per il 21° secolo) che la nascita delle democrazie liberali è associata con ideali di libertà e uguaglianza che possono apparire autoevidenti ed irreversibili. Ma questi ideali sono molto più fragili di quel che crediamo.

E’ proprio così, ed oggi che le democrazie liberali sono in una fase di profonda transizione, schiacciate dallo scontro fra presunte elites e masse e dalla difficoltà di trovare soluzioni a problemi sempre più complessi, sentiamo più forte la “reversibilità” di questi ideali.

Questo in parte avviene, ed è anche effetto, del più straordinario sviluppo tecnologico mai conosciuto nella storia umana, quello digitale. Le nuove tecnologie, accolte trionfalmente come strumenti di maggiore azione democratica, partecipazione e pluralismo, hanno sicuramente prodotto tutto questo, ma negli ultimi anni hanno mostrato anche un lato oscuro, capace di grandi distorsioni, erosione della realtà, utilizzo dei dati personali a scopo manipolatorio.

Se pensiamo all’utilizzo dell’intelligenza artificiale, dobbiamo prendere atto che ormai pervade ogni aspetto delle nostre vite, ma ci è impossibile sapere quanto e come stravolgerà le nostre vite e il nostro stesso modo di pensarci umani. Governi e istituzioni democratiche faticano a comprendere gli effetti che l’intelligenza artificiale determinerà sulla politica. Ma il caso Cambridge Analytica parla chiaro. E’ perciò nostro compito di policymakers chiederci quali questioni etiche e persino ontologiche dobbiamo affrontare. E come affrontarle.

Dobbiamo chiederci ad esempio se si stia o non si stia verificando una deresponsabilizzazione delle persone e delle strutture sociali. Deleghiamo ad algoritmi – che ci conoscono nel dettaglio attraverso i nostri dati personali – molte nostre decisioni di tutti i giorni. Anzi, consentiamo a questi algoritmi di addirittura anticiparle. Pensiamo a Google Maps, e al modo in cui ci facciamo dirigere nei nostri quotidiani spostamenti. O ai veicoli presto sul mercato e guidati appunto da algoritmi. A loro delegheremo la scelta se, per evitare un pedone, sia meglio andare a sbattere contro un muro. Dunque una macchina progettata da un uomo prende decisioni migliori di un uomo? Oramai abbiamo il terrore dell’errore, e pur di evitarlo ci affidiamo a scelte algoritmiche, rinunciando al nostro libero arbitrio. E invece l’errore è il modo che ha la vita per dirci che dobbiamo capire qualcosa.

E poi si prendono decisioni se si ha un fine, e quali fini può avere una macchina, e determinati da cosa? L’intelligenza artificiale oggi è già in grado di decidere i miei migliori investimenti finanziari, di valutare il rendimento scolastico dei miei figli, o chi sposare o di prevedere se compirò un crimine. E non è in grado anche di decidere cosa voterò alle prossime elezioni?

Altra domanda che dovremmo porci: le aziende high-tech che costruiscono questi algoritmi, che vincoli hanno? Spesso devono solo seguire alcune condotte di autodisciplina. E’ giusto o dovrebbero essere regolate in maniera più strutturata? E ancora: è giusto che algoritmi privati svolgano funzioni pubbliche?

Per rispondere a queste domande è essenziale che ci sia una discussione inclusiva, critica e aperta da parte certo dei singoli governi ma soprattutto delle istituzioni sopranazionali. Lo scopo è massimizzare i benefici e ridurre i rischi per la società di questa progressione tecnologica.

L’Italia ad esempio, nel contesto dell’Agenda Digitale Europea, ha sviluppato una strategia nazionale attraverso un piano triennale per la tecnologia dell’informazione. E’ stato anche realizzato un “white paper” con lo scopo di analizzare l’impatto dell’intelligenza artificiale nella società e in particolare nella Pubblica Amministrazione, allo scopo di promuovere la trasformazione digitale. E’ un primo importante passo.

Ma sono le istituzioni sovranazionali, come ad esempio il Consiglio d’Europa di Strasburgo, che possono davvero fare la differenza. Si tratta di organizzazioni che da tempo lavorano su schemi di forte cooperazione fra gli Stati membri e hanno creato un unico spazio legale comune pan-europeo che permette alle loro iniziative a tutela dei diritti umani di avere davvero una portata globale.

In questo senso l’assemblea parlamentare del Consiglio d’Europa ha preso un ruolo molto attivo. Nel 2017 ha approvato una risoluzione sulla convergenza tecnologica, l’intelligenza artificiale e i diritti umani. Poi ha creato una sottocommissione sull’intelligenza artificiale e i diritti umani all’interno della Commissione Affari Giuridici. Infine, nell’aprile scorso la Commissione Affari Politici ha approvato una mozione sulla necessità di una governance democratica dell’intelligenza artificiale. Lo scopo di questo rapporto è di analizzare l’impatto dell’intelligenza artificiale sui processi democratici e soprattutto rispondere all’esigenza di costruire una cornice regolatori nazionale ed internazionale per evitarne usi distorsivi nei processi democratici.