Le nuove tecnologie hanno un potere enorme, ma c’è il rischio di ingigantire diseguaglianze

Un secondo ambito riguarda la riflessione sugli effetti che le nuove tecnologie nel loro complesso esercitano sull’ethos condiviso. Non è sufficiente quindi prescrivere una maggiore educazione per un uso corretto degli strumenti disponibili, proprio perché abbiamo visto che sono molto più che strumenti: essi plasmano il mondo e le coscienze. Occorre assumere responsabilmente questo tema, che riguarda l’educazione umana alle qualità non tecniche della coscienza e l’amore per il bene della comunità anche quando non se ne ricava un vantaggio. Esiste, dunque, una questione politica relativa al potere di legittimazione comunitaria dell’ethos dell’“IA” che non va confuso con il potere di distribuzione dei suoi vantaggi individuali e astrattamente funzionali. In altri termini: non basta semplicemente ragionare sulla sensibilità morale di chi fa ricerca e progetta dispositivi e algoritmi, e affidarci a essa; occorre invece lavorare per creare corpi sociali intermedi che assicurano rappresentanza alla sensibilità etica degli utilizzatori, in tutte le fasi del processo. Si tratta infatti di evitare, al tempo stesso, di assegnare un ruolo dogmatico e dirigistico da una parte alla gestione politica e dall’altra al liberismo tecnocratico. Rimane aperta naturalmente la ricerca di come realizzare questi obiettivi (su cui dirò qualcosa tra poco a proposito di quanto la PAV, la Pontificia Accademia per la Vita, ha avviato). Non è saggio quindi lasciarsi sedurre dallo svolgimento più preciso o più efficiente o meno costoso di alcuni compiti, concentrandosi sulla singola prestazione senza mettere bene a fuoco gli effetti complessivi che si producono. Algocrazia e algoretica Quindi, come nel momento analitico occorre favorire uno sguardo ampio, così sul piano etico non è sufficiente circoscrivere l’attenzione al controllo dei singoli dispositivi, collegandolo in modo astratto e generico al rispetto dei diritti soggettivi, della dignità e di quei principi che la dottrina sociale della Chiesa ci mette molto opportunamente a disposizione. Certamente dignità, giustizia, sussidiarietà, solidarietà sono punti di riferimento irrinunciabili, ma la complessità del mondo tecnologico contemporaneo ci chiede di elaborarne una interpretazione che possa renderli effettivamente incisivi. Il nuovo livello dell’intermediazione tecnologica cosiddetta “intelligente” taglia fuori la valutazione del singolo circa la dignità del suo uso. E appare ormai chiaro che “l’umano” è condizionato in modo tale da “assecondare” il dispositivo AI, molto più del contrario: è il dispositivo stesso a plasmare l’utente come “degno” e “libero” di farne uso. Si mantiene così un circuito che, con lo scopo di condizionare e dirigere i comportamenti, trae vantaggio proprio dall’inconsapevole assoggettamento dell’utente che lo alimenta, che diventa succube di una vera e propria “algocrazia” (è il dominio dell’algoritmo). Il compito che si profila, perciò, è di individuare un modello di monitoraggio inter-disciplinare per la ricerca condivisa di un’etica a proposito dell’intero percorso in cui intervengono le diverse competenze nell’elaborazione degli apparati tecnologici (ricerca, progettazione, produzione, distribuzione, utilizzo individuale e collettivo). È una mediazione indispensabile, vista la capacità della strumentazione AI di determinare vere e proprie forme di controllo e orientamento delle abitudini mentali e relazionali, e non solo di potenziamento delle funzioni cognitive e operative. Si tratta di elaborare un modello condiviso che consenta di esaminare dai diversi punti di vista le ricadute prevedibili dei singoli momenti del percorso. Una Call su IA e aspetti etici, educatici e giuridici È in questa linea che la PAV ha raccolto la sollecitazione di alcuni importanti operatori nel campo delle tecnologie digitali (Microsoft e IBM) per approfondire la comprensione delle trasformazioni in atto e per poter assumere le corrispondenti responsabilità. Stiamo elaborando una Call for Ethics che conduca a una valutazione critica degli effetti di queste tecnologie, dei rischi che comportano, di possibili vie di regolamentazione, anche sul piano educativo. Si tratta di esaminare tutto il percorso di elaborazione, che parte dalla ricerca e dalla progettazione, fino all’uso che ne possono fare le istituzioni o singoli utenti. Il rischio è che con lo sviluppo di IA, l’accesso e l’elaborazione diventino selettivamente riservate alle grandi holding economiche, ai sistemi di pubblica sicurezza, agli attori della governance politica. In altri termini, è in gioco l’equità nella ricerca di informazioni o nel mantenere i contatti con gli altri, se la sofisticazione dei servizi sarà automaticamente sottratta a chi non appartiene a gruppi privilegiati o non dispone di particolari competenze. Considerando poi l’intera famiglia umana, dobbiamo chiederci come possono essere rispettate le differenze. Occorre evitare che l’IA ne tenga conto solo in funzione dell’affinamento dei suoi dispositivi regolativi, ma insistere perché sia garantito lo spazio di intervento perché il soggetto comunitario possa determinare gli effetti collettivi di un’automazione sofisticata e auto-gestita dei prodotti, delle funzioni, dei servizi. Certo “di diritto” è giusto proclamare l’uguaglianza, la razionalità, la coscienza, la libertà, come dimensioni paritetiche e universali della dignità e della legalità, che riguardano ogni singolo senza distinzioni. “Di fatto”, però, le diversità non sono accessori dell’umano, sono pur sempre componenti della sua esistenza reale.