Il ruolo centrale dell’etica nelle tecnologie artificiali

A visitor touches a humanoid robot hand on display at an AI exhibition booth during the 2024 The World Artificial Intelligence Conference (WAIC) & High-Level Meeting on Global AI Governance with the themed "Governing AI for Good and for All" at the Shanghai Expo Center Multifunction Hall in Shanghai China, Thursday, July 4, 2024. (AP Photo/Andy Wong)

L’incrocio tra intelligenza artificiale e organizzazioni aziendali e sociali rappresenta uno snodo decisivo, in cui la persona si trova immersa in meccanismi articolati che riguardano aspetti delicati della sua esistenza. Dalla governance algoritmica al controllo sul lavoro, emergono nuove frontiere in cui etica e diritto si confrontano con urgenze sempre più concrete.

Pensiamo ai sistemi di selezione automatizzata del personale, che incrociano domanda e offerta di lavoro. O ai software capaci di analizzare in tempo reale i dati dei dipendenti per prevederne prestazioni, comportamenti, persino fragilità. O ancora alle applicazioni nel campo della sicurezza: guanti e visori intelligenti, realtà aumentata e simulazioni nel metaverso che consentono di affrontare lavori complessi con un margine di rischio molto più basso. Tecnologie potenti, spesso utili, ma mai neutre.

Sin dagli esordi, l’Europa ha imboccato un percorso normativo, che intreccia l’etica d’impresa all’IA, distinto da quello più deregolato degli Stati Uniti. Già negli anni Novanta, nelle grandi multinazionali, si affermava il principio della responsabilità sociale d’impresa, con una nuova attenzione agli stakeholder. Oggi, quell’attenzione si rinnova e si approfondisce, dando vita a una sorta di alleanza tra intelligenza artificiale e codici etici. Capire a fondo questa relazione è fondamentale per sviluppare un approccio consapevole e responsabile, che sappia tenersi lontano tanto da esaltazioni acritiche quanto da rigidità e chiusure dettate dalla paura. Un esempio emblematico è quello di una città nordamericana che, basandosi su dati raccolti dagli smartphone (meno diffusi tra i cittadini afroamericani), ha ridisegnato la mobilità urbana finendo per discriminarli.

A fronte di queste storture, si delineano alcune principali strategie correttive. La prima è quella che potremmo definire “scientista”: smascherare i pregiudizi che l’IA tende a riprodurre. Ad esempio, associando il ruolo di manager agli uomini, quello di cameriere alle donne, quello di operaio agli afroamericani. Questo approccio punta a contrastare le discriminazioni dirette. Un’altra strategia, fatta propria dall’IA Act europeo del 2024, adotta una logica di gestione del rischio: nei settori più sensibili, come la sanità o le risorse umane, si richiedono controlli di conformità per garantire affidabilità, precisione e sicurezza. In questa cornice si collocano i codici etici, chiamati a integrare – in chiave sussidiaria – i principi dell’IA Act, a partire da quello fondamentale dell’antropocentrismo. È un principio che chiude il cerchio: da un lato, vieta che decisioni capaci di incidere sulla sfera giuridica della persona siano lasciate esclusivamente a un algoritmo; dall’altro, impone il principio di accountability, secondo cui ogni violazione normativa o etica deve sempre avere un responsabile. Umano, ovviamente.