Oggi, l’acquisizione di consapevolezza da parte dell’essere umano si concentra sul dialogo tra due sfere: lo spirito e il virtuale. Fin dai suoi primordi fino all’era industriale, la tecnologia ha influenzato il nostro corpo e allo stesso tempo ci ha proiettato al di fuori di esso. Il corpo era indispensabile per far funzionare le macchine e queste, a loro volta, garantivano la nostra sopravvivenza fisica.

Come affermava McLuhan, le macchine erano una proiezione o un’estensione del nostro corpo nello spazio. Nella seconda era industriale, la tecnologia ha assunto una proiezione psicologica, con lo sviluppo dell’automazione e dei personal computer, che diventano una sorta di estensione della nostra psiche o del nostro sistema nervoso (McLuhan). In questa fase, la tecnologia non è più solo un mezzo di sopravvivenza, ma anche un mezzo esistenziale per creare nuova tecnica, che a sua volta genera ulteriori sviluppi tecnologici.

Questo circolo virtuoso ha portato all’era digitale, con l’avvento di internet, del virtuale e dell’intelligenza artificiale. In questa ultima era, l’essere umano, come un abile co-creatore, ha cercato e cerca di imitare il proprio spirito, un aspetto invisibile che ha effetti sul mondo visibile. Tuttavia, c’è il rischio che “il mondo visibile non sia più una realtà e che l’invisibile non sia più un sogno” (McLuhan).

Osserviamo quindi un virtuale che ha un impatto sul reale e delle macchine, che sono la nostra proiezione nella ricerca dello Spirito, che cercano di imitare la coscienza umana simulandola. Il futuro dell’umanità dipende quindi dalla relazione che abbiamo con il nostro spirito e, di conseguenza, con la tecnologia che abbiamo creato. Nutriamo sia ammirazione che paura nei confronti della tecnologia, ne abbiamo bisogno, ma vogliamo anche essere indipendenti da essa.

La tecnologia ci conferisce una nuova identità (digitale, l’ID utente), ma sembra toglierci quella reale. Oggi, il tema dominante è parlare di una tecnologia senza volto. Tuttavia, nel discorso sulla tecnologia post-moderna, è importante sottolineare che essa ha un volto, anzi, ha precisamente il volto più profondo dell’essere umano, la sua essenza. Con l’intelligenza artificiale, abbiamo cercato di imitare ciò che abbiamo di più profondo: lo Spirito e la nostra coscienza.

Solo prendendo consapevolezza di questo potremo vivere una relazione generativa con la tecnologia che abbiamo creato. La tecnologia, sebbene inizialmente avesse una funzione di sopravvivenza fisica, oggi ne ha sempre più una di specchio di noi stessi. Come direbbe Heidegger, essa rivela qualcosa di altro, non è solo uno strumento di sopravvivenza, ma anche un’opera d’arte, un mezzo di conoscenza esistenziale, un grido del limite che diventa creazione e relazione. La tecnologia può essere strumento per rivelare pienamente l’arte/tecnica.

Al contrario può degenerare nello sfruttamento, non della macchina sull’uomo, ma dell’uomo sull’uomo. In questo senso è centrale il limite che il diritto pone e porrà alle innovazioni tecnologiche. Non un limite costrittivo, ma generativo. Ciò che va tutelato non è l’intelligenza artificiale ma la stupidità umana. Paradossalmente il rischio deriva sempre da noi, essendo noi a creare gli algoritmi su cui le macchine AI si basano. Tutelando la nostra imperfezione, e non volendola eliminare, possiamo creare qualcosa di bello e positivo. In questo senso si è mossa l’Unione Europea.

Il Parlamento europeo il 14 giugno ha approvato a larga maggioranza l’Artificial Intelligence Act, il testo proposto dalla Commissione. L’approvazione definitiva dall’Unione Europea è prevista per fine anno e il regolamento dovrebbe entrare in vigore già nel 2024. L’intelligenza artificiale ha avuto ufficialmente in Europa una suo progetto di regolamentazione. Ad oggi rimane il prima ed unico a livello mondiale.

Questo atto rappresenta un importante passo avanti nella definizione di un quadro normativo per l’AI, affrontando le sfide e le preoccupazioni legate a questa tecnologia emergente. L’obiettivo principale dell’Artificial Intelligence Act è garantire che l’uso dell’AI all’interno dell’UE sia sicuro, etico e rispettoso dei diritti umani. L’atto definisce tre categorie di sistemi di AI: i sistemi di AI inaccettabili, i sistemi di AI ad alto rischio e i sistemi di AI a rischio limitato. I sistemi di AI inaccettabili, come quelli utilizzati per manipolare il comportamento umano o per creare armi letali autonome, sono vietati nell’UE. Quelli ad alto rischio, come quelli utilizzati nella sorveglianza di massa o nella gestione dei servizi di emergenza, sono soggetti a requisiti più rigorosi, come la certificazione e la supervisione indipendente. Infine quelli a rischio limitato, come quelli utilizzati nelle app chatbot, sono soggetti a requisiti meno stringenti.

Una delle disposizioni chiave dell’Artificial Intelligence Act riguarda la trasparenza e la responsabilità degli algoritmi utilizzati nell’AI. Le organizzazioni che sviluppano e utilizzano sistemi di AI dovranno fornire informazioni chiare e comprensibili sul funzionamento degli algoritmi, in modo che le decisioni prese da questi sistemi siano comprensibili e giustificabili. Inoltre, le organizzazioni dovranno essere in grado di dimostrare che i loro sistemi di AI sono conformi alle norme e ai principi stabiliti nell’atto.

Un’altra disposizione chiave riguarda la protezione dei dati personali. L’Artificial Intelligence Act richiede che i dati utilizzati nei sistemi di AI siano trattati in conformità con il Regolamento generale sulla protezione dei dati (GDPR) dell’UE. Ciò significa che le organizzazioni dovranno garantire la privacy e la sicurezza dei dati personali utilizzati nei loro sistemi di AI e ottenere il consenso degli individui interessati quando necessario.

In conclusione, l’Artificial Intelligence Act dell’UE rappresenta un importante passo avanti nella regolamentazione dell’uso dell’AI nell’UE. Questo atto mira a garantire che l’AI sia utilizzata rispettando requisiti chiari per i diversi tipi di sistemi di AI. Sebbene possa rappresentare una sfida per le organizzazioni pubbliche e i private, l’Artificial Intelligence Act potrebbe essere fondamentale per garantire che l’AI sia un’opportunità positiva per l’UE e per i suoi cittadini. Affrontando preoccupazioni chiave come la trasparenza, la responsabilità e il controllo umano, l’Atto mira a trovare un equilibrio tra lo sfruttamento del potenziale dell’IA e la salvaguardia dei diritti e dei valori fondamentali. Mentre l’AI continua a plasmare la nostra società, questa legislazione potrebbe stabilire un precedente per uno sviluppo responsabile ed etico dell’AI, fungendo da modello per altre regioni e paesi da seguire (vedasi lo sviluppo di un accordo per un codice di condotta sull’AI tra UE e Stati Uniti). Riuscirà, tuttavia, a tutelare la nostra stupidità naturale, la nostra imperfezione di esseri tecno-umani?

Contatti:
Instagram: Valerio_Pellegrini123
E-mail: Valerio.pellegrini5@gmail.com

Avatar photo

Docente universitario, romano, classe 1984. È laureato in Giurisprudenza ed è dottore di ricerca in filosofia del diritto, politica e morale. Ha lavorato per l’UE e per lo European Patent Office. Attualmente svolge attività di consulenza come Policy Officer per le policies europee. Appassionato di filosofia, cerca, nei suoi scritti, di ridare un respiro esistenziale alla quotidianità e alle sfide politiche