Nelle ultime settimane si è tornati a discutere del disegno di legge italiano sull’Intelligenza Artificiale, approvato dal Senato e in discussione alla Camera. Un testo che si propone di “favorire uno sviluppo sicuro, trasparente e responsabile dell’IA”. Ma ciò che emerge, a uno sguardo anche solo minimamente informato, è l’ennesima risposta normativa a una trasformazione che si fatica ancora a comprendere.

Il vero cambiamento in corso non è l’IA in sé, è la rivoluzione del dato. Una trasformazione iniziata trent’anni fa, con la digitalizzazione dell’informazione, proseguita con la centralizzazione delle piattaforme e oggi culminata nella capacità computazionale di sintetizzare testi, immagini, previsioni, linguaggi. Intervenire su questi strumenti senza un disegno sul dato — su come si produce, si conserva, si scambia, si protegge e si valorizza — significa normare la superficie, ignorando le fondamenta. Fondamenta che includono l’architettura tecnica e legale del dato, ma anche il modo in cui gli algoritmi — sempre più sofisticati — lo trasformano in capacità predittiva. Il valore del dato non è statico: cresce nel tempo e con l’evoluzione degli strumenti che lo rendono interpretabile e attivabile.

Il ddl italiano è sintomatico. Moltiplica organismi e cabine di regia, introduce vincoli discutibili sulla gestione dei dati, invoca princìpi etici tanto generici quanto imprecisi. Il risultato è un impianto che non crea le condizioni per far emergere valore e innovazione, ma che costruisce un perimetro di interdizioni e sovrapposizioni. Le invocazioni etiche, in particolare, risultano tanto più fragili quanto più si pretendono universali. Sembrano spesso frutto di incompetenze profonde: più vicine a un esercizio retorico che a un confronto con le implicazioni tecniche e sociali. Di fatto, alimentano ambiguità che scoraggiano la sperimentazione, proprio dove servirebbero trasparenza e coraggio progettuale.

Anche l’Europa, pur più avanzata nella strutturazione normativa, non è esente da limiti. Il Regolamento IA, costruito attorno alla classificazione per livelli di rischio, appare razionale sulla carta, ma rischia di invecchiare in fase di applicazione. Le tecnologie evolvono troppo in fretta, i confini tra categorie sono sfumati, e molte definizioni operative restano vaghe. Il risultato è un impianto che può diventare più vincolante per chi innova dentro l’Europa che per chi la osserva da fuori.

Alla base c’è un equivoco: credere che si possa esercitare leadership normativa senza sovranità tecnologica. Che basti dettare regole per affermare autorevolezza, senza costruire modelli, infrastrutture, dataset, visione industriale e reti di competenza. Eppure, le competenze in Italia non mancano. Ricercatori, ingegneri, analisti, startup, centri di eccellenza: il tessuto esiste, ma resta frammentato. A prevalere è l’autoconservazione. Nel frattempo, il dibattito pubblico è spesso dominato da figure provenienti da ambiti teorici che trattano l’IA come una questione speculativa o filosofica. Si accusa la visione tecnica di essere riduttiva, dimenticando che chi lavora quotidianamente con questi sistemi sviluppa una consapevolezza concreta, fenomenologica, dei loro effetti e limiti. Il vero limite è altrove: nella pretesa di dettare legge su ciò che non si conosce. Si evocano scenari morali astratti senza sapere come si addestra un modello, come si misura un bias. Così, al posto di strumenti utili, si producono norme inefficaci, confuse, spesso dannose. Il tutto con nessuna accountability scientifica — facilmente verificabile, tra l’altro, con strumenti come Google Scholar o Scopus.

La posta in gioco non è scrivere una buona legge sull’IA. È definire una strategia nazionale sul dato. Serve una politica industriale sul dato, un’infrastruttura pubblica del sapere, e soprattutto costruire reti tra chi ha competenza. Chi conosce queste tecnologie non può più limitarsi a osservare.

Walter Quattrociocchi

Autore