C’è una contraddizione silenziosa nel rapporto tra Europa e Intelligenza Artificiale generativa. Da un lato, la tecnologia si presenta con un volto familiare: si scrive una domanda, si riceve una risposta fluida e convincente. Dall’altro, la stiamo integrando in ambiti dove l’errore non è un semplice inconveniente tecnico, ma un costo che ricade su persone reali: sanità, giustizia, educazione, amministrazione pubblica.
L’immagine è semplice: un veicolo sempre più potente guidato senza patente. Non perché la guida sia facile, ma perché l’interfaccia è progettata per sembrare tale. La fluidità linguistica diventa sinonimo di affidabilità.
Come ricordava Daniel J. Boorstin, “il più grande nemico della conoscenza non è l’ignoranza, ma l’illusione della conoscenza”. L’AI generativa non è un archivio ordinato né un motore di ricerca evoluto. È un sistema probabilistico che produce testi plausibili sulla base di correlazioni statistiche. Non distingue il vero dal falso come farebbe un essere umano. Non verifica. Non possiede intenzionalità. E proprio per questo può sbagliare in modo convincente, generando errori vestiti di coerenza.
Nel dibattito pubblico questa differenza si dissolve dentro una narrazione efficientista: l’AI come leva competitiva, come scorciatoia produttiva. Effetti reali, certo. Ma la discussione raramente si concentra sulla competenza necessaria per utilizzarla in contesti ad alta responsabilità.
Il prompting non è una micro-abilità tecnica. È la nuova grammatica dell’interazione uomo-macchina: definire obiettivi chiari, formulare richieste verificabili, distinguere sintesi plausibile da affermazione documentata, prevedere un controllo umano effettivo. Senza questa alfabetizzazione critica, il rischio non è l’errore episodico. È la superficialità sistemica.
“La responsabilità è il prezzo della grandezza”, ammoniva Churchill. Il punto diventa delicato quando l’AI entra nei processi decisionali sottodeterminati, quelli in cui le informazioni sono incomplete e i valori in conflitto. Il medico decide nel dubbio. L’insegnante forma giudizio critico. L’avvocato interpreta diritti che producono effetti concreti. Quando questi ruoli integrano strumenti generativi senza formazione strutturata, la responsabilità resta formalmente umana ma viene mediata da sistemi opachi che rischiano di trasformarsi in autorità implicite.
Qui emerge la dimensione politica. Si parla di regolazione e sovranità tecnologica, ma manca una progettazione sistemica dell’alfabetizzazione professionale. Non come iniziativa del singolo curioso, ma come requisito ordinario e misurabile. Il rischio non è una macchina fuori controllo. È una società che delega senza comprendere, appoggiando decisioni rilevanti su output percepiti come neutrali, quando neutrali non sono.
Ogni sistema di AI incorpora scelte: dati, priorità, filtri. Non è oggettivo. È un prodotto umano. Senza competenze adeguate, l’innovazione diventa dipendenza.
Non si tratta di frenare lo sviluppo, ma di governarlo. Università, ordini professionali, pubbliche amministrazioni dovrebbero integrare percorsi strutturati di alfabetizzazione algoritmica, definire casi d’uso, responsabilità non delegabili, verifiche proporzionate al rischio.
L’AI non è il problema. La distanza tra velocità di adozione e costruzione delle competenze lo è. Prima della delega serve competenza. Prima dell’entusiasmo serve cultura. Altrimenti continueremo a innovare in superficie, accumulando una fragilità che non esploderà come problema tecnico, ma come questione democratica.
Guidare senza patente può sembrare possibile finché la strada è dritta. Ma nelle curve della sanità, dell’educazione e dei diritti, l’improvvisazione non è un’opzione.
