Per lungo tempo abbiamo pensato alla libertà come a una questione di diritti, di possibilità e di accesso, qualcosa che si misura in termini di ciò che siamo formalmente autorizzati a fare; eppure esiste una dimensione più sottile, spesso trascurata, che non riguarda ciò che possiamo fare, ma ciò che riusciamo effettivamente a fare. È una differenza minima solo in apparenza, ma decisiva nella vita reale, perché tra il poter scegliere e il riuscire davvero a iniziare si apre uno spazio che può risultare, per molte persone e in molte circostanze, del tutto invalicabile.

Negli studi neurologici raccontati da Oliver Sacks, la somministrazione di dopamina produceva effetti che sfidavano ogni aspettativa: pazienti immobili da anni, bloccati in una quiete che sembrava definitiva, tornavano improvvisamente all’azione, non perché acquisissero nuove capacità, ma perché una molecola riattivava qualcosa che era già lì, sospeso e inaccessibile come un libro chiuso a chiave in una biblioteca altrimenti aperta. Non si trattava di recuperare una funzione perduta, ma di riattivare una possibilità che il contesto aveva reso irraggiungibile.

Oggi, in un contesto completamente diverso, questa stessa dinamica torna a interrogarci, non più sul piano neurochimico, ma su quello cognitivo e sociale. Sempre più persone sperimentano una distanza crescente tra intenzione e azione: sanno cosa dovrebbero fare, conoscono i passi necessari, dispongono delle competenze richieste, ma non riescono a iniziare. Non è una questione di conoscenza, né di volontà in senso tradizionale, ma qualcosa di più profondo e più difficile da nominare, quella difficoltà nell’attivazione che Amleto incarna con straordinaria precisione letteraria, capace di vedere con chiarezza cosa va fatto e paralizzato, ciononostante, prima del primo gesto.

È qui che l’intelligenza artificiale introduce una novità inattesa, e lo fa non tanto perché automatizza compiti o produce contenuti, ma perché può intervenire nel punto più fragile del comportamento umano: il passaggio tra il pensiero e l’azione. Quando chiediamo a un sistema di AI di “dividere un problema“, di “suggerire un primo passo” o di “aiutarci a partire”, stiamo facendo qualcosa di profondamente diverso dal cercare una risposta; stiamo cercando un innesco, quel filo di Arianna che non sconfigge il Minotauro al posto nostro, ma ci indica dove mettere il piede nel buio del labirinto.

Questa funzione, apparentemente tecnica, ha implicazioni che investono direttamente il concetto di libertà. Se l’azione dipende sempre più dal contesto e dagli strumenti che utilizziamo, allora la libertà non è più soltanto una condizione formale, ma diventa una questione di architettura cognitiva: non basta poter fare qualcosa, occorre essere messi nelle condizioni di farlo e chi progetta quegli strumenti sta, in un senso molto concreto, progettando anche i confini dell’agire possibile.

In questo senso, l’intelligenza artificiale può essere interpretata come una nuova infrastruttura della libertà, non nel senso retorico di una tecnologia emancipativa per definizione, ma come uno strumento la cui natura è radicalmente ambivalente. Se progettata come sistema di ottimizzazione, rischia di trasformarsi in un dispositivo di controllo che orienta il comportamento senza renderlo consapevole, un Golem moderno che lavora al posto nostro svuotando progressivamente la nostra capacità di iniziativa; se invece viene pensata come supporto all’attivazione, può contribuire a rafforzare l’autonomia, aiutando le persone a superare blocchi, inerzie e sovraccarichi cognitivi senza sostituire il loro giudizio.

Qui si apre un tema cruciale per il dibattito contemporaneo, spesso dominato da una contrapposizione semplificata tra tecnologie “buone” e tecnologie “cattive”, che finisce per oscurare la domanda davvero rilevante: quale modello di relazione tra individuo e tecnologia vogliamo costruire? Una relazione di sostituzione, in cui la macchina fa e l’uomo osserva, o una relazione di attivazione, in cui la macchina innesca e l’uomo agisce? In questo scenario diventa utile anche riconsiderare il rapporto tra le discipline STEM e ciò che potremmo chiamare, con un acronimo meno diffuso ma altrettanto significativo, SCALE: Social sciences, Communication, Arts, Law, Economics; se le prime ci aiutano a costruire le tecnologie, le seconde sono indispensabili per comprendere come queste tecnologie trasformano i comportamenti, le relazioni e, in ultima analisi, le possibilità di azione degli individui.

L’architettura dell’innesco, in questo senso, non è solo un modello tecnico, ma una chiave di lettura culturale che ci invita a spostare l’attenzione dal “cosa sappiamo fare” al “quando e come riusciamo a farlo”, con implicazioni dirette per la scuola, per il lavoro e per le politiche pubbliche. In ambito educativo, continuiamo a concentrarci sulla trasmissione dei contenuti dando per scontato che la comprensione si traduca automaticamente in azione, ma non è così: molti studenti non falliscono perché non capiscono, ma perché non riescono a iniziare, e integrare strumenti che supportino l’attivazione significa ripensare profondamente il modello didattico, costruendo ambienti che non si limitino a trasmettere sapere, ma che rendano quel sapere accessibile all’azione.

Nel mondo del lavoro, in un contesto caratterizzato da complessità crescente e frammentazione dell’attenzione, la questione si pone con ancora maggiore urgenza, perché la capacità di attivarsi rapidamente diventa un fattore critico e l’AI può giocare, anche qui, un ruolo profondamente ambivalente: aumentare la pressione o ridurre l’attrito, generare dipendenza o sostenere autonomia, a seconda di come viene progettata e di quale intenzione ne guida lo sviluppo.

La vera sfida, dunque, non è tecnologica, ma progettuale: si tratta di decidere se vogliamo utilizzare l’intelligenza artificiale per fare di più o per rendere possibile fare meglio, una differenza sottile nell’enunciazione, ma fondamentale nelle conseguenze. La dopamina agiva dall’interno, riattivando il cervello con la precisione di una scintilla che trova la polvere giusta; l’algoritmo agisce dall’esterno, modificando il contesto in cui l’azione deve avvenire. In mezzo c’è lo spazio della libertà contemporanea: non solo poter scegliere, ma poter davvero iniziare.

Prof. Carlo Maria Medaglia, Delegato del Rettore per la Terza Missione, l’Innovazione Didattica e l’Intelligenza Artificiale dell’Università degli Studi Telematica IUL