L’Intelligenza Artificiale è sempre più presente negli ospedali e negli ambulatori, dove supporta medici e infermieri nelle decisioni cliniche. Ma c’è un punto su cui esperti e istituzioni concordano: l’IA non può – e non deve – agire da sola. Serve sempre un “human-in-the-loop”, un essere umano nel processo decisionale. Il problema è che questa formula, spesso ripetuta, è raramente spiegata davvero. Non si tratta di una semplice firma finale del medico su una diagnosi suggerita da un algoritmo. La supervisione umana, in sanità, è un sistema articolato che coinvolge ruoli clinici, responsabilità di governance e monitoraggio continuo. Secondo uno studio pubblicato dalla prestigiosa rivista “The New England Journal of Medicine”, l’“human-in-the-loop” si sviluppa su tre livelli.

Il primo è quello clinico, al letto del paziente: il medico valuta, interpreta e può correggere le raccomandazioni fornite dall’IA. I modelli, infatti, funzionano bene nei casi “standard”, ma possono andare in difficoltà di fronte a situazioni ambigue o fuori dagli schemi. Qui l’esperienza umana resta decisiva. Il secondo livello riguarda la governance: prima di adottare un sistema di IA, esperti e autorità devono valutarne l’affidabilità, la sicurezza e l’adeguatezza al contesto in cui verrà utilizzato. Non tutti gli ospedali hanno le stesse risorse tecnologiche, né gli stessi flussi di lavoro. Il terzo livello è quello dell’apprendimento continuo. Un algoritmo non è statico: deve essere monitorato, aggiornato e controllato nel tempo per evitare errori, distorsioni e cali di performance. Ed è qui che entrano in gioco contesto, cultura e organizzazione dei sistemi sanitari. Un software sviluppato negli Stati Uniti può presupporre infrastrutture digitali avanzate, determinati modelli di rimborso o specifici protocolli clinici. Ma ciò che funziona in un grande ospedale urbano potrebbe non adattarsi a una clinica rurale o a un sistema sanitario pubblico europeo.

Anche la cultura conta. Il modo in cui le persone vivono la malattia, si fidano della tecnologia o prendono decisioni terapeutiche varia da Paese a Paese. Un algoritmo non coglie automaticamente valori sociali, sensibilità etiche o dinamiche relazionali tra medico e paziente. Senza questa attenzione al contesto, l’IA rischia di diventare, come osservano alcuni studiosi, “un modo per indovinare con sicurezza”. Con il coinvolgimento umano, invece, può aumentare la sicurezza dei pazienti, ridurre i pregiudizi presenti nei dati – legati a genere, etnia o condizione socio-economica – e rafforzare la fiducia nel sistema. La supervisione umana, dunque, non è un accessorio. È una scelta di progettazione. E per funzionare davvero deve essere adattata ai valori, alle regole e alle strutture di ogni sistema sanitario. Solo così l’Intelligenza Artificiale potrà essere uno strumento al servizio delle persone, e non un automatismo calato dall’alto.