L’intelligenza artificiale entra sempre più spesso negli ospedali: suggerisce diagnosi, propone terapie, supporta le decisioni dei medici. Ma dietro le sue raccomandazioni si nasconde una domanda fondamentale: quali valori sta seguendo? Immaginiamo un paziente di 60 anni con mal di schiena. Un sistema di IA può consigliare una risonanza magnetica, scelta prudente che esclude patologie rare ma aumenta i costi. Un altro può suggerire fisioterapia e attesa, puntando a contenere la spesa. Nessuna delle due indicazioni è necessariamente sbagliata. Tuttavia, riflettono priorità diverse: massimizzare i ricavi, ridurre i costi, evitare rischi, rispettare le preferenze del paziente. Oggi, però, né medici né pazienti sanno quali criteri orientino davvero questi sistemi. Le schede tecniche spiegano come funzionano dal punto di vista informatico, ma non rendono espliciti i valori che guidano le scelte cliniche. E questo è un problema.
Affidarsi semplicemente a grandi quantità di dati sanitari non basta. Le cartelle cliniche elettroniche riflettono abitudini, vincoli organizzativi e incentivi economici. Addestrare l’IA su questi dati rischia di consolidare distorsioni già presenti, anziché superarle. Proprio per questo, sulla prestigiosa rivista inglese “The New England Journal of Medicine” un gruppo internazionale di esperti ha proposto di introdurre una sorta di “etichetta dei valori” per ogni sistema di IA clinica: un modello chiamato “Values In the Model” (VIM). Come un’etichetta nutrizionale, dovrebbe indicare chiaramente come l’algoritmo si comporta di fronte a scelte delicate: tende a sovradiagnosticare? È particolarmente attento ai costi? Privilegia sempre l’autonomia del paziente?
L’obiettivo non è stabilire quali valori siano giusti in assoluto. In medicina, spesso non esiste un’unica risposta corretta. Si tratta piuttosto di rendere trasparenti le priorità incorporate nei sistemi, così che ospedali, autorità e cittadini possano scegliere consapevolmente.
La sfida ora è capire chi debba definire e controllare queste etichette. Nessuna istituzione, al momento, sembra avere insieme competenze tecniche, cliniche ed etiche sufficienti. Ma una cosa è chiara: senza trasparenza, l’intelligenza artificiale rischia di rafforzare silenziosamente le priorità di chi la sviluppa o la finanzia. Con regole chiare, può invece diventare uno strumento al servizio di una medicina che resta, prima di tutto, una pratica umana.
