L’intelligenza artificiale (IA) sta rivoluzionando la medicina in settori come radiologia, embriologia e terapia intensiva, con applicazioni che vanno dalla diagnosi precoce alla previsione di eventi clinici critici. Tuttavia, se molta attenzione è stata dedicata ai rischi legati all’uso dell’IA sui dati dei pazienti – come privacy, bias, trasparenza e responsabilità – meno si è discusso dell’impatto dell’IA quando questa viene applicata ai dati dei medici stessi. La questione viene affrontata in un recente articolo della prestigiosa rivista inglese “The New England Journal of Medicine”.

L’uso dell’IA per monitorare la pratica clinica promette vantaggi: miglioramento della qualità dell’assistenza, maggiore trasparenza e supporto nei processi decisionali. Ma c’è un rovescio della medaglia. Strumenti nati per alleggerire il lavoro clinico rischiano di trasformare i medici in “lavoratori quantificati”, soggetti a un controllo continuo e automatizzato che riduce l’autonomia professionale. Come già accaduto in altri settori, dalla logistica alla finanza, anche in ambito sanitario l’IA può diventare un “gestore meccanico”, capace di tracciare attività, comportamenti e performance.

Un esempio significativo è l’impiego di sistemi di dettatura ambientale che trascrivono le conversazioni tra medico e paziente. Questi strumenti, pur offrendo vantaggi in termini di accuratezza della documentazione, possono anche analizzare tono, linguaggio e contenuto, monitorando la coerenza con le linee guida cliniche o individuando “anomalie” nei tempi di visita. Il rischio? Valutazioni punitive per chi dedica più tempo al colloquio clinico rispetto agli standard aziendali. Anche i portali elettronici, sempre più usati dai pazienti per comunicare con i medici, sono potenzialmente soggetti a sorveglianza. Sistemi di IA possono analizzare risposte, tono e tempestività, confrontando il comportamento dei medici con modelli ideali di empatia o efficacia comunicativa. Alcuni studi segnalano che le risposte generate dall’IA risultano persino più empatiche di quelle dei medici, aprendo la strada a un modello in cui la remunerazione è legata all’aderenza a parametri definiti da algoritmi, e non necessariamente alla qualità della cura.

In definitiva, mentre l’IA può essere una risorsa per migliorare l’efficienza e la qualità dell’assistenza, va evitato un uso distorto che trasformi il medico in un operatore sorvegliato e misurato, privato della libertà di giudizio. È fondamentale che i professionisti della salute partecipino attivamente alla definizione delle regole d’uso di queste tecnologie, per garantire che il progresso digitale non sacrifichi l’umanità della cura.