di
Ruggiero Corcella
Algoritmi che leggono radiografie, compilano cartelle e suggeriscono terapie: l’AI entra negli ospedali. Ma serve trasparenza. Dalla bioetica alla privacy, fino alla responsabilità in caso di errore: informare il malato non è un optional ma una nuova frontiera del consenso informato. Gli esperti: «La fiducia si costruisce solo dicendo chiaramente come funziona».
È ormai entrata, più o meno silenziosamente, nelle corsie, negli ambulatori e perfino negli studi dei medici di famiglia. L’intelligenza artificiale (Ai) aiuta a leggere radiografie, suggerisce diagnosi, compie studi scientifici, compila cartelle cliniche mentre il medico parla col paziente. In alcuni casi, individua anomalie che persino l’occhio più esperto potrebbe non cogliere.
Ma c’è una domanda che inquieta sempre di più: il paziente deve saperlo? Se il referto che riceviamo è stato elaborato con l’aiuto di un algoritmo, non dovremmo essere messi al corrente? E se sì, in che modo? Come ricorda Jamie M. Mello, bioeticista della Stanford Law School (California), in uno studio pubblicato su JAMA, «quando un’organizzazione sanitaria decide di usare uno strumento di Ai, deve stabilire se ha l’obbligo etico di informare i pazienti o ottenere il loro consenso».
La fiducia è il cuore della cura
Fidarsi del proprio medico è parte integrante della guarigione. Se manca fiducia, anche la terapia più innovativa rischia di fallire. Ecco perché il tema della trasparenza sull’uso dell’Ai è così delicato. «La domanda più frequente sull’intelligenza artificiale che ricevo in questo momento alle conferenze e via email da parte dei medici è: cosa dovrei dire ai pazienti?», spiega Jamie Mello che a Stanford dirige «Heal AI», un laboratorio che effettua valutazioni etiche degli strumenti proposti per l’uso negli ospedali dell’università. «E dobbiamo prendere questa decisione ogni volta che lanciamo nuovi strumenti, ci siamo resi conto di non avere un quadro di riferimento per tale decisione e per garantire la coerenza tra i casi d’uso», aggiunge.
Un momento esetremamente delicato, perché l’Ai non gode esattamente di grande stima da parte dei pazienti. In base a sondaggi recenti degli Stati Uniti, il 60% degli adulti intervistati afferma di non sentirsi a proprio agio con il fatto che il proprio medico si affidi all’Ai, circa l’80% ha scarse aspettative sul fatto che l’Ai possa migliorare elementi importanti della propria assistenza, solo un terzo si fida dell’uso responsabile dell’Ai nei sistemi sanitari, e per il 63% è assolutamente vero che avrebbe voluto essere informato sull’uso dell’Ai. E non si tratta di «luddisti», contrari ad ogni tipo di innovazione tecnologica.
Vogliamo il medico e non la macchina
In un’intervista pubblicata dall’American Medical Association, Mello mette in guardia: «Molti pazienti al momento non si fidano dell’uso dell’intelligenza artificiale». Non è un dettaglio: è un campanello d’allarme.
La diffidenza nasce dalla paura di essere curati «da una macchina». Per questo – prosegue Mello – «abbiamo bisogno di quadri di riferimento per la comunicazione che costruiscano davvero fiducia invece di eroderla». Tradotto: servono regole chiare per dire al paziente che l’Ai c’è, ma non decide al posto del medico. « I pazienti vogliono sapere che è ancora il loro medico a essere responsabile della decisione, non l’algoritmo».
Non basta dire: «C’è l’Ai»
Il punto fondamentale è che occorre agire con la massima trasparenza. Il che non significa piazzare un asterisco sulla cartella clinica e archiviare la pratica. Bisogna spiegare cosa fa l’Ai, perché la si usa e quali limiti ha. Prendiamo i sistemi di documentazione automatica, che nei sistemi sanitari più avanzati sono già una realtà: microfoni in sala che registrano la visita per trasformarla in un referto digitale.
A qualcuno potrebbe sembrare un Grande Fratello in corsia. Ma se il medico spiega che così può guardare il paziente negli occhi invece di scrivere freneticamente al computer, la percezione potrebbe cambiare radicalmente. Alcuni esperti suggeriscono un modello «in tempo reale»: avvisare i pazienti già al momento della prenotazione, e poi di nuovo subito prima della visita. Così l’informazione resta fresca e contestualizzata, senza effetto sorpresa.
Il ruolo dei medici: spiegare, non solo usare
C’è un altro punto chiave: i medici devono imparare a spiegare l’AI. Non basta saperla usare. Se un paziente chiede «ma chi ha deciso questa terapia, lei o il computer?», non può ricevere una risposta evasiva.
«Se i medici riescono a spiegare, con un linguaggio semplice, cosa sta facendo l’Ai, i pazienti hanno molte più probabilità di accettarla», dice Mello. Sembra banale, ma non lo è: servono formazione e allenamento. Le facoltà di medicina iniziano a introdurre corsi sull’etica e sulla comunicazione dell’Ai. Perché la vera rivoluzione non sarà solo tecnologica, ma culturale. «Quando intervistiamo i medici sulle loro opinioni sull’etica dell’Ai, spesso non la considerano sostanzialmente diversa da qualsiasi altro tipo di supporto decisionale che utilizzano. E sanno che i pazienti, proprio come i passeggeri di un aereo, non hanno bisogno di conoscere ogni dettaglio di come arriveremo a Cincinnati, purché arrivino nel posto giusto al momento giusto. Perché dovremmo avere una visione eccezionale dell’Ai? Credo che la risposta sia che, come avvocato, comprendo che le nostre opinioni sul consenso informato o sulla notifica sono in gran parte guidate da ciò che riteniamo essere un’informazione rilevante per i pazienti, ovvero ciò che interessa ai pazienti stessi».
Chi risponde se sbaglia l’algoritmo?
C’è poi la questione, molto concreta, della responsabilità. Se un algoritmo diagnostico sbaglia e il medico lo segue, chi paga? Il professionista? L’ospedale? O l’azienda che ha sviluppato il software? Domande che oggi non hanno risposte univoche e che rendono ancora più urgente chiarire il ruolo dell’Ai nel processo clinico.
E c’è il tema della privacy: per funzionare, l’Ai ha bisogno di montagne di dati. I pazienti devono sapere come vengono raccolti, conservati e usati. Senza regole chiare e trasparenti, il rischio è di minare quella fiducia che tanto faticosamente si cerca di costruire.
Un possibile modello di azione
Nello studio pubblicato, Mello indica un possibile «framework» da applicare: «Proponiamo che la politica – informare i pazienti dell’utilizzo dello strumento, richiedere il loro consenso all’utilizzo o nessuna delle due – sia guidata da due considerazioni. In primo luogo, quanto è grave il rischio che l’utilizzo dello strumento possa causare danni fisici ai pazienti? In secondo luogo, in quale misura i pazienti hanno una significativa opportunità di esercitare il proprio potere decisionale in risposta a una segnalazione? Quando sia il rischio che l’opportunità di agire sono elevati, l’obbligo di informativa è al suo apice. Come minimo, una notifica solida è eticamente richiesta; laddove ottenere il consenso sia fattibile, ciò potrebbe essere preferibile. Al contrario, quando il rischio di danno è basso e non vi è alcuna reale prospettiva che i pazienti possano agire in risposta alle informazioni, potrebbe essere ragionevole e persino preferibile non fornire la notifica».
Il modello proposto non prevede in molti casi una notifica diretta ai pazienti su uno specifico caso d’uso dell’Ai. «Penso che, per quanto anemica possa sembrare, la comunicazione pubblica di base, sia su un sito web che in altri forum, possa essere utile per far sapere ai pazienti che questo sta accadendo».
I pazienti devono essere coinvolti
Fondamentale, inoltre, è il coinvolgimento dei pazienti in un’azione di informazione e formazione reciproca con la struttura ospedaliera. Allo Heal Ai Lab è stato creato un gruppo con 10 pazienti di estrazione diversa. «Forniamo formazione sul funzionamento dell’intelligenza artificiale, sia all’inizio che su base continuativa, in parte attraverso corsi di formazione, ma anche attraverso la pratica di discussioni mensili di gruppo con noi, per apprendere nuovi strumenti di intelligenza artificiale e ricevere i nostri report. Imparano cosa avevamo da dire sull’etica di ogni strumento. Hanno l’opportunità di fornire feedback in modo continuativo. Quindi si tratta di un livello di investimento relativamente modesto, ma penso che sia necessario un certo investimento per aggiornare le persone. Ma onestamente, l’investimento è, credo, inferiore a quanto molti direbbero. Siamo rimasti stupiti dalla qualità delle informazioni che riceviamo anche da un piccolo numero di pazienti con relativamente poca esperienza», conclude Mello.
La situazione normativa in Europa
Se negli USA il dibattito ruota intorno a etica e consenso, in Europa si è scelto di regolamentare con decisione. L’AI Act, approvato a Bruxelles, classifica i sistemi di intelligenza artificiale in base al rischio. La sanità, per l’impatto che può avere sulla vita delle persone, rientra tra i settori «ad alto rischio». Ciò significa obblighi stringenti: valutazioni preventive, trasparenza sugli algoritmi, garanzie sulla protezione dei dati.
A questo si somma il GDPR, che già impone informazione chiara e consenso esplicito sul trattamento dei dati sanitari. In altre parole, un ospedale che adotta un software per la diagnosi o la gestione dei dati dovrà garantire al paziente di sapere come e quando quella tecnologia interviene. È una rivoluzione che si somma al GDPR, che già oggi tutela i dati sanitari come tra i più sensibili in assoluto.
E in Italia
In Italia, questo quadro europeo si intreccia con una normativa nazionale sull’intelligenza artificiale che attende un ultimo passaggio in Senato dopo l’approvazione alla Camera il 25 giugno. Il DDL 1146 fissa principi generali sull’uso di algoritmi nei settori più delicati, sanità compresa. La norma stabilisce alcuni capisaldi che avranno conseguenze dirette sulle corsie: nessuna decisione sanitaria può essere lasciata interamente a un algoritmo; deve esserci sempre un contributo umano sostanziale. È il concetto di human-in-the-loop: il medico resta responsabile, l’AI lo assiste.
Il testo prevede inoltre diritto all’informazione: il paziente deve essere messo in condizione di capire quando e come un algoritmo interviene nella sua diagnosi o nel suo percorso di cura. È un punto decisivo, perché traduce in obbligo giuridico quello che molti bioeticisti considerano un dovere etico. Accanto a questo, la legge ribadisce il divieto di discriminazioni: nessun algoritmo potrà introdurre disparità nell’accesso alle cure o nella valutazione dei pazienti.
Sul fronte della governance, il sistema sarà a più livelli. L’Agenzia per l’Italia Digitale (AgID) avrà il compito di promuovere e certificare, mentre l’Agenzia per la Cybersicurezza Nazionale (ACN) vigilerà sugli aspetti di sicurezza e potrà effettuare ispezioni. Un comitato di coordinamento presso la Presidenza del Consiglio seguirà l’attuazione e aggiornerà ogni due anni la strategia nazionale sull’AI. Sono previsti anche «sandbox regolatori», ambienti protetti in cui sperimentare l’uso di algoritmi in contesti clinici reali, ma sotto stretta sorveglianza.
31 agosto 2025
© RIPRODUZIONE RISERVATA