“Sono pronte le analisi, vediamo cosa dice l’intelligenza artificiale”. È questa la frase che sempre più spesso si sente in famiglia o tra amici, ma che nasconde un nuovo grande pericolo. Ironia della sorte, anche dottor Google sembra essere ormai un vecchio pensionato al cospetto dei più avanzati sistemi di IA. Ma attenzione, caricare analisi del sangue o altri referti su sistemi di intelligenza artificiale generativa per ottenere interpretazioni o, peggio, diagnosi può sembrare una scorciatoia brillante, ma in realtà è un errore pericoloso su due fronti: salute e privacy.
Un modello di IA non visita, non esegue un esame obiettivo, non conosce la storia clinica, i farmaci assunti, le comorbilità, né il motivo per cui quegli esami sono stati prescritti. Lo strumento che elabora parole non può sostituire la valutazione clinica, che è un processo complesso e contestuale.
I numeri non “parlano da soli”
La lettura corretta di un referto non è mai un esercizio di semplice confronto con un valore di riferimento. Un parametro lievemente fuori range può essere irrilevante per una persona e indicare invece una condizione grave per un’altra. I range di normalità, inoltre, non sono universali: variano per età, sesso, metodiche di laboratorio, gravidanza, stato fisiologico e, talvolta, per specifiche condizioni cliniche. La stessa unità di misura può differire tra laboratori, così come le soglie di allarme. Senza il contesto clinico, il numero resta muto o, peggio, fuorviante.
Il contesto che manca: storia clinica, trend, esame obiettivo
Interpretare un referto richiede un confronto con esami precedenti per cogliere i trend (per esempio un aumento graduale della creatinina), l’integrazione con la visita fisica, la valutazione dei sintomi e, se serve, l’indicazione ad approfondimenti mirati. Un modello generativo non dispone di questo quadro d’insieme e non può osservarne i dettagli: la pressione misurata correttamente, un soffio cardiaco, un ittero lieve, una perdita di peso non intenzionale. Senza questi elementi, ogni “spiegazione” rischia di essere una mappa elegante di un territorio sbagliato.
Non bastasse questo, occorre ricordare che l’intelligenza artificiale non comprende il significato di ciò che gli viene chiesto. Si limita, attraverso un processo statistico, a dare la risposta che con maggior probabilità è corretta.
L’illusione della precisione: spiegazioni convincenti… ma errate
Le IA generative sono maestre nel produrre testi fluidi e persuasivi. È proprio questa abilità a trasformarsi in trappola: una spiegazione apparentemente autorevole può essere imprecisa, incompleta o, in alcuni casi, completamente sbagliata. Il risultato? Rischio di sottovalutare segnali che richiedono urgenza, di allarmarsi inutilmente o di inseguire farmaci ed esami inappropriati. La retorica convincente non equivale a evidenza clinica; lo stile non sostituisce il metodo.
Conseguenze concrete sulla salute
Gli esiti potenzialmente dannosi sono due, opposti e ugualmente pericolosi. Da un lato si può minimizzare un quadro che richiede tempestività (per esempio dolori toracici associati a marker alterati), dall’altro si può entrare in un circolo di ansia con richieste di accertamenti non indicati. In entrambi i casi, l’effetto collaterale più serio è il ritardo nella consultazione di un professionista quando il tempo conta davvero. Ogni diagnosi differenziale si costruisce su anamnesi, visita, esami mirati e giudizio clinico: saltare questi passaggi significa esporsi a errori.
Dati sanitari: il patrimonio più sensibile
Sul fronte della privacy, i referti sono tra i dati più delicati: contengono informazioni intime su malattie, abitudini di vita, terapie e storia clinica personale e familiare. Caricarli su servizi online implica l’invio a server esterni, spesso ubicati in altri Paesi, dove i dati possono essere conservati per periodi non sempre chiari. In molti casi l’uso dei contenuti per addestrare modelli o per finalità ulteriori è previsto da condizioni d’uso complesse e poco accessibili. Anche selezionando opzioni di “non memorizzazione”, resta il rischio tecnico e organizzativo legato alla gestione di informazioni così sensibili.
Anonimizzazione? Spesso non basta
“Rimuovere il nome” raramente equivale a proteggere l’identità. Combinazioni di età, date, esami rari, luoghi di cura, tempi di ricovero o peculiarità cliniche possono rendere riconoscibile una persona, soprattutto se i dati vengono incrociati con altre fonti. Una volta che queste informazioni sensibili sono online, riportarle sotto controllo è estremamente difficile. Le violazioni di dati non sono eventi teorici: il settore sanitario è storicamente esposto a incidenti di sicurezza, e il danno può estendersi ben oltre l’ambito personale, coinvolgendo anche familiari.
Perché i sistemi di IA non offrono garanzie adeguate
Un medico opera entro regole deontologiche, responsabilità professionali e protocolli di sicurezza dei dati. I sistemi di IA generativa, invece, sono progettati per produrre testo a partire da prompt, non per formulare diagnosi, né per custodire dati sanitari come un fascicolo clinico. La governance del dato, la tracciabilità di come un’informazione viene usata e la possibilità di limitarne la diffusione non sono paragonabili a quelle di una struttura sanitaria. Il paziente, pertanto, non può contare sulle stesse tutele e sugli stessi standard di qualità.
Cosa può fare (davvero) la tecnologia in modo utile
La tecnologia può essere una risorsa per comprendere meglio ciò che il medico ha già spiegato: chiarire termini, illustrare procedure, ricordare indicazioni generali di prevenzione basate su linee guida pubbliche. Se proprio lo si vuole, può aiutare a preparare il colloquio con lo specialista, a mettere ordine alle domande, a mantenere un diario dei sintomi (senza caricare referti o dati identificativi). Può sostenere l’educazione sanitaria, non può sostituire il medico. L’uso responsabile dell’IA, dunque, non passa dall’upload di referti, ma dall’affiancamento alla relazione di cura.
La via più sicura: parlare con un professionista in carne e ossa
Quando si hanno in mano esami e referti, l’unico passaggio davvero sicuro per la salute e la privacy è discuterne con un professionista. Il medico integra dati, contesto e obiettivi di cura; valuta priorità, urgenze e percorsi diagnostici; protegge le informazioni secondo regole chiare. Il contatto umano consente di porre domande, chiarire dubbi, condividere decisioni. Nessun modello generativo, per quanto evoluto, può rimpiazzare questa relazione.
Niente scorciatoie con i referti
Caricare referti su sistemi di IA generativa è una scelta ad alto rischio: sul piano clinico perché priva i dati del loro contesto e può indurre errori o ritardi; sul piano della privacy perché espone informazioni sensibili a usi non controllabili e a possibili violazioni. La tecnologia è utile quando resta al servizio della cura, non quando pretende di sostituirla. Davanti a esami e numeri, la bussola resta il medico.
Leggi anche:

it freepik
