Referti medici e IA generativa: l’allarme del Garante Privacy sui rischi nascosti

sanità digitale

Caricare online analisi del sangue, radiografie o referti medici per chiedere a un’intelligenza artificiale un parere rapido sembra una scorciatoia comoda, un modo per ottenere risposte istantanee senza attendere giorni per una visita specialistica. Ma dietro questa pratica, sempre più diffusa, si nasconde un doppio pericolo: la perdita di controllo su dati sanitari estremamente sensibili e l’affidamento a sistemi che non hanno alcuna certificazione come strumenti diagnostici.

Il Garante per la protezione dei dati personali ha lanciato un avvertimento chiaro: la condivisione di documenti clinici con piattaforme di intelligenza artificiale generativa, spesso progettate per scopi ben diversi dalla consulenza medica, espone gli utenti a rischi che possono avere conseguenze sia sul piano della privacy sia su quello della salute.

Dati sanitari: un patrimonio delicatissimo e vulnerabile

La prima questione riguarda la gestione dei dati personali. Quando un referto viene caricato online, l’utente non sempre ha piena consapevolezza di che fine faranno quelle informazioni, né di chi potrà accedervi in futuro. Le piattaforme hanno l’obbligo di pubblicare informative sulla privacy, ma in molti casi queste vengono ignorate o lette superficialmente. Ciò che spesso non è chiaro è se i dati sanitari caricati vengano cancellati dopo la richiesta di interpretazione o se, al contrario, vengano conservati nei server dell’azienda e riutilizzati per addestrare ulteriormente gli algoritmi.

La possibilità che referti medici e informazioni estremamente sensibili diventino materiale di training per sistemi di intelligenza artificiale rappresenta un rischio serio di perdita di controllo sui propri dati personali. In caso di eventuali violazioni o fughe di informazioni, il danno per la privacy delle persone potrebbe essere irreparabile. La delicatezza dei dati sanitari richiede un’attenzione e una protezione superiori rispetto a qualunque altra tipologia di informazione personale, e il rischio di esporli a piattaforme non specializzate è tutt’altro che trascurabile.

Diagnosi fai-da-te: quando l’IA può diventare pericolosa

Il secondo fronte critico sollevato dal Garante riguarda l’affidabilità delle risposte fornite dalle piattaforme di IA generativa. Questi strumenti non sono dispositivi medici certificati, non sono stati sottoposti ai rigorosi test clinici richiesti dalla normativa sanitaria e non possono sostituire l’esperienza di un medico qualificato. Affidarsi alle loro interpretazioni per valutare la gravità di un referto o prendere decisioni sul proprio stato di salute può essere estremamente rischioso.

Il Regolamento europeo sull’Intelligenza Artificiale, così come le indicazioni del Consiglio Superiore di Sanità, sottolineano un principio fondamentale: l’elaborazione di dati sanitari tramite sistemi di IA deve sempre prevedere un’intermediazione umana qualificata. In altre parole, la tecnologia può supportare il lavoro dei medici, ma non può sostituirsi ad essi, soprattutto quando è in gioco la salute delle persone. Un referto mal interpretato da un sistema automatizzato può generare ansia ingiustificata o, al contrario, portare a sottovalutare sintomi importanti, con conseguenze potenzialmente gravi.

Un equilibrio tra innovazione e sicurezza

L’intelligenza artificiale applicata al settore sanitario rappresenta una frontiera affascinante e promettente: sistemi diagnostici assistiti da IA possono aiutare i medici a individuare patologie in fase precoce e migliorare le cure. Ma non tutte le piattaforme presenti sul web sono pensate per questo scopo. Quelle di uso generalista, spesso progettate per fornire risposte su una vasta gamma di argomenti, non offrono alcuna garanzia di affidabilità né di tutela della riservatezza dei dati caricati.

L’allarme del Garante serve a ricordare che l’innovazione, per essere un alleato della salute, deve poggiare su basi solide di sicurezza, trasparenza e rispetto delle normative. In assenza di queste condizioni, il rischio è che la ricerca di una risposta rapida si trasformi in un pericoloso boomerang per la privacy e il benessere delle persone.