Sempre più persone caricano analisi cliniche, radiografie e altri referti medici sulle piattaforme di intelligenza artificiale generativa per chiedere interpretazioni o diagnosi automatizzate. Questo fenomeno sta diventando diffuso ma richiede una valutazione attenta dal punto di vista della tutela della privacy e della sicurezza delle informazioni sanitarie. Nelle ultime ore il garante della privacy italiano ha richiamato l’attenzione sui rischi legati a questa pratica, sottolineando la necessità di considerare i pericoli legati alla perdita di controllo sui dati sensibili e alla potenziale inaffidabilità delle diagnosi fornite da sistemi non certificati come dispositivi medici.
Rischi legati alla condivisione dei dati sanitari sulle piattaforme di intelligenza artificiale
Caricare documenti medici su servizi digitali basati su intelligenza artificiale può esporre i dati personali a rischi rilevanti. Il garante evidenzia come molti di questi servizi non siano progettati specificamente per fornire indicazioni cliniche e quindi non sono sottoposti ai rigorosi test previsti dalla normativa medica. Di conseguenza le risposte generate possono risultare inaccurate o fuorvianti, con conseguenze potenzialmente gravi sulla salute degli utenti. Non solo, i dati sensibili contenuti nei referti potrebbero essere conservati dai fornitori delle piattaforme, usati per addestrare algoritmi o condivisi senza un adeguato controllo. Ciò significa una possibile perdita del controllo sui dati personali e una minaccia alla riservatezza degli utenti.
Un messaggio chiaro del garante
Il messaggio chiaro del garante invita a fermarsi un momento prima di caricare documenti clinici su queste piattaforme e a riflettere sul valore e la delicatezza del dato sanitario. Le persone devono sapere che non tutti i servizi di intelligenza artificiale garantiscono la protezione e il corretto trattamento delle informazioni trasmesse.
Leggi anche:
Il ruolo fondamentale delle informative sulla privacy e la gestione dei dati
Un aspetto su cui il garante richiama particolarmente l’attenzione riguarda la necessità di leggere con attenzione le informative privacy fornite dai servizi di intelligenza artificiale. Questi documenti spiegano se i dati caricati verranno conservati, cancellati oppure impiegati per migliorare gli algoritmi. Alcune piattaforme offrono la possibilità agli utenti di scegliere il destino dei loro dati, ma non sempre questa scelta è chiara o agevole da comprendere. Gli utenti rischiano di consegnare documenti medici importanti senza sapere se saranno realmente protetti o se finiranno in database utilizzati per scopi di addestramento dell’IA.
Il garante consiglia quindi di verificare sempre le condizioni sulla privacy prima di fornire informazioni personali e sanitarie. Solo così è possibile evitare che i dati rimangano disponibili in modo non autorizzato o vengano utilizzati senza un consenso specifico. Questa pratica tutela non solo la riservatezza individuale ma anche la conformità alle normative vigenti sui dati personali.
Supervisione umana necessaria
Secondo l’autorità per la protezione dei dati, “interpretare i referti medici affidandosi esclusivamente a intelligenze artificiali senza supervisione umana rappresenta un rischio per la salute.” Il garante richiama anche le indicazioni del regolamento europeo sull’intelligenza artificiale, che impone un controllo qualificato da parte di professionisti medici in tutte le fasi di impiego di questi sistemi. L’analisi deve sempre essere accompagnata da una valutazione clinica effettuata da figure esperte.
Importanza della supervisione umana nelle interpretazioni mediche generate da intelligenza artificiale
La sorveglianza umana deve essere presente dallo sviluppo del software, all’addestramento, fino ai test e all’uso pratico. Senza questo passaggio, le diagnosi automatiche potrebbero risultare incomplete, imprecise o addirittura pericolose. Il ruolo dei medici assume quindi ancora più rilievo in un contesto dove l’intelligenza artificiale supporta l’interpretazione ma non sostituisce la scelta clinica.
Prime direttive dell’autorità sulla gestione dei dati sanitari con intelligenza artificiale
Le preoccupazioni legate alla tutela dei dati e alla qualità delle diagnosi generate da IA sono già da tempo oggetto di attenzione del garante, che nel 2023 ha pubblicato un decalogo sul tema. Il documento riporta i criteri fondamentali per realizzare servizi sanitari nazionali attraverso sistemi di intelligenza artificiale con attenzione alla protezione delle informazioni personali. Tra i punti principali del decalogo vi sono la necessità di un fondamento giuridico per raccogliere i dati, una valutazione preventiva d’impatto privacy e misure trasparenti di sicurezza e accessibilità.
Standard minimi per l’uso dell’IA in sanità
Queste indicazioni si pongono come standard minimo affinché gli strumenti di IA possano essere utilizzati in ambito medico rispettando i diritti delle persone e garantendo diagnosi attendibili. La normativa in vigore esige quindi un controllo rigoroso lungo l’intero ciclo di vita dei sistemi di intelligenza artificiale applicati alla medicina.
Nel 2025, nel contesto di un uso crescente di intelligenze artificiali in sanità, l’attenzione su come vengono trattati i referti medici caricati online resta alta. La tutela della privacy e il ruolo insostituibile dell’esperienza umana si confermano elementi essenziali per garantire sicurezza e affidabilità nel rapporto tra cittadini e nuove tecnologie.