Referti medici e intelligenza artificiale: l’allarme del Garante sull’uso improprio

Il Garante privacy mette in guardia dalla pratica di caricare referti medici, radiografie e analisi cliniche sulle AI per ottenere diagnosi o indicazioni.

Lorena Papini 26/08/25
Scarica PDF Stampa

Negli ultimi mesi si è diffusa una pratica che desta crescente preoccupazione tra esperti e istituzioni: il caricamento di referti medici, radiografie e analisi cliniche su piattaforme di intelligenza artificiale generativa, con la finalità di ottenere interpretazioni diagnostiche o indicazioni sanitarie. La comodità e l’immediatezza di queste tecnologie, unite alla crescente fiducia degli utenti verso strumenti di IA capaci di generare testi complessi e risposte articolate, hanno incentivato un fenomeno che, tuttavia, presenta numerosi rischi sotto il profilo della privacy e della salute.
Il Garante per la protezione dei dati personali ha lanciato un chiaro monito: non solo la condivisione di dati sanitari sensibili con piattaforme non specificamente progettate per scopi medici espone a pericoli concreti di perdita di controllo sulle proprie informazioni, ma vi è anche il rischio che i sistemi di IA forniscano indicazioni errate, prive di validazione scientifica e non autorizzate come dispositivi medici.
Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale. Ti consigliamo inoltre il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione.

Indice

1. Il rischio per i dati sanitari: tra privacy e uso secondario dei referti


Il primo livello di criticità riguarda la tutela dei dati personali. I referti medici contengono informazioni altamente sensibili, la cui gestione è soggetta a norme stringenti. Quando un utente carica un documento clinico su una piattaforma di IA, è fondamentale comprendere quale sarà la sorte di quel dato: sarà eliminato subito dopo la richiesta? Rimarrà archiviato per un periodo di tempo? Oppure verrà utilizzato dal gestore del servizio per addestrare ulteriormente gli algoritmi?
Molti servizi di intelligenza artificiale generativa prevedono meccanismi di scelta per l’utente, ma spesso le informative sulla privacy non vengono lette con attenzione. Il Garante ricorda che la legge impone ai gestori di piattaforme di esplicitare in maniera chiara le modalità di conservazione, cancellazione e riutilizzo dei dati. Gli utenti, dal canto loro, devono acquisire consapevolezza del fatto che la semplice richiesta di un’interpretazione diagnostica online può tradursi in una perdita irreversibile di controllo sui propri dati sanitari, con potenziali conseguenze non solo sul piano della riservatezza, ma anche dell’abuso commerciale e del profiling. Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.

VOLUME

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

 

Michele Iaselli | Maggioli Editore 2024

2. L’affidabilità delle risposte: IA e limiti diagnostici


Un secondo profilo di rischio riguarda la qualità e l’attendibilità delle risposte generate dalle piattaforme. Gli algoritmi di IA generativa, per quanto sofisticati, non sono dispositivi medici certificati. Non hanno superato i test clinici previsti dalla normativa e non possono sostituire il giudizio professionale di un medico.
Affidarsi a un sistema che fornisce indicazioni senza un adeguato processo di validazione scientifica espone l’utente a diagnosi inesatte, a consigli fuorvianti e, nei casi più gravi, a decisioni sanitarie potenzialmente dannose. Per questo il Garante insiste sull’importanza di non assumere le risposte dell’IA come verità assolute, ma di verificarle sempre con un professionista sanitario qualificato.
Il principio è ribadito anche nel Regolamento europeo sull’intelligenza artificiale, che sottolinea la necessità di garantire “supervisione umana qualificata” in tutte le fasi di utilizzo di sistemi di IA in ambito sanitario. Una raccomandazione già accolta dal Consiglio Superiore di Sanità, che nel 2021 aveva evidenziato come l’intervento umano sia imprescindibile per scongiurare rischi diretti per la salute dei pazienti.

3. Normativa, principi e linee guida


La questione si inserisce in un quadro normativo più ampio. Già nell’ottobre 2023 il Garante aveva adottato un decalogo per la realizzazione di servizi sanitari nazionali basati sull’IA, individuando alcuni principi cardine: la presenza di un idoneo presupposto di liceità, la preventiva valutazione d’impatto, obblighi di trasparenza e adeguate misure di sicurezza.
Un ulteriore richiamo è giunto nel maggio 2024 con la pubblicazione di un documento dedicato al fenomeno del web scraping, ovvero la raccolta massiva di dati personali disponibili online per finalità di addestramento dei modelli. L’Autorità ha evidenziato come anche i dati sanitari possano essere raccolti in questo modo senza che gli interessati ne abbiano piena consapevolezza, con evidenti rischi di violazione della normativa in materia di protezione dei dati.
Questi interventi rivelano un’attenzione costante delle istituzioni al tema e la consapevolezza che l’uso improprio delle tecnologie emergenti non può essere contrastato solo con divieti, ma richiede un lavoro congiunto di regolamentazione, sensibilizzazione degli utenti e responsabilizzazione degli operatori.

Potrebbero interessarti anche:

4. La necessità di una supervisione umana e di un approccio etico


Il concetto di “supervisione umana qualificata” rappresenta il cuore della riflessione. Non si tratta di ostacolare l’innovazione, ma di inserirla in un contesto di sicurezza e responsabilità. L’IA può essere uno strumento straordinario di supporto alla diagnostica, ma deve restare un ausilio e non un sostituto del giudizio medico.
Il ciclo di vita di un sistema di IA — dallo sviluppo all’addestramento, dai test alla messa in esercizio — deve essere permeato da controlli umani, capaci di garantire che i dati trattati siano corretti, sicuri e utilizzati nel rispetto delle finalità dichiarate. È solo in questo modo che si può ridurre il rischio di errori e garantire che la tecnologia rimanga un alleato e non un pericolo.

5. Conclusioni: tra opportunità e responsabilità


L’allarme del Garante privacy non va interpretato come una condanna dell’intelligenza artificiale in campo medico, bensì come un invito a un utilizzo consapevole. Le opportunità offerte da queste tecnologie sono indubbie, ma non devono far dimenticare i limiti, i rischi e le garanzie richieste dalla legge.
Per i cittadini, ciò significa maggiore prudenza nella condivisione di referti sanitari online e la consapevolezza che nessuna IA può sostituire un medico. Per gli operatori e gli sviluppatori, significa impegno a progettare sistemi trasparenti, sicuri e rispettosi della normativa. Solo un equilibrio tra innovazione e tutela dei diritti fondamentali potrà consentire all’intelligenza artificiale di esprimere il suo potenziale senza minacciare la salute e la riservatezza delle persone.

Formazione per professionisti


Il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.
Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Grazie all’utilizzo dei più innovativi tool di AI generativa da parte dei docenti, i partecipanti, in aggiunta alle tradizionali dispense e slide, avranno accesso a un kit di risorse interattive basate su AI: GPT conversazionali, notebook di studio su NotebookLM, mappe concettuali dinamiche, framework operativi e strumenti specialistici.
>>>Per info ed iscrizioni<<<

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Lorena Papini

Scrivi un commento

Accedi per poter inserire un commento