Le modalità per poter ottenere l'accesso civico ai dati relativi alla salute

Per poter richiedere l’accesso civico ai dati relativi alla salute di una persona deceduta è necessario il coinvolgimento e il relativo consenso del familiare o del mandatario del deceduto

di Muia' Pier Paolo, Referente per le sezioni dedicate a privacy, IP e internet law , responsabilità medica e civile, e condominio

Versione PDF del documento

Avv. Pier Paolo Muià – Dott.ssa Maria Muià

  

Comitato consultivo della convenzione per la protezione delle persone fisiche con riguardo al trattamento automatizzato dei dati personali: LINEE GUIDA PER INTELLIGENZA ARTIFICIALE E PROTEZIONE DEI DATI

Il Comitato consultivo della Convenzione sulla protezione delle persone rispetto al trattamento automatizzato di dati a carattere personale (Convenzione 108/1981), il quale è presieduto dal rappresentante del Garante privacy italiano dal 2016, ha emanato delle linee guida in materia di protezione dei dati personali nei sistemi basati sull’intelligenza artificiale, le quali sono state presentate nel corso della Giornata della Protezione dei dati personali 2019.

Sul punto è opportuno evidenziare come le applicazioni che si basano sull’intelligenza artificiale stiano ormai fornendo delle soluzioni in grado di migliorare le condizioni di vita delle persone in una varietà di settori sempre più ampia (quali le case intelligenti, le smart cities, il settore industriale, sanitario e la prevenzione del crimine). Tuttavia, come per tutte le innovazioni tecnologiche, anche queste applicazioni possono comportare delle conseguenze negative per le persone.

Proprio per cercare di ridurre al massimo questi rischi, il Comitato ha stabilito delle direttive che dovranno garantire che lo sviluppo dell’intelligenza artificiale proceda nel rispetto del diritto alla protezione dei dati personali.

Le linee guida

Queste linee guida prevedono una serie di misure di base che i governi, gli sviluppatori, i produttori e i fornitori di servizi di intelligenza artificiale dovrebbero seguire per garantire che le applicazioni di intelligenza artificiale non compromettano la dignità e i diritti umani e le libertà fondamentali di ogni individuo, in particolare per quanto riguarda il diritto alla protezione dei dati personali.

Le linee guida si dividono in tre parti: la prima dedicata all’affermazione di principi generali; la seconda dedicata ai produttori, sviluppatori e fornitori di servizi di intelligenza artificiale; la terza rivolta invece ai legislatori.

Parte prima

Nei principi generali delle linee guida si afferma che:

  1. La tutela della dignità umana e la salvaguardia dei diritti dell’uomo e delle libertà fondamentali, in particolare il diritto alla protezione dei dati personali, sono fondamentali nello sviluppo e nell’adozione di applicazioni di intelligenza artificiale, le quali possono avere conseguenze sugli individui e sulla società. Ciò è particolarmente importante quando le applicazioni di intelligenza artificiale sono utilizzati nei processi decisionali.
  2. Lo sviluppo dell’intelligenza artificiale deve fondarsi sui seguenti principi: liceità, correttezza, individuazione della specifica finalità, proporzionalità del trattamento dei dati, privacy by design e privacy by default, accountability, trasparenza, sicurezza dei dati e gestione del rischio.
  3. Nella realizzazione di questi sistemi si devono evitare o comunque mitigare i rischi potenziali connessi al trattamento dei dati.
  4. Dovrebbe essere adottata una visione più ampia dei possibili esiti del trattamento dei dati, prendendo in considerazione non solo i diritti umani e le libertà fondamentali, ma anche il funzionamento delle democrazie e i valori sociali ed etici.
  5. Le applicazioni di intelligenza artificiale devono sempre rispettare pienamente i diritti delle persone interessate.
  6. Le applicazioni di intelligenza artificiale dovrebbero consentire il controllo dei dati dei soggetti attraverso l’elaborazione dei dati stessi e dei relativi effetti sui singoli individui e sulla società.

Leggi anche:”Accesso agli atti amministrativi: il rapporto tra l’accesso documentale e l’accesso civico generalizzato”

Parte seconda

Nella parte delle linee guida dedicata a sviluppatori, produttori e fornitori di servizi di intelligenza artificiale si afferma che:

  1. Sviluppatori, produttori e fornitori di servizi di intelligenza artificiale, nella progettazione dei loro prodotti e servizi, dovrebbero adottare un approccio orientato ai valori in linea con la convenzione 108/1981.
  2. Sviluppatori, produttori e fornitori di servizi di intelligenza artificiale devono valutare le possibili conseguenze negative di applicazioni di intelligenza artificiale sui diritti umani e sulle libertà fondamentali, e, considerando queste conseguenze, dovrebbero adottare un approccio precauzionale basato su appropriate misure di prevenzione e di mitigazione dei rischi.
  3. In tutte le fasi della lavorazione dei dati (tra cui la loro raccolta) gli sviluppatori, i produttori e i fornitori di servizi di intelligenza artificiale dovrebbero adottare un approccio che tuteli i diritti umani e eviti eventuali pregiudizi, tra cui il rischio di discriminazione, o altri impatti negativi sui diritti umani e sulle libertà fondamentali delle persone interessate.
  4. Gli sviluppatori di intelligenza artificiale dovrebbero valutare criticamente la qualità, la natura, l’origine e la quantità di dati personali utilizzati, riducendo i dati non necessari, ridondanti o marginali durante lo sviluppo dell’applicazione e durante le fasi successive.
  5. Sia nella fase di sviluppo che in quella di utilizzo delle applicazioni di intelligenza artificiale, dovrebbe essere adeguatamente considerato il rischio di impatti negativi sugli individui e sulla società a causa di trattamenti di dati decontestualizzati.
  6. Sviluppatori, produttori e fornitori di servizi di intelligenza artificiale sono incoraggiati a istituire e consultare comitati indipendenti di esperti di diversi campi, che possano contribuire alla progettazione di applicazioni orientate alla tutela dei diritti umani.
  7. Dovrebbero essere incoraggiate forme partecipative di valutazione del rischio, sulla base dell’impegno attivo degli individui e dei gruppi potenzialmente interessati dalle applicazioni di intelligenza artificiale.
  8. Tutti i prodotti e i servizi dovrebbero essere progettati in modo da garantire il diritto degli individui di non essere oggetto di una decisione che incide in modo significativo sui suoi diritti, che sia basata unicamente su un trattamento automatizzato senza che venga preso in considerazione il loro parere.
  9. Al fine di migliorare la fiducia degli utenti, gli sviluppatori, i produttori e i fornitori di servizi di intelligenza artificiale sono invitati a progettare i loro prodotti e servizi in modo da salvaguardare la libertà di scelta degli utenti rispetto all’uso delle applicazioni di intelligenza artificiale, fornendo alternative praticabili a dette applicazioni.
  10. Gli sviluppatori, i produttori e i fornitori di servizi dovrebbero adottare forme di algoritmo di vigilanza che promuovono la responsabilità di tutte le parti interessate durante l’intero ciclo di vita di queste applicazioni, al fine di garantire il rispetto del diritto alla protezione dei dati e dei diritti umani.
  11. Gli interessati dovrebbero essere informati se interagiscono con un’applicazione di intelligenza artificiale e hanno altresì il diritto di ottenere informazioni sul ragionamento sottostante ai trattamenti di dati automatizzati.
  12. In relazione al trattamento basato su tecnologie che influenzano le opinioni e lo sviluppo personale, dovrebbe essere garantito il diritto di opposizione degli interessati.

Parte terza

Nella parte delle linee guida dedicata al legislatore e alla politica del diritto si afferma che:

  1. Il rispetto del principio di responsabilità, l’adozione di procedure di valutazione del rischio e l’applicazione di altre misure adeguate, come i codici di condotta e di meccanismi di certificazione, può migliorare la fiducia nei prodotti e nei servizi di intelligenza artificiale.
  2. Fatta salva la riservatezza tutelata dalla legge, le procedure di aggiudicazione degli appalti pubblici dovrebbero imporre agli sviluppatori, ai produttori e ai fornitori di servizi di intelligenza artificiale degli specifici doveri di trasparenza nonché la effettuazione della valutazione preliminare di impatto del trattamento dei dati sui diritti dell’uomo e delle libertà fondamentali.
  3. Le autorità di vigilanza dovrebbero essere dotate di risorse sufficienti per sostenere e monitorare i programmi di vigilanza degli algoritmi degli sviluppatori, produttori e fornitori di servizi di intelligenza artificiale.
  4. L’eccessivo affidamento sulle soluzioni fornite dalle applicazioni di intelligenza artificiale rischiano di alterare l’autonomia di intervento umano nei processi decisionali. Pertanto, dovrebbe essere preservato il ruolo dell’intervento umano nei processi decisionali e la libertà di decisione degli umani che intervengono.
  5. Gli sviluppatori, i produttori e i fornitori di servizi di intelligenza artificiale devono consultare l’autorità di vigilanza quando le applicazioni di intelligenza artificiale hanno il potenziale per avere un impatto significativo sui diritti umani e sulle libertà fondamentali delle persone interessate.
  6. Deve essere incoraggiata la cooperazione tra autorità di vigilanza sulla protezione dei dati e altri organismi aventi competenza sulla intelligenza artificiale, come ad esempio: la autorità di tutela dei consumatori; la autorità di tutela della concorrenza; la autorità di regolamentazione dei media.
  7. Devono essere messi in atto dei meccanismi appropriati per garantire l’indipendenza dei comitati indipendenti di esperti di diversi campi di cui si è detto nella precedente parte seconda, punto 6.
  8. Le persone, i gruppi e tutti gli altri soggetti interessati devono essere informati e coinvolti attivamente nel dibattito circa quale ruolo dovrebbe svolgere l’intelligenza artificiale.
  9. I responsabili politici dovrebbero investire risorse nella alfabetizzazione digitale e nell’educazione per aumentare la consapevolezza dei soggetti e la loro comprensione circa gli effetti delle applicazioni di intelligenza artificiale.

Volume consigliato

La nuova disciplina delle intercettazioni dopo il d.lgs. 216/2017

La nuova disciplina delle intercettazioni dopo il d.lgs. 216/2017

Nicola D'Angelo, 2018, Maggioli Editore

Aggiornata con le disposizioni in materia di intercettazioni e comunicazioni in attuazione della delega di cui alla legge 103/2017, che ha introdotto numerose novità, tra cui il reato di diffusione di riprese e registrazioni di comunicazioni fraudolente, una maggiore tutela della...



Diventa autore di Diritto.it

© RIPRODUZIONE RISERVATA

Muia' Pier Paolo

Muia' Pier Paolo

Co-founder dello Studio Legale "MMP Legal", svolge la professione di avvocato in Firenze, Prato e Pistoia, occupandosi in via principale con il suo staff di responsabilità professionale e civile; internet law, privacy e proprietà intellettuale nonchè diritto tributario. In particolare, svolge attività di assistenza e difesa sia di professionisti destinatari di richieste di risarcimento  danni per inadempimento professionale sia di soggetti danneggiati da sinsitri, soprattutto per malpractice medica; consulenza relativamente alla gestione e alla tutela dei dati personali in ogni area e settore di attività nonché assistenza e difesa, stragiudiziale e giudiziale, per quanto riguarda i contratti e i rapporti tramite internet ed in generale tutte le problematiche relative ai servizi on line ed ai correlati diritti; redazione di accordi di licenza e cessione di marchi, dei diritti di sfruttamento economico delle opere dell'ingegno, di know-how e di brevetti; difesa giudiziale per la tutela dei diritti d'autore e di brevetti, marchi e disegni, nonché avverso attività di concorrenza sleale; difesa e rappresentanza nei giudizi dinanzi alle commissioni tributarie. Per Diritto.it è Referente delle sezioni dedicate a privacy, IP e internet law , responsabilità medica e civile, e condominio. Pagina Facebook: https://www.facebook.com/studiolegalemasimuia/?ref=br_rs Pagina Instagram: https://www.instagram.com/mmp_studiolegale/


Per la tua pubblicità sui nostri Media:
maggioliadv@maggioli.it  |  www.maggioliadv.it

Gruppo Maggioli
www.maggioli.it