Intelligenza artificiale e privacy

Scarica PDF Stampa
L’articolo definirà cos’è l’intelligenza artificiale e ne fornirà esempi chiarificatori, successivamente indagherà i punti di contatto con la privacy.

Definizione della materia intelligenza artificiale

L’intelligenza artificiale è la simulazione dei processi di intelligenza umana da parte delle macchine, in particolare dei sistemi informatici. L’intelligenza artificiale  permette alle macchine di apprendere dall’esperienza acquisita, di adattarsi alle nuove informazioni che ricevono e di compiere operazioni simili a quelle che l’essere umano svolge.

La presenza dell’intelligenza artificiale nella vita quotidiana.

La vita di tutti i giorni è stata notevolmente semplificata dai sistemi di intelligenza artificiale. Attualmente vengono utilizzati molto di frequente software di apprendimento automatico avanzato che utilizzano algoritmi comportamentali che sono capaci di captare e registrare le preferenze del soggetto utilizzatore. Esempi noti sono:

  • Siri: assistente vocale implementato da Apple. Apprende mediante la serie di interazioni che si decide di avere con il sistema, queste consentono allo stesso di anticipare e capire sempre meglio le domande che gli si rivolgono al fin di dare risultati di ricerca sempre più accurati.
  • Alexa: sistema affine al primo, implementato da Amazon. Il sistema è, inoltre, in grado di interagire con l’abitazione del soggetto e di effettuare, mediante comandi vocali, acquisti nello store Amazon.
  • Tesla: il software di guida autonoma ha capacità predittive e di apprendimento, è capace di acquisire dati ed esperienza per affinare la guida sempre più e fornire prestazioni sempre migliori all’utente.

Volume di approfondimento Giusto processo e intelligenza artificiale

Rapporto intelligenza artificiale e GDPR

Occorre specificare qual è il punto di interazione fra intelligenza artificiale  e privacy: i sistemi di intelligenza artificiale per loro natura trattano anche dati personali (che poi utilizzano per ricavare ulteriori dati) e, proprio per questa ragione, è necessario far sì che questo trattamento avvenga nel rispetto dei principi del GDPR. Di seguito si elencheranno varie problematiche che possono sorgere in merito alla privacy nell’impiego dell’intelligenza artificiale.

Ci potrebbe essere incertezza riguardo i soggetti coinvolti nel trattamento ovvero titolare e responsabile. Secondo il GDPR il titolare deve garantire il rispetto del Regolamento nel trattamento e può nominare un responsabile che esegue le sue direttive, per il quale è responsabile a meno che non agisca autonomamente. Quando si impiega un sistema di intelligenza artificiale non è ben chiaro chi debba ricoprire tali ruoli. A tal proposito, l’Information Commissioner’s Office britannico propone di attribuire al sistema di intelligenza artificiale personalità giuridica e di conseguenza renderlo titolare o responsabile. Altre correnti di pensiero sostengono che responsabile per l’illecito trattamento sia l’interessato poiché proprietario degli stessi dati. Non si è giunti ad una soluzione univoca, in ogni caso, conformemente al principio di privacy by design bisognerebbe giungere quanto prima al rispetto dei principi del GDPR in tutte le fasi del trattamento.

Altra problematica molto rilevante è il potenziale conflitto con l’articolo 22 del GDPR.  Questo articolo, in breve, garantisce all’interessato il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona. Questo articolo porta a dedurre che nel processo di decisione debba essere assicurato comunque l’intervento umano.

È stato rilevato dallo studio “The impact of the General Data Protection Regulation (GDPR) on artificial intelligence” promosso dall’EPRS  che la maggior parte delle decisioni prese dai sistemi di intelligenza artificiale sono basate solamente sul trattamento automatizzato (art. 22 comma 1 GDPR) e intervenire sulle stesse per cambiarne la natura sarebbe di difficile realizzazione per due ordini di ragioni: le persone che dovrebbero intervenire non avrebbero tutte le informazioni di cui si serve l’algoritmo e la revisione sarebbe estremamente difficile da condurre e, anche se fosse possibile, risulterebbe troppo onerosa. Da questi dati se ne deduce che la decisione rimarrebbe comunque automatizzata e quindi in contrasto col GDPR.

Tuttavia si deve rilevare che il comma 1 non si applica nelle situazioni delineate dal comma 2 quindi nel caso in cui la decisione:

a) sia necessaria per la conclusione o l’esecuzione di un contratto tra l’interessato e un titolare del trattamento;

b) sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento, che precisa altresì misure adeguate a tutela dei diritti, delle libertà e dei legittimi interessi dell’interessato;

c) si basi sul consenso esplicito dell’interessato.

Il terzo comma dello stesso articolo puntualizza che anche nei casi di cui alla lettera a) e c) il titolare del trattamento debba attuare misure appropriate per tutelare i diritti, le libertà e i legittimi interessi dell’interessato e come misura minima sia almeno garantito diritto di ottenere l’intervento umano da parte del titolare del trattamento, di esprimere la propria opinione e di contestare la decisione.

L’ultimo comma dell’articolo 22 specifica che le decisioni basate sui processi automatizzati non possono coinvolgere le particolari categorie di dati personali di cui all’articolo 9 GDPR, a meno che non ci sia una delle basi giuridiche garantite dallo stesso articolo che ne autorizzi il trattamento e siano state adottate le adeguate cautele nel trattamento.

Altro articolo fondamentale in materia è l’articolo 13 che reca il diritto di informazione del soggetto interessato, quest’ultimo infatti dovrà essere informato dal titolare riguardo: l’esistenza del sistema di decisione automatizzata che lo riguarda, la logica che utilizza, le conseguenze che tale trattamento avrà sulla sua persona.

Un ulteriore problema di compatibilità fra AI e GDPR potrebbe sorgere in merito alle finalità di trattamento dei dati. Il trattamento deve essere svolto limitatamente a predeterminate e specifiche finalità e in effetti il sistema di intelligenza artificiale, nelle prime fasi delle sua attività, tratta i dati coerentemente a tali finalità (predeterminate e specifiche) però, potrebbe capitare che, per sua natura, adattandosi alle circostanze, evolvendosi ed imparando dall’esperienza modifichi la sua azione e di conseguenza cominci a trattare gli stessi dati per scopi diversi da quelli inizialmente stabiliti e questo costituisce un problema per il GDPR perché i soggetti coinvolti (titolare e interessato) non sono a conoscenza di questa azione svolta dalla macchina e non la possono neppure controllare.

Altro problema sorge in merito all’articolo 6 GDPR infatti il trattamento è lecito solo se ci sono le  basi giuridiche delineate dallo stesso articolo.  Se il trattamento non rientra nell’ipotesi di cui al primo comma lettera b ‘’ il trattamento è necessario all’esecuzione di un contratto di cui l’interessato è parte’’ e quindi il trattamento non è necessario per utilizzare il sistema di intelligenza artificiale, il trattamento si vedrebbe sfornito di base giuridica e quindi non risulterebbe lecito.

In conclusione

L’articolo affronta le criticità che si possono avere con l’impiego dei sistemi di intelligenza artificiale alla luce del GDPR. Tuttavia, tale impiego non va demonizzato, i sistemi di intelligenza artificiale aiutano l’uomo a vivere una vita più comoda e semplice e le imprese ad essere competitive, occorre solo strutturare i sistemi di intelligenza artificiale in modo che possano rispettare la privacy dei soggetti che li utilizzano.

Volume consigliato

Giusto processo e intelligenza artificiale

Il volume coniuga l’analisi normativa e l’analisi funzionale della trasformazione indotta dalla tecnologia, verificando la possibilità che la giustizia sia amministrata con l’ausilio di dispositivi computazionali automatizzati, quali gli algoritmi. Si parla dunque di ricerca e sviluppo nel settore dell’intelligenza artificiale, al servizio della tutela dei diritti fondamentali e dell’esercizio del diritto di azione.Claudio Castelli, Magistrato dal 1979, ha esercitato diverse funzioni e da ultimo come Presidente Aggiunto dell’Ufficio GIP del Tribunale di Milano e ora Presidente della Corte di Appello di Brescia dall’11 aprile 2016. È stato componente elettivo del Consiglio Superiore della Magistratura per la consiliatura 1994-1998. Dal 2006 al 2008 è stato Capo Dipartimento dell’Ordinamento Giudiziario del Ministero della Giustizia. È stato il promotore del piano na- zionale di miglioramento organizzativo: il Progetto interregionale/transnazionale “Diffusione di best practices negli uffici giudiziari italiani, finanziato dal Fondo Sociale Europeo cui hanno partecipato oltre duecento uffici. È stato uno dei promotori del lancio del Processo Civile Telematico presso il Tribunale di Milano, primo in Italia e ha diretto dal 2008 al 2016 l’Ufficio Innovazione del Tribunale di Milano. Autore di diverse pubblicazioni e scritti in tema di organizzazione e ordinamento.Daniela Piana, Dottore di ricerca in sociologia presso l’Università Paris IV Sorbonne. Jean Monnet Fellow (EUI) 2003, Fulbright Fellow (UC Berkeley) 2007, associate dell’Institut des Hautes sur la Justice, Parigi e dell’Istitut des sciences sociales du politique, ENS Paris Saclay. Coordina la sezione Just Europe, ICEDD-Luiss. È stata componente dell’Osservatorio per la valutazione dell’impatto delle riforme per la crescita del Paese, presso il Gabinetto del Ministro della Giustizia dal 2014 al 2017. Attualmente membro del Research Conference On Justice dell’OCSE, svolge attività di ricerca internazionale in collaborazione con la Société de Législation Comparée. Nominata nel gennaio 2019 componente dell’Ufficio studi del Consiglio di Stato. I suoi interessi di ricerca si situano all’incrocio delle discipline sociologiche e politologiche e si concentrano sui temi della trasformazione della rule of law, sia in relazione alle dinamiche sociali nelle società multi culturali, sia in relazione alla ibridazione dei linguaggi – naturali ed artificiali – sia ancora in relazione alla ridefinizione dei confini funzionali e territoriali cui il diritto fa riferimento.

Claudio Castelli – Daniela Piana | 2019 Maggioli Editore

24.00 €  22.80 €

 

 

 

 

 

Adelaide Casciato

Scrivi un commento

Accedi per poter inserire un commento