AI e Diritto alla spiegazione nell’uso degli algoritmi decisionali

Questo articolo si propone di fare luce sul diritto legato alle IA, focalizzandosi in particolare sul diritto alla spiegazione delle decisioni prese da IA.

L’intelligenza artificiale (IA) sta già plasmando il futuro della società, e la sua crescente presenza in ambito giuridico solleva problematiche cruciali per il sistema legale italiano. Sebbene l’IA sia spesso associata a settori come la tecnologia o l’industria, incidendo sempre più anche in ambiti che riguardano i diritti fondamentali delle persone. I sistemi decisionali automatizzati, come ad esempio quelli utilizzati nei concorsi pubblici o nelle assunzioni, sono ormai una realtà consolidata. E non è difficile immaginare che, in futuro, anche il settore giustizia possa essere influenzato da queste tecnologie, addirittura forse con l’introduzione di un giudice virtuale o meglio un giudice robot basato su IA.
Alla luce di quanto sopra l’avvento sempre più innovativo ed incisivo della Intelligenza artificiale nel settore giustizia attraverso l’uso algoritmi anche decisionali ha dato l’avvio al sorgere di una nuova scienza giuridica conosciuta come Giurimetria o giustizia predittiva. Sul punto si vedano articoli dello stesso autore disponibili nelle risorse di Diritto.it
Ma tornando sui nostri passi, si rileva altresì che molti avvocati, magistrati come anche studenti di giurisprudenza, pur essendo esperti nel diritto, non sono sempre completamente consapevoli delle implicazioni legali legate all’uso degli algoritmi in contesti decisionali. Questo articolo si propone di fare luce su queste tematiche, focalizzandosi in particolare sul diritto alla spiegazione delle decisioni prese da IA e sulla necessità di un sistema giuridico che garantisca trasparenza, responsabilità e protezione dei diritti individuali. Le difficoltà a comprendere queste materie dai contenuti innovativi non sono poche è come autore ho cercato di affrontare la problematica in maniera alquanto basica. Non a caso ritengo questa pubblicazione adatta per introdursi all’ostico argomento prospettato ed alle sue problematiche giuridiche.  Ovviamente, per coloro, che danno per scontate queste conoscenze ed abbiano bisogno di soluzioni più approfondite devono fare riferimento alla nutrita bibliografia già presente in rete o nelle librerie giuridiche specializzate attingendo da testi specifici.
Per l’approfondimento consigliamo il volume Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT . 

Indice

1. La spiegazione, o spiegabilità delle decisioni algoritmiche: cos’è e perché è importante?


Il diritto alla spiegazione delle decisioni algoritmiche è un tema cruciale per comprendere come la società moderna sta interagendo con la tecnologia. In sintesi, si tratta del diritto delle persone a sapere come un algoritmo arriva a una determinata decisione, specialmente quando tale decisione ha un impatto significativo sulla loro vita.
Ad esempio, un algoritmo può essere utilizzato per selezionare i candidati in un concorso pubblico, decidere l’approvazione di un prestito bancario o scegliere i candidati per un’assunzione. In ogni caso, le persone coinvolte devono poter avere accesso alle informazioni relative al funzionamento dell’algoritmo, in modo da garantire che non siano vittime di decisioni opache, discriminatorie o erronee. Per l’approfondimento consigliamo il volume Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT . 

FORMATO CARTACEO

Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT

Nell’anno appena trascorso l’intelligenza artificiale generativa, una delle sue forme più “creative”, è stata ed è ancora oggi uno dei temi più dibattuti. Avvocati e giuristi hanno iniziato a chiedersi se, oltre alla curiosità, le opinioni e i primi esperimenti, non sia opportuno iniziare a formarsi e acquisire nuove competenze nel proprio bagaglio professionale, ma nel mare magnum di informazioni molti si stanno ponendo la stessa domanda: “Da dove inizio?”. Questo libro nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti: quali sono gli aspetti che interessano la professione? Qual è lo stato dell’arte?  Le norme in vigore e in corso di approvazione che disciplinano l’utilizzo di AI nei settori principali del diritto, le prime esperienze presso gli studi legali, gli esempi e le istruzioni sui principali tool.Attraverso il racconto dei fatti, vengono naturalmente toccati anche i principali dibattiti in corso: gli aspetti etici, i temi della responsabilità civile in caso di danno, la tutela del copyright per le opere realizzate con le AI generative.Claudia MorelliGiornalista professionista, specializzata nei temi della legal industry e della digital transformation della giustizia, esperta di comunicazione legale. Professoressa a contratto presso l’Università di Bologna, dove insegna Comunicazione del Giurista, già responsabile della Comunicazione del Consiglio Nazionale Forense. Il presente volume è la sua prima riflessione organica sui temi della trasformazione digitale della professione forense.

Claudia Morelli | Maggioli Editore 2024

2. Il ruolo del GDPR nella protezione del diritto alla spiegazione


A livello normativo, uno dei principali strumenti per garantire la trasparenza delle decisioni automatizzate è l’Articolo 22 del GDPR, che stabilisce dei diritti fondamentali per gli individui in relazione alle decisioni prese tramite trattamenti automatizzati. Questi diritti includono la possibilità di ottenere una spiegazione sulla logica dell’algoritmo, nonché il diritto di intervento umano qualora la decisione automatica abbia effetti giuridici significativi.

3. Contenuto dell’articolo 22 del GDPR


Divieto di decisioni completamente automatizzate: In molti casi, le decisioni automatizzate che influenzano in modo significativo la vita degli individui devono essere precedute da un intervento umano.
Diritto alla spiegazione: L’individuo ha il diritto di essere informato sul processo che ha portato alla decisione automatizzata, incluse le logiche algoritmiche impiegate.
Intervento umano: Se la decisione presa dall’algoritmo non è soddisfacente, l’individuo può chiedere che un operatore umano riveda il caso.
Il GDPR è particolarmente rilevante in Italia, dove il diritto alla trasparenza e la protezione dei diritti individuali sono principi giuridici radicati. Tuttavia, l’implementazione di queste normative nel contesto della crescente automazione delle decisioni presenta ancora diverse difficoltà pratiche.

4. Le Sfide Giuridiche in Italia: Diritto alla Spiegazione e Responsabilità


L’Italia è già all’avanguardia in alcuni settori nell’adozione di algoritmi decisionali, ad esempio nei concorsi pubblici. In effetti, i sistemi algoritmici sono utilizzati per automatizzare la selezione dei candidati, un processo che, sebbene più rapido ed efficiente, solleva interrogativi importanti sul diritto alla spiegazione e sulla responsabilità delle decisioni prese. Ma la situazione non si limita solo ai concorsi: i giudici e gli avvocati italiani si stanno già preparando per l’eventualità che, in futuro, anche il sistema giuridico venga influenzato dall’IA, con l’introduzione di strumenti di giustizia predittiva o addirittura con la possibilità di giudici virtuali o robotici che prendano decisioni su casi legali.

5. La Responsabilità delle Decisioni Algoritmiche


Una delle domande più complesse è: chi è responsabile quando un algoritmo prende una decisione errata che danneggia una persona? Le risposte non sono facili, e implicano una riflessione sul concetto di responsabilità legale. Diversi fattori vanno considerati:

  • Responsabilità civile: In Italia, la responsabilità civile per i danni causati da un algoritmo si applica in base agli stessi principi che disciplinano i danni da prodotti difettosi. Se un algoritmo mal progettato causa danni, chi ha creato l’algoritmo potrebbe essere chiamato a rispondere.
  • Responsabilità penale: Se l’algoritmo viola la legge (ad esempio, attraverso discriminazioni illegali), è necessario stabilire chi sia penalmente responsabile.
  • Responsabilità per danno da prodotto difettoso: Gli algoritmi potrebbero essere considerati “prodotti” ai sensi della legge italiana, e quindi i produttori di software potrebbero essere responsabili per i danni causati da malfunzionamenti.

Potrebbero interessarti anche:

6. Tavola Sinottica: Principi Giuridici Applicabili alle Decisioni Algoritmiche

Principio GiuridicoRiferimento NormativoApplicabilità all’IA
Diritto alla spiegazioneArt. 22 GDPRObbligo di informare l’individuo su come un algoritmo prende decisioni automatizzate.
Responsabilità civileCodice civile italiano (Art. 2043 e seguenti)Risarcimento danni causati da errori di algoritmo o software difettoso.
Responsabilità penaleCodice penale italiano (Art. 590 bis, 2050)Applicabile in caso di danni gravi da utilizzo di IA in contesti ad alto rischio (es. sanità, giustizia).
Responsabilità per danno da prodottoDecreto Legislativo n. 206/2005 (Codice del Consumo)Responsabilità per danno da prodotto difettoso applicata agli algoritmi come “prodotti” digitali.

7. La Necessità di Nuove Normative in Italia


Sebbene il GDPR e l’Artificial Intelligence Act abbiano posto delle basi per la regolamentazione dell’IA in Europa, in Italia è necessaria una riflessione più approfondita. Poiché la tecnologia evolve rapidamente, è essenziale che il sistema giuridico nazionale si adatti per proteggere adeguatamente i cittadini. È probabile che in futuro, gli algoritmi decisionali vengano utilizzati anche in contesti più sensibili come la giustizia predittiva, la selezione dei giudici e, addirittura, la sentenza automatica.
In tal senso, l’Italia potrebbe dover affrontare nuove sfide, come:

  • Regolamentazione delle decisioni algoritmiche in ambito pubblico e giuridico: La creazione di un sistema che consenta di verificare, rivedere e contestare le decisioni prese da algoritmi, soprattutto in contesti ad alta rilevanza sociale e legale.
  • Formazione giuridica sulla IA: I professionisti del diritto, dai giudici agli avvocati, dovranno essere formati su come interpretare i casi che coinvolgono decisioni automatizzate.

8. Proposte per il Futuro


Creazione di un registro pubblico per le decisioni algoritmiche: Un sistema che consenta la registrazione e la verifica delle decisioni prese da IA, specialmente nei settori sensibili come la giustizia, la pubblica amministrazione e la salute.
Certificazione di spiegabilità: I sistemi IA utilizzati in ambito pubblico dovrebbero essere certificati per garantire che siano trasparenti e che possiedano meccanismi di audit.
Regolamento nazionale per la responsabilità algoritmica: Un corpus normativo che definisca chiaramente la responsabilità giuridica in relazione alle decisioni prese dagli algoritmi.
In Italia, l’uso di algoritmi decisionali in ambito pubblico, come nel caso dell’assegnazione delle sedi agli insegnanti, ha suscitato diverse controversie legali, portando a impugnazioni davanti ai tribunali amministrativi che in composizione civile.
Un esempio significativo è il caso relativo all’uso del sistema automatizzato da parte del Ministero dell’Istruzione per l’assegnazione dei docenti a nuove sedi. Il sistema, pensato per gestire la mobilità dei docenti (inclusi i trasferimenti), ha suscitato un notevole scrutinio legale dopo aver generato decisioni considerate ingiuste dai docenti interessati.
In particolare, il caso ha coinvolto l’assegnazione di insegnanti a scuole o classi per le quali non avevano fatto domanda, anche se tali posizioni erano disponibili. Il sistema non ha tenuto conto delle preferenze dei docenti riguardo alla localizzazione o al tipo di posto, portando a decisioni che sembravano ignorare i criteri stabiliti dai candidati. I docenti hanno presentato ricorso e i procedimenti giudiziari hanno evidenziato gravi preoccupazioni circa la mancanza di trasparenza, motivazione e la possibilità per i ricorrenti di influenzare le decisioni. Questi problemi hanno spinto i tribunali, incluso il TAR (Tribunale Amministrativo Regionale) del Lazio, a pronunciare sentenze sfavorevoli nei confronti del sistema automatizzato. Il caso è infine arrivato al Consiglio di Stato, che ha sottolineato la necessità di garantire la trasparenza nelle decisioni algoritmiche e di tutelare i diritti dei cittadini nei processi automatizzati​
Questo caso riflette una tensione più ampia nel settore pubblico tra i vantaggi della digitalizzazione e la necessità di mantenere l’equità procedurale, la trasparenza e il diritto dei cittadini a partecipare al processo decisionale. Le problematiche sollevate in questi casi riflettono le complessità dell’integrazione degli algoritmi nelle decisioni amministrative, specialmente quando tali decisioni hanno un impatto diretto sui diritti degli individui
 In tale ottica è opportuno menzionare la nota sentenza n. 2279/2019 emessa dal Consiglio di Stato, che ha trattato il ricorso di alcuni docenti contro l’assegnazione automatica delle sedi scolastiche. Questi docenti erano stati assegnati a posti lontani dalle loro preferenze, a causa di un algoritmo che non aveva tenuto conto dei criteri di scelta indicati nelle domande. La sentenza ha messo in evidenza la necessità di trasparenza nel funzionamento degli algoritmi e di garanzie di razionalità nelle decisioni automatiche, sancendo che l’amministrazione deve essere in grado di giustificare le proprie scelte, e in caso contrario, l’algoritmo potrebbe risultare invalido​.
In particolare, il Consiglio di Stato ha sottolineato il principio di “piena conoscibilità” degli algoritmi, che implica che i cittadini abbiano il diritto di essere informati su come funziona il processo decisionale automatizzato che li riguarda. Inoltre, la corte ha ribadito che l’amministrazione non può delegare completamente la decisione finale agli algoritmi, senza che resti una responsabilità imputabile a un organo umano che verifichi la correttezza della decisione automatica​.
In un altro caso, la Corte d’Appello di Milano, insieme ad altre corti, ha ribadito che quando un docente, pur avendo espresso preferenze specifiche per determinati posti, non ottiene un incarico per colpa di un errore nell’algoritmo, ha diritto a ricevere il risarcimento per il danno subito. Inoltre, l’algoritmo che considera erratamente un candidato “rinunciatario” quando non ha ricevuto la proposta di sede desiderata è stato nuovamente respinto in giurisprudenza, stabilendo che in questi casi l’amministrazione deve rivedere le assegnazioni, ripercorrendo la graduatoria dal principio.​
Mentre il Tribunale del Lavoro di Roma ha emesso una sentenza importante il 7 giugno 2024, che ha riguardato una docente scavalcata dalla procedura automatizzata di assegnazione delle supplenze tramite l’algoritmo GPS (Graduatorie Provinciali per le Supplenze). Nel caso di specie la docente, che aveva diritto alla supplenza annuale, è stata esclusa a causa di un errore nell’applicazione dell’algoritmo, che ha fatto scivolare in posizioni superiori candidati meno aventi diritto. Nello specifico, il Tribunale ha condannato il Ministero dell’Istruzione e del Merito a risarcire la docente, ordinando il pagamento della retribuzione che avrebbe percepito, oltre agli interessi e alla regolarizzazione contributiva presso l’INPS. Inoltre, il punteggio relativo all’incarico è stato riconosciuto alla docente​.
La sentenza si è concentrata sull’interpretazione dell’articolo 12 dell’O.M. 112/2022, ora trasposto nella nuova O.M. 88/2024. Il Tribunale ha escluso che le operazioni di assegnazione delle supplenze possano essere eseguite in maniera automatica senza rispettare rigorosamente la graduatoria, stabilendo che le disponibilità non devono essere attribuite “scorrendo” oltre l’ultimo candidato già trattato, ma tramite il “rifacimento” delle operazioni di conferimento.
Questa decisione ha una valenza significativa, non solo per il settore scolastico, ma anche per il possibile impiego di algoritmi in contesti giuridici, soprattutto in settori sensibili come la giustizia. La vicenda evidenzia i rischi legati all’affidarsi completamente alla tecnologia senza un controllo umano adeguato, ed è probabile che simili questioni emergano anche nei futuri sviluppi dell’uso dell’intelligenza artificiale e degli algoritmi nelle decisioni amministrative e legali​

9. Sviluppi in altri settori della PA


Anche altri settori della P.A stanno implementando l’uso di algoritmi decisionali che potrebbero dare adito a dispute analoghe a quelle sopra esaminate.
Infatti, oltre all’istruzione, ci sono altri settori in cui vengono applicati processi decisionali automatizzati, e che rischiano di affrontare problematiche giuridiche. Ad esempio, nell’ambito degli appalti pubblici, delle valutazioni fiscali o delle allocazioni dei benefici sociali, i sistemi automatizzati sono sempre più utilizzati. La comunità giuridica in Italia, sia i giudici che gli studiosi del diritto, sta cercando di orientarsi in questo nuovo campo, cercando di bilanciare l’innovazione con la protezione dei diritti fondamentali, assicurando che i cittadini non vengano privati del giusto processo in favore dell’efficienza o della velocità.
In Italia, lo scopo della P.A. è di implementare gli algoritmi decisionali per automatizzare e semplificare i processi amministrativi, ma l’applicazione di queste tecnologie, come abbiamo visto può dare adito al nascere di dispute legali simili a quanto avvenuto per il settore scolastico dove gli algoritmi sono stati utilizzati per determinare l’assegnazione dei posti di lavoro per i docenti la fase di assegnazione delle cattedre agli insegnanti, un processo che ha sollevato preoccupazioni legali a causa di risultati che sembravano ingiusti o irrazionali, come l’assegnazione a scuole lontane dalle preferenze espresse dai candidati.
Si rileva che le decisioni automatizzate e gestite attraverso algoritmi, che in codesto articolo, abbiamo avuto modo di vagliare sono spesso contestate proprio perché a parere delle controparti manca la trasparenza sulle modalità di funzionamento, e gli utenti non sono sempre in grado di comprendere il processo che ha condotto alla decisione. Come avvenuto nel caso dell’assegnazione delle cattedre che ha visto il coinvolgimento di organi giudiziari come il TAR e il Consiglio di Stato, che hanno esaminato la legittimità di tali algoritmi e hanno evidenziato la necessità di un’adeguata trasparenza e di una supervisione umana nelle decisioni automatizzate. In particolare, la sentenza del Consiglio di Stato n. 2279/2019 ha anche ribadito che, pur essendo positivo l’uso della digitalizzazione, le decisioni automatizzate non devono eludere i principi costituzionali di buon andamento, imparzialità e trasparenza​
Altri ambiti in cui si fa uso di algoritmi decisionali includono la gestione delle pratiche burocratiche, come i concorsi pubblici, o in contesti legati al welfare. In alcuni casi, i software utilizzati sono sviluppati da aziende tecnologiche specializzate, anche se le informazioni su specifici algoritmi o sui produttori possono essere più difficili da reperire a causa di questioni di riservatezza o proprietà intellettuale. Tuttavia, si sa che queste tecnologie sono spesso fornite da grandi aziende tecnologiche che sviluppano software per la gestione dei dati e dei processi decisionali, come ad esempio Microsoft, IBM, e altre start-up nel campo dell’Intelligenza Artificiale.
L’utilizzo di algoritmi nella pubblica amministrazione pone in luce la necessità di garantire la trasparenza, e la protezione dei dati personali (soprattutto in relazione al GDPR), onde porre in condizioni il cittadino la possibilità di ricorrere contro le decisioni algoritmiche, come dimostrato dalle sentenze già emesse in questo campo​
Tali sentenze sono indicative di un panorama giuridico in evoluzione, dove la Pubblica Amministrazione deve adattarsi all’uso di tecnologie avanzate, garantendo però sempre il rispetto dei principi di trasparenza, giustizia e imparzialità.

10. Conclusioni


Come abbiamo visto l’intelligenza artificiale sta rapidamente trasformando non solo l’economia e la tecnologia, ma anche il sistema giuridico, portando con sé sfide e opportunità che necessitano di un’attenzione urgente e approfondita. L’introduzione di algoritmi decisionali in ambiti così rilevanti come la selezione dei concorsi pubblici, il credito, l’assunzione di personale e, forse in un futuro non troppo lontano, anche nella giustizia, solleva interrogativi cruciali per la nostra società e il nostro ordinamento giuridico.
Un aspetto fondamentale di questa evoluzione è rappresentato dal diritto alla spiegazione che come ho già menzionato in un paragrafo è noto anche come diritto alla spiegabilità, che consiste non solo in una questione tecnica, ma è da considerare un principio giuridico centrale per la protezione dei diritti individuali in un mondo sempre più automatizzato. Sul punto non si può fare a meno di affermare sulla scia di noti giuristi che in materia siamo in presenza di due diritti contrapposti: ovvero un diritto alla sicurezza che implementa la produzione di algoritmi automatizzati e dall’altra necessariamente si contrappone un principio della stessa importanza, ovvero, quello della sicurezza dei diritti da parte del cittadino che rende necessario esaminare l’opacità intrinsecamente contenuta negli algoritmi decisionali. Il diritto alla sicurezza e la sicurezza dei diritti, atteso la posta in gioco impone trasparenza e necessità di un attento controllo legislativo.
  La possibilità di comprendere come e perché una decisione viene presa da un algoritmo è essenziale per garantire trasparenza, giustizia e correttezza nelle decisioni che impattano direttamente sulle persone come avviene nella Governance digitale. Questo principio è sancito dal GDPR, che pone in evidenza la necessità di assicurare la spiegabilità delle decisioni automatizzate e il diritto degli individui a contestarle qualora risultino ingiuste o errate.
Tuttavia, la normativa vigente non basta. L’Italia, come il resto d’Europa, deve affrontare la necessità di aggiornare e integrare le proprie leggi per far fronte a questi sviluppi. La responsabilità giuridica per le decisioni prese dagli algoritmi, la protezione dei diritti fondamentali delle persone, e l’adozione di meccanismi di controllo e audit indipendenti sono aspetti che richiedono attenzione immediata. L’introduzione di un “giudice virtuale” o di sistemi di giustizia predittiva potrebbe rivoluzionare il settore legale, ma solleva anche tematiche delicate in relazione alla responsabilità penale e civile. Se un algoritmo prende una decisione errata che porta danni significativi a un individuo, chi ne sarà responsabile? Quali misure sono necessarie per evitare discriminazioni o errori gravi?
Inoltre, la formazione dei professionisti del diritto è essenziale. Molti giuristi, pur avendo una solida preparazione legale, non possiedono ancora le competenze necessarie per comprendere e interpretare le dinamiche degli algoritmi e dell’IA. Per far fronte a questa sfida, è necessario che le università italiane e le istituzioni preposte promuovano corsi e formazione continua in ambito tecnologico e digitale per i giuristi. Questo permetterà ai professionisti del diritto di affrontare con maggiore consapevolezza i nuovi casi legali legati all’IA e di proporre soluzioni giuridiche innovative.
Il futuro ci pone di fronte a un mondo in cui la tecnologia e il diritto dovranno coesistere in modo equilibrato. Le leggi dovranno evolversi per garantire che l’uso degli algoritmi non minacci i diritti fondamentali dei cittadini e non metta in discussione la trasparenza e l’accessibilità del sistema giuridico. L’introduzione di algoritmi nei tribunali, nelle aule di giustizia, nella selezione del personale, nelle decisioni finanziarie e nelle politiche pubbliche, richiederà una costante interazione tra i tecnici, i legislatori e i professionisti del diritto, al fine di elaborare soluzioni che siano giuridicamente robuste e socialmente responsabili.
La problematica, in questione, dunque, non riguarda solo l’adozione della tecnologia, ma la sua intera regolamentazione: e bisogna implementare il sistema normativo in modo da proteggere il diritto alla spiegabilità, (o diritto alla speigazione) ed assicurare la responsabilità algoritmica. In tale ottica la trasparenza deve necessariamente essere i principi cardine per il futuro dell’IA. In Italia, è fondamentale che il diritto segua step by step i cambiamenti tecnologici, garantendo che l’evoluzione dell’intelligenza artificiale sia compatibile con il rispetto dei diritti umani e con il corretto svolgimento della giustizia.
Sarà quindi necessario un ampio dibattito tra tutti gli attori coinvolti, dai giuristi agli esperti tecnologici, dai legislatori agli organi giurisdizionali, per costruire una cornice normativa che risponda alle sfide future e che tuteli i diritti dei cittadini di fronte alle crescenti potenzialità delle tecnologie di intelligenza artificiale. Solo così potremo garantire che l’evoluzione digitale sia uno strumento al servizio della giustizia, e non una minaccia per la trasparenza e la responsabilità, valori che devono rimanere alla base del nostro ordinamento giuridico.

Catello Sorrentino

Scrivi un commento

Accedi per poter inserire un commento