Le applicazioni di IA in funzione predittiva in ambito penale

Scarica PDF Stampa

Approfondimento sulle applicazioni di IA in funzione predittiva nell’ambito del diritto penale tra limiti ordinamentali e legali e principi di garanzia generale.
L’esigenza di celerità e di contenimento del carico processuale ha portato alcuni giuristi a immaginare l’utilizzo dell’Intelligenza Artificiale in termini di “giustizia predittiva”.
Se i più conservatori nutrono ancora qualche remora, i più “progressisti” (nel senso di fan del progresso) hanno proposto l’idea di applicare l’Intelligenza Artificiale nell’ambito della giustizia penale, al fine di soddisfare le esigenze di rapidità, efficienza ed efficacia della medesima, alla luce dell’utilizzo ormai massiccio dei sistemi di intelligenza artificiale nella vita di tutti i giorni.


Per approfondimenti si consiglia il seguente volume il quale nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti quali sono gli aspetti che interessano la professione: Intelligenza artificiale: essere avvocati nell’era di ChatGPT

Indice

1. Prime esperienze di intelligenza artificiale in ambito giudiziario

In alcuni paesi europei è stato sperimentato l’utilizzo della IA nel settore della giustizia civile. In particolare, in Francia, nel 2016, è stato creato il sistema Predictice, che consente di stimare l’ammontare del danno risarcibile in relazione a cause di carattere commerciale o inerenti la proprietà intellettuale.
In Italia sono stati avviati alcuni interessanti progetti di intelligenza artificiale utilizzata in chiave di giustizia predittiva.
Il primo è quello promosso da Corte di Appello e Tribunale di Brescia, in collaborazione con l’Università degli Studi di Brescia, già operativo dal novembre 2021. Al momento, ha per oggetto soltanto “Diritto del lavoro” e “Diritto delle imprese”. Scopo del progetto è quello di “fornire a utenti e agenti economici dei dati di certezza e di prevedibilità e nel contempo di contenere la domanda, disincentivando le cause temerarie”, nonché favorire la “trasparenza delle decisioni”, la “circolarità della giurisprudenza tra primo e secondo grado” ed il “superamento dei contrasti inconsapevoli.
Un altro interessante progetto già avviato è quello promosso dalla Corte di Appello di Venezia, in collaborazione con l’Università Ca’ Foscari di Venezia, Unioncamere del Veneto e la Società Deloitte, che ha fornito il supporto tecnico. Obiettivo della prima fase, relativa alla sola materia dei licenziamenti per giusta causa, è stato quello di inserire nell’elaboratore tutti i provvedimenti emessi nel distretto nel triennio 2019-2021, al fine di rendere conoscibili i precedenti giurisprudenziali e prevedibili le decisioni, scoraggiando il contenzioso con scarse prospettive di successo .
Anche nel settore tributario è stato finanziato un progetto denominato “Prodigit”, finalizzato alla creazione di sistemi basati su algoritmi in grado di analizzare leggi, sentenze e contributi dottrinali per prevedere quale possa essere l’orientamento decisionale di un giudice su una determinata questione giuridica. In particolare, è previsto che, analizzando un cospicuo numero di sentenze, grazie alla capacità di apprendere dell’IA, divenga sempre più affidabile, consentendo al contribuente, quando il sistema sarà operativo, di ottenere una risposta circa l’opportunità di presentare o meno ricorso.

2. L’IA nella Giustizia Amministrativa

Nel campo della giustizia amministrativa, vi sono già state alcune innovative decisioni sul ruolo dell’intelligenza artificiale nel processo decisionale della Pubblica Amministrazione.
Il Consiglio di Stato, dopo una prima interessante sentenza del 2019, che ha sottolineato gli indiscutibili vantaggi derivanti dall’automazione del processo decisionale amministrativo mediante utilizzo di procedure gestite da un sistema informatico per mezzo di algoritmi, in conformità ai canoni di efficienza ed economicità dell’azione amministrativa, ha ammesso il ricorso a procedure robotizzate soltanto in una attività vincolata (nella specie, di classificazione automatica di istanze di assunzione di docenti di scuola secondaria già inseriti nelle relative graduatorie), vi è stata una progressiva apertura giurisprudenziale all’uso degli algoritmi anche nell’attività discrezionale della Pubblica Amministrazione; a condizione, però, che il meccanismo attraverso il quale si concretizza la decisione robotizzata (ovvero l’algoritmo) sia conoscibile e, conseguentemente, sindacabile dal giudice.
Sarebbe auspicabile – sempre dietro controllo e verifica umane – un impiego ad esempio nella valutazione comparativa di preventivi di spesa per una gara di appalto, piuttosto che la valutazione di test omogenei per un concorso pubblico, piuttosto che la valutazione di performance nella PA, nelle istanze di accesso agli atti, nella valutazione preliminare (senza escludere quella umana) delle istanze per benefici finanziari o connessioni amministrative, tutte aree di applicazione in cui sarebbe per altro utili a fini anticorruzione, o quanto meno per una scrematura ed un defatigamento e decongestionamento del carico amministrativo umano.

3. Applicazioni di IA in funzione predittiva in ambito penale

Un primo orientamento ritiene che, in una prospettiva ex ante, l’intelligenza artificiale possa essere utilizzata come strumento di prevenzione della criminalità. Si è infatti ipotizzato che, inserendo in un computer una serie di dati estrapolati da denunce di furti e rapine verificatisi in determinate zone e con modalità simili, il sistema sia in grado di prevedere luoghi e orari in cui verosimilmente potranno essere commessi altri reati della stessa specie e, quindi, intervenire per prevenirli.
Un più ampio ambito applicativo può invece avere l’intelligenza artificiale, nella fase delle indagini preliminari, come mezzo di ricerca della prova. Basti pensare all’uso sempre più frequente di dati generati automaticamente, senza alcun intervento umano nella loro rilevazione, da appositi software, quali captatore informatico (c.d. trojan) per intercettare conversazioni e GPS per localizzare la posizione.
È inoltre opportuno ricordare che, sempre per mezzo di strumenti di IA, è possibile analizzare immagini digitali, tratte, ad esempio, dalla rete di telecamere presenti in ogni città, contenenti volti di persone per effettuare il riconoscimento facciale, utilizzabile a fini di prova in un procedimento penale. Tali strumenti possono tuttavia risultare, da un lato, senz’altro utili a fini investigativi ma, dall’altro, rischiano di configgere con diritti fondamentali dell’individuo, quale il diritto alla privacy.
Assai più delicato è il problema dell’utilizzo dell’intelligenza artificiale in funzione “predittiva” nel processo penale.
Al riguardo, la Commissione Europea per l’Efficacia della Giustizia (CEPEJ) del Consiglio d’Europa, nel 2018, ha emanato la “Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti”.
È la prima volta che, a livello europeo, preso atto della “crescente importanza dell’intelligenza artificiale (IA) nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio della efficienza e qualità della giustizia”, sono stati individuati i principi ai quali dovranno attenersi i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della IA.
Si tratta, in particolare, dei principi di “rispetto dei diritti fondamentali”, di “non discriminazione”, di “qualità e sicurezza”, di “trasparenza” e di “garanzia dell’intervento umano”.
L’ultimo principio di “garanzia dell’intervento umano” – “under user control” – è quello che qui interessa, poiché, essendo finalizzato ad “assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate”, implicitamente ammette la possibilità di utilizzo della IA nell’ambito della giustizia penale.
Nel 2021 la Commissione Europea per le libertà civili, la giustizia e gli affari interni ha formulato una proposta di risoluzione del Parlamento Europeo e del Consiglio finalizzata a stabilire regole armonizzate sull’intelligenza artificiale nel diritto penale e sul suo utilizzo da parte delle autorità di polizia e giudiziarie. Proposta contenente anche una riflessione, in generale, sui rischi potenziali dell’uso della IA (processi decisionali opachi, vari tipi di discriminazione, intrusione nella vita privata, etc.) e, in particolare, su quelli ancor più gravi dell’utilizzo della stessa nella giustizia penale, cui si aggiunge la raccomandazione che, nell’utilizzare sistemi di IA, vengano rispettati i diritti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea.
Per approfondimenti si consiglia il seguente volume il quale nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti quali sono gli aspetti che interessano la professione:

FORMATO CARTACEO

Intelligenza Artificiale – Essere Avvocati nell’era di ChatGPT

Nell’anno appena trascorso l’intelligenza artificiale generativa, una delle sue forme più “creative”, è stata ed è ancora oggi uno dei temi più dibattuti. Avvocati e giuristi hanno iniziato a chiedersi se, oltre alla curiosità, le opinioni e i primi esperimenti, non sia opportuno iniziare a formarsi e acquisire nuove competenze nel proprio bagaglio professionale, ma nel mare magnum di informazioni molti si stanno ponendo la stessa domanda: “Da dove inizio?”. Questo libro nasce per rispondere al bisogno “di saperne di più”, raccontando in un quadro unitario a giuristi, avvocati, praticanti e studenti: quali sono gli aspetti che interessano la professione? Qual è lo stato dell’arte?  Le norme in vigore e in corso di approvazione che disciplinano l’utilizzo di AI nei settori principali del diritto, le prime esperienze presso gli studi legali, gli esempi e le istruzioni sui principali tool.Attraverso il racconto dei fatti, vengono naturalmente toccati anche i principali dibattiti in corso: gli aspetti etici, i temi della responsabilità civile in caso di danno, la tutela del copyright per le opere realizzate con le AI generative.Claudia MorelliGiornalista professionista, specializzata nei temi della legal industry e della digital transformation della giustizia, esperta di comunicazione legale. Professoressa a contratto presso l’Università di Bologna, dove insegna Comunicazione del Giurista, già responsabile della Comunicazione del Consiglio Nazionale Forense. Il presente volume è la sua prima riflessione organica sui temi della trasformazione digitale della professione forense.

Claudia Morelli | Maggioli Editore 2024

4. L’esperienza americana e il caso “Loomis”

Negli Stati Uniti, notoriamente all’avanguardia nella sperimentazione dell’intelligenza artificiale in ambito penale, già da diversi anni sono stati creati alcuni programmi di elaborazione dati, consistenti in algoritmi predittivi del rischio che un imputato possa commettere un ulteriore reato, che funzionano sulla base di informazioni raccolte tramite un questionario.
Un esempio di utilizzo della IA per formulare previsioni sulla futura condotta di un imputato è quello, spesso citato, relativo al caso “Loomis”. Si tratta di un pregiudicato afro-americano, arrestato dopo un tentativo di fuga alla guida di un’auto precedentemente coinvolta in un conflitto a fuoco e trovato in possesso di armi, che un giudice del Wisconsin, nel 2016, ha condannato alla pena di sei anni di reclusione, basandosi sul responso dell’algoritmo COMPAS che – predittivamente – lo aveva definito come soggetto “ad alto rischio di violenza”.
L’algoritmo, per valutare il rischio di recidiva, utilizza un formulario di 137 domande riguardanti età, grado di istruzione, lavoro, vita sociale, uso di droghe, opinioni personali, etc. e attribuisce un punteggio di pericolosità da 1 a 10 in base alle risposte fornite dall’imputato.
Se osserviamo bene, si tratta di profili di informazione cui il giudice umano, nel nostro ordinamento, non dovrebbe affatto tener conto, se non nel merito della valutazione ad esempio delle circostanze aggravanti o attenuanti.
Proposto ricorso, sulla base del fatto che COMPAS non prevede il rischio di recidiva individuale dell’imputato, poiché elabora la previsione comparando le informazioni ottenute dal singolo con quelle relative ad un gruppo di soggetti con caratteristiche simili, la Corte Suprema ha confermato la legittimità dello strumento utilizzato dal giudice di merito, affermando conclusivamente che la sentenza non sarebbe stata diversa se a decidere fosse stato soltanto il giudice.
L’algoritmo peraltro è risultato affetto da un pregiudizio razziale (racial bias), dal momento che assegnava alla popolazione afro-americana un fattore di rischio recidivante (calcolato ex ante, e su base statistica a priorori) doppio rispetto alla popolazione bianca.

5. L’importabilità del modello predittivo nel diritto penale italiano

A prescindere dalla discutibile scelta di affidare ad una macchina la valutazione della personalità dell’imputato, sta di fatto che nel nostro ordinamento sarebbe comunque precluso un processo decisionale automatizzato in chiave predittiva.
Lo vieta espressamente l’art. 22, comma 1, del Regolamento del Parlamento Europeo e del Consiglio del 27 aprile 2016, n. 679 (GDPR), laddove stabilisce che “l’interessato ha il diritto di non essere sottoposto a una decisione basata unicamente sul trattamento automatizzato, compresa la profilazione, che produca effetti giuridici che lo riguardano o che incida in modo analogo significativamente sulla sua persona.
Inoltre, nel nostro codice di rito non sono ammesse perizie per stabilirne il carattere o la personalità dell’imputato (art. 220, comma 2, cod. proc. Pen.), per cui ben difficilmente un giudice italiano potrebbe avvalersi di un computer per stabilire se vi sia o meno il rischio di recidiva di un imputato.

6. Prevedibilità dell’esito di un processo penale mediante IA

Utilizzando la IA, si può arrivare a prevedere l’esito di un processo?
Ci si chiede in sostanza se adottando un sofisticato sistema di IA con un adeguato database di fonti normative e giurisprudenza, orientandolo ciooè in termini di diritto, si potrebbe prevedere, con sufficiente grado di attendibilità, l’esito di un processo.
Una macchina può prevedere il futuro?
Il Codice di procedura penale stabilisce che sia il pubblico ministero che il giudice non solo possano, ma addirittura debbano effettuare una valutazione prognostica in ordine alla possibilità di una futura condanna sulla base degli elementi di prova acquisiti, come si desume dall’uso della locuzione “ragionevole previsione di condanna” in relazione alla richiesta di archiviazione del pubblico ministero (art. 408, comma 1, cod. proc. pen.), all’udienza preliminare (art. 425, comma 3, cod. proc. pen.) ed alla nuova udienza predibattimentale (art. 554ter, comma 1, cod. proc. pen.).
Possiamo ritenere che il riferimento al binomio “ragionevole previsione” presupponga un ragionamento di tipo non soltanto logico (e, cioè, formalmente corretto nell’inferire una determinata conclusione da una certa premessa), ma addirittura probabilistico dal punto di vista matematico.
La questione è stata oggetto di recenti approfondimenti dottrinali, con particolare riguardo al problema se la valutazione degli elementi di prova acquisiti possa essere effettuata su base statistica (ad esempio, facendo riferimento ad altri casi analoghi e, quindi, a precedenti giurisprudenziali) ovvero secondo un criterio di probabilità matematica.
L’idea di quantificare la fondatezza di un’ipotesi in termini matematici, attribuendo ad essa un valore numerico frazionario compreso tra 0 (= impossibilità) e 1 (= certezza) – enunciata da Bayes sotto forma di teorema – era, però destinata all’insuccesso, non solo e non tanto a causa della complessità dei calcoli necessari in caso di prove plurime o relative a fatti complessi, quanto perché il concetto di probabilità statistica riguarda classi di eventi ripetibili, mentre gli elementi probatori disponibili nel processo hanno ad oggetto fatti specifici e non replicabili.
In definitiva, con l’ausilio di una machine learning opportunamente programmata, sulla base dei dati inseriti dovrebbe essere senz’altro possibile prevedere, con sufficiente margine di precisione, l’esito di un processo. Ciò vale soprattutto con riferimento alle questioni di diritto, mentre per quanto riguarda le questioni di fatto la soluzione non è così semplice, come nel caso in cui occorra, ad esempio, valutare l’attendibilità di testimoni che hanno fornito versioni contrastanti.

7. L’IA in funzione decisionale

Considerata l’eccezionale rapidità con la quale i sistemi di IA si sono evoluti e la probabile prossima realizzazione di strumenti sempre più perfezionati e capaci di emulare il pensiero umano, non possiamo non chiederci se arriverà il giorno in cui un algoritmo, seppure sotto il controllo umano, potrà addirittura produrre la decisione in un processo penale.
Non riprenderò in questa sede condiderazioni più ampie e complesse già fatte altrove [Di Salvo, M. (2024) – Artificial Intelligence and the cyber utopianism of justice. Why AI is not intelligence and man’s struggle to survive himself. – RJEL. Russian Journal of Economics and Law] in cui mettevo in luce come i limiti del giudizio umano sicuramente non verrebbero bilanciati dalla non-umanità della presunta intelligenza computazionale.
Ai fini del presente ragionamento il limite più rilevante per i sistemi di IA, nel formulare una decisione, appaiono essere legati al fatto che in funzione decisionale sarebbero in grado di esprimere soltanto giudizi netti, senza alcuna sfumatura, mentre il processo penale ha generalmente ad oggetto fatti umani in cui sentimenti e passioni non possono essere ignorati.
Infine, non rimarrebbe alcuno spazio per l’applicabilità del canone dell’“al di là di ogni ragionevole dubbio” di cui all’art. 533, comma 1, cod. proc. pen. Mentre invece – come ha ben evidenziato lo statunitense Richard P. Feynman, premio Nobel per la fisica – “questa libertà di dubitare è fondamentale nella scienza e, credo, in altri campi. C’è voluta una lotta di secoli per conquistarci il diritto al dubbio (…) e come scienziato sento la responsabilità di proclamare il valore di questa libertà e di insegnare che il dubbio non deve essere temuto, ma accolto volentieri”.

Michele Di Salvo

Scrivi un commento

Accedi per poter inserire un commento