Nuovi scenari su Intelligenza Artificiale e giustizia civile

Scarica PDF Stampa

di Ilaria Lombardini*

* Assegnista di Ricerca in Diritto Processuale Civile dell’Università di Modena e Reggio Emilia

Sommario

1. Considerazioni introduttive sulla giustizia predittiva e l’Intelligenza Artificiale (anche in una prospettiva comparatistica, con particolare riguardo al sistema francese).

2. Luci ed ombre dell’uso degli algoritmi di Intelligenza Artificiale nella giustizia civile

3. Riflessioni conclusive

1. Considerazioni introduttive sulla giustizia predittiva e l’Intelligenza Artificiale (anche in una prospettiva comparatistica, con particolare riguardo al sistema francese).

La giustizia civile attuale (non solo quella italiana, ma anche quella d’oltralpe, ad esempio quella francese o belga) urta contro una terribile constatazione: spesso non risponde alle esigenze dei cittadini del XXI° secolo, in quanto i tempi sono eccessivamente lunghi, i costi alti e la qualità non sempre elevata[1]. In questo scenario, anche il diritto nella società digitale in continuo divenire viene sempre più influenzato[2] dall’Intelligenza Artificiale, usata, come nella profezia di Isaac Asimov[3], per rispondere alle domande umane e per dirimere i conflitti. Non vi è un consenso unanime su cosa significhi il termine “Intelligenza Artificiale” (abbreviata in I.A. o, dall’inglese Artificial Intelligence, A.I., n.d.s.), “ma si potrebbe affermare che tale termine descriva la possibilità che le macchine, in una certa misura, “pensino”, o piuttosto imitino il pensiero umano, basato sull’apprendimento e sull’utilizzazione di generalizzazioni, che le persone usano per prendere le decisioni quotidiane”[4]. In altre parole, l’Intelligenza Artificiale può essere definita come la capacità di un sistema tecnologico (hardware e software) di fornire prestazioni assimilabili a quelle dell’intelligenza umana e, cioè, l’abilità di risolvere problemi o svolgere compiti e attività tipici della mente e del comportamento umano. Ciò presuppone, nei sistemi più avanzati, la capacità non soltanto di trattare automaticamente enormi quantità di dati e fornire le risposte per le quali tali sistemi sono stati programmati, ma anche di acquisire, sulla base di appositi algoritmi di apprendimento, l’attitudine a formulare previsioni o assumere decisioni. Il giurista si trova così davanti a una nuova sfida, quella della giustizia predittiva, che deve essere al centro del suo pensiero lungimirante, dei suoi progetti e della sua vigilanza. Credo che egli non possa e non debba rinunciare al proprio ruolo, ma, per governarlo, debba conoscere il fenomeno, rifuggendo sia i toni eccessivamente entusiastici, di auspicio fideistico a una integrale decisione robotica, sia quelli scettici e pessimistici, volti ad escludere totalmente l’uso degli strumenti offerti dall’ Intelligenza Artificiale, per un miglioramento del sistema giustizia[5]. Occorre invece, come si cercherà di dimostrare in questo scritto, utilizzare le potenzialità offerte dalla tecnologia e dall’utilizzo, nel processo, degli algoritmi di Intelligenza Artificiale, come moltiplicatore di qualità e strumento di supporto al sistema giustizia, volto a favorire una riduzione dei tempi della giustizia[6]; la giustizia predittiva consiste, stricto sensu, nella “capacità prestata alle macchine di mobilizzare rapidamente in linguaggio naturale il diritto pertinente per trattare un affare, metterlo in contesto in funzione delle sue caratteristiche proprie (luogo, personalità dei giudici, degli studi legali) e di anticipare la probabilità delle decisioni, che potrebbero essere prese. L’espressione è diventata generica e rinvia a “tutte le innovazioni digitali nel campo del diritto”[7].

La giustizia predittiva può essere definita come “lo strumento informatico, fondato su una base di dati giurisprudenziali, che, con l’aiuto di algoritmi di cernita/smistamento e (quelli più perfezionati) di “reti neuronali”, permette di anticipare quali saranno le probabilità statistiche di successo in una controversia giuridica”[8]. La giustizia predittiva consente dunque non di predire, come farebbe una sfera di cristallo, ma di determinare, per mezzo dell’applicazione di tecniche quantitative (gli algoritmi di Intelligenza Artificiale), le probabilità di ogni possibile esito di una controversia[9]. I primi a formulare l’idea di anticipare un risultato contenzioso basato su precedenti decisioni giudiziarie furono Loevinger, Kort e Lawlor (Loevinger in particolare propose la creazione di una nuova scienza “giuridica” definita come “l’applicazione del metodo scientifico allo studio del diritto”, il cui scopo era il “calcolo della probabilità delle decisioni giudiziarie”)[10]. Ma in Francia, già nel 1837, Poisson pubblicava le sue Recherches sur la probabilité des jugements en matière criminelle et en matière civile, e nel 1709 Bernoulli sosteneva una tesi sull’uso giudiziario del calcolo delle probabilità, intitolata De Usus Artis Conjectandi in jure, in cui faceva emergere la nozione di probabilità del giudizio. La giustizia predittiva può essere sommariamente definita non come una giustizia “qui prédit“, ma come una giustizia “prédite par des algorithmes“, cioè prevista da algoritmi che effettuano dei calcoli a partire da grandi masse di dati (big data), aperte (open data) per reperire delle ricorrenze a scopo di previsione[11]. In quanto tecnica informatica che mira a fornire previsioni sul risultato dei processi, essa interessa necessariamente anche il diritto processuale civile. Va segnalato in proposito che in Francia la legge 7 ottobre 2016, n. 1321 “Loi pour une République numérique” (cioè digitale, n.d.s.), in particolare agli articoli 3, 20 e 21 ha consacrato la messa a disposizione gratuita di tutte le decisioni giudiziarie e amministrative, con conseguente diffusione anche delle decisioni delle jurisdictions de fond, cioè dei giudici di merito[12]. In Francia il quadro legale è oggi favorevole alla pubblicazione delle decisioni e sentenze, purché la vita privata delle persone coinvolte sia rispettata[13]. Alcuni hanno proposto di utilizzare termini come justice algorithmique, justice prévisionnelle, justice quantitative, che sottintendono una giustizia virtuale e solo probabile, la cui attualizzazione è lasciata alla creatività, all’immaginazione e all’intuizione degli utilizzatori, i quali faranno sì che la previsione resti “una” soluzione proposta oppure divenga “la” soluzione infine adottata. La giustizia predittiva appare così come uno spazio di prospettiva giuridica per i richiedenti giustizia, le professioni giuridiche e la scienza del diritto[14]. Si profila tuttavia il rischio, seppur moderato, di un dominio del virtuale, quando questo diventa prescrittivo per i professionisti o dissuasivo per i richiedenti giustizia, ma è d’altra parte sperabile una responsabilizzazione di fronte al virtuale mediante una necessaria comprensione tecnica dello strumento di giustizia predittiva[15]. Certamente le nuove tecnologie, in primo piano l’Intelligenza Artificiale e il trattamento dei dati, modificano profondamente il ruolo e l’applicazione del diritto da parte di giuristi e agenti economici. Ci si riferisce in primis alla raccolta e catalogazione su larga scala delle decisioni giudiziarie e alla messa a disposizione dei dati, ovvero al trattamento automatizzato di questi dati (v. al riguardo i siti specializzati in legaltech). In questo quadro, l’Intelligenza Artificiale permette di strutturare i dati per renderli intellegibili, di calcolare delle correlazioni e proporre delle valutazioni di probabilità di rigetto dell’istanza giudiziale in un settore specifico. È grazie a questo che si parla di giustizia predittiva.

Gli strumenti tecnici disponibili spesso favoriscono la fiducia tra gli operatori del settore. Le piattaforme mettono in contatto domanda e offerta. Vi è dunque il reale rischio di una destabilizzazione del mercato del diritto?[16] Sul medio-lungo termine, la rivoluzione digitale inciderà al punto di creare avvocati-robot (a causa di una possibile automatizzazione del loro lavoro)? La risposta, a parere e auspicio di chi scrive, sarà probabilmente negativa: la giustizia predittiva non provocherà la scomparsa degli avvocati, ma piuttosto di un certo tipo di lavoro “paralegale” ora svolto dagli avvocati, in particolare la predisposizione e gestione di dossier ripetitivi e semplici. Sarà presumibilmente l’intermediazione giuridica che sarà sconvolta, la relazione tra clienti e professionisti del diritto: il cliente potrà cercare una previsione dell’esito della controversia, senza fidarsi totalmente della parola dell’avvocato, e, dunque, una base per una determinazione preventiva molto precisa dei costi[17]. Va auspicato quindi un utilizzo ragionevole della giustizia predittiva, che sicuramente porta un vantaggio in termini di tempo e produttività, e vanno considerati rischi di un suo utilizzo non controllato. Innanzitutto, si prospetta un rischio di automatizzazione e standardizzazione delle decisioni giuridiche[18] e, con questo correlato, un rischio di conservatorismo e rigidità delle decisioni, poiché le previsioni proverrebbero da ciò che è già stato giudicato e la giurisprudenza cesserebbe così di evolvere. Si tratta di qualcosa che ritengo comunque poco probabile, poiché implicherebbe che i magistrati non osino prendere decisioni divergenti e che il potere legislativo non intervenga, determinando un effetto c.d. performativo: l’algoritmo avrebbe un ruolo di profezia auto-realizzatrice, distorcendo o adattando il reale per farlo corrispondere alla sua anticipazione. È un effetto constatato soprattutto nei sistemi completamente automatizzati, mentre il rischio di distorsione e di omogeneizzazione sarebbe più debole nel settore giustizia, in cui l’intervento umano è più frequente[19]. Inoltre, si prospetterebbe un rischio di parzialità, se gli algoritmi sono mal posti e la predizione giuridica non è pertanto neutra (v. ad es. il programma COMPAS, utilizzato per stimare il rischio di recidiva di condannati, che secondo uno studio svolto negli Usa del 2016 aveva un basso tasso di affidabilità, poiché sfavoriva la popolazione afro-americana, v. supra nota 11). Converrà allora non permettere agli algoritmi di mettere in discussione il principio del giusto processo[20] (su cui v. infra le Riflessioni conclusive).

Il problema è di sapere chi avrà l’incarico di controllare e padroneggiare questa tecnologia. Infatti, la complessità e, per alcuni aspetti, l’opacità degli algoritmi di Intelligenza Artificiale renderanno ancora più rilevante e attuale il problema della competenza informatica di giudici e avvocati, anche in una prospettiva di rete sistemica e integrata dei saperi[21]. E qui si arriva al problema della nostra sovranità: il rischio di dipendere da grandi gruppi, che non saranno più sotto il controllo pubblico e imporranno la loro visione economica e della società, nonché quello di un utilizzo scorretto delle nuove tecnologie per colpire le libertà individuali e i valori democratici. Le principali difficoltà riguardano soprattutto come garantire l’affidabilità del risultato, il funzionamento senza errori di una macchina/di un meccanismo[22]. Si potrebbe essere tentati di riconoscere nell’Intelligenza Artificiale applicata al diritto una forma di “transumanesimo”, che nasconde le imperfezioni attuali del diritto e trascende i suoi limiti. Questa promessa di ottimizzazione non può essere nascosta, ma non si devono neppure nascondere i rischi che l’accompagnano. In primis, il collegamento tra Intelligenza Artificiale e destabilizzazione del diritto: il rischio di una giustizia artificiale si concreta nel rischio di intaccare l’indipendenza e l’imparzialità del giudice, che sono le pietre angolari di una buona giustizia. Il giudice rischia di essere influenzato dagli strumenti di giustizia predittiva, sapendo che la sua giurisprudenza viene osservata, quantificata, misurata, e potrebbe quindi modificarla, ma poiché l’indipendenza è requisito preliminare per l’imparzialità, il giudice potrebbe non essere imparziale. Vi è così il rischio che lo sviluppo degli strumenti di giustizia predittiva causi un indebolimento dell’autorità della giustizia. Questo indebolimento potrebbe altresì risultare dalla migliore accessibilità delle decisioni, poiché i richiedenti giustizia potrebbero paragonare pronunce rese in situazioni che possono sembrare simili a una persona con nessuna o scarsa preparazione giuridica. Si potrebbe inoltre profilare il rischio di un diritto superficiale, statico e rivolto al passato[23], nonché un impoverimento della ricerca giuridica, che potrebbe divenire monolitica e “insipida”[24]. In positivo, però, si può rilevare che l’uso di strumenti di Intelligenza Artificiale promuoverebbe il consolidamento del diritto, una maggiore certezza del diritto e l’ottimizzazione della formazione giuridica – ad esempio, per gli studenti di giurisprudenza, promuovendo la comprensione del funzionamento degli strumenti digitali, che essi dovranno utilizzare, ma informandoli anche sui rischi dell’applicazione al diritto della Intelligenza Artificiale e quindi sulla necessità di relativizzare i risultati ottenuti e conservare autonomia di pensiero. Si potrebbe altresì formulare una proposta di legge per definire gli obblighi deontologici dei magistrati nell’utilizzo degli strumenti di giustizia predittiva, secondo un’etica della Intelligenza Artificiale applicata al diritto[25]. Il principio di vigilanza mira a “controbilanciare il fenomeno di fiducia eccessiva e di deresponsabilizzazione che si è visto essere favorito dal carattere di scatola nera degli algoritmi e della Intelligenza Artificiale”[26].

Molteplici e innegabili sono i vantaggiofferti dall’uso degli algoritmi di Intelligenza Artificiale, anche in chiave di giustizia predittiva, oltre a quelli sopra segnalati, ad esempio l’omogeneizzazione della giustizia, che dovrebbe rafforzare la fiducia dei cittadini nella giustizia stessa. Gli open data faranno infatti evolvere il ruolo del giudice, permettendo ai magistrati di confrontare le loro analisi e favorendo così la coerenza delle decisioni giudiziarie e la loro previsione[27]. Si potrebbe dire che “l’uomo più la macchina sarà vincente sull’uomo solo o la macchina sola”[28]. L’Intelligenza Artificiale può costituire una esplosione creatrice per il mondo del diritto perché le evoluzioni dei prossimi anni metteranno forse fine alla divisione tra sistemi giuridici di Civil Law e di Common Law, per farli convergere verso un nuovo paradigma, un “diritto isometrico”(“Isometric Law”), vale a dire un sistema giuridico nel quale l’integralità delle decisioni di giustizia è misurata in modo uguale da un programma informatico, la cui sintesi finisce per divenire essa stessa norma[29]. L’ufficio del giudice rischia poi di essere modificato nella misura in cui il suo ragionamento potrebbe doversi adattare. Nei paesi di diritto civile, il giudice applica la legge ai casi particolari, e ciò è una condizione del rispetto della separazione dei poteri e dell’uguaglianza tra i cittadini sottoposti a una stessa regola. Con la giustizia predittiva, il giudice dovrebbe verificare se il caso da giudicare è identico o simile, secondo il software che implementa gli algoritmi di giustizia predittiva, a uno o più processi già giudicati. È dunque un metodo dei casi quello che viene promosso. Il metodo sillogistico è rifiutato per adottare un approccio che si avvicina a quello dei giudizi di Common Law e che porta a dare autorità ai precedenti. Ma, si noti, questa autorità sarà quella di tutti i precedenti analizzati dal programma, e non più, come nei paesi di Common Law, quella di alcune decisioni della Corte suprema. Con la giustizia predittiva, tutte le informazioni contenute nelle decisioni – tanto i giudizi di primo grado quanto le sentenze della cassazione – faranno autorità, salvo che il programma non gerarchizzi le decisioni. Certamente vi sarà una semplificazione del lavoro del giudice, ma soprattutto si attuerà una trasformazione del suo modo di procedere[30].

[1] Van den Branden, Les robots à l’assaut de la justice, L’intelligence artificielle au service des justiciables, Bruxelles, 2019, passim.

[2] Corasaniti, Il diritto nella società digitale, Milano, 2018, spec. p. 159 ss.

[3] Asimov, All the Troubles of the Word, in Nine Tomorrows, 1959, passim.

[4] Così Nieva Fenoll, Inteligencia artificial y proceso judicial, Madrid, 2018, traduzione in italiano di P. Comoglio, Intelligenza artificiale e processo, Torino, 2019,p. 4.

[5] Così v. anche l’autorevole posizione espressa da Nieva Fenoll, Intelligenza artificiale e processo, Torino, 2019, passim e da A. Punzi, Judge in the machine. E se fossero le macchine a restituirci l’umanità nel giudicare? in AA.VV., La decisione robotica, a cura di Carleo, Bologna, 2019, 319 ss., spec. p. 328 ss., il quale prospetta, “senza alcuna pretesa di sintesi hegeliana, una terza via, ispirata all’idea dell’interazione feconda tra l’uomo e il robot”, e prefigura una “macchina che sostiene e protegge”, un modello di “guida assistita” nella decisione giudiziale, verso il “tecno-umanesimo”; Irti, Il tessitore di Goethe (per la decisione robotica), in AA.VV., La decisione robotica, a cura di Carleo, cit., p. 17 ss., il quale rileva che “La decisione affidata al robot non è un fenomeno anti-umano, un miracolo o una catastrofe. È una decisione “umana”, e “appartiene, anch’essa, alla storia integrale dell’uomo”; cfr. in argomento gli articoli su Intelligenza Artificiale e diritto, a cura di Gabrielli- Ruffolo, in Giur. It., 2019, p. 1657 ss., e Traversi, Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot ?, in www.questionegiustizia.it (10-04-2019); v. anche la Lectio magistralis dal titolo L’Etica Giudiziaria, tenuta dal Primo Presidente della Corte di Cassazione Mammone in occasione del Focus Nazionale di Deontologia del 27 settembre 2019, organizzato a Matera dall’AIGA (Associazione Italiana Giovani Avvocati).

[6] Per algoritmo si intende un procedimento che risolve un determinato problema attraverso un numero finito di passaggi elementari, chiari e non ambigui, in un tempo ragionevole; v. sul tema l’analisi estensiva compiuta da: Castelli-Piana, Giusto processo e intelligenza artificiale, S. Arcangelo di Romagna, 2018, passim, spec. p. 72 ss.; v. anche Rulli, Giustizia predittiva, intelligenza artificiale e modelli probabilistici: chi ha paura degli algoritmi, in Analisi giur. dell’economia, 2018, p. 533 ss., spec. p. 542; Calcaterra, Machinae autonome e decisione robotica, in AA.VV., La decisione robotica, a cura di Carleo, cit., p. 33 ss., spec. p. 48 s.

[7] Così Garapon-Lassègue, Justice digitale, PUF, Paris, 2018, p. 136 e p. 219, l’a. sottolinea che valutazione statistica sarebbe sicuramente migliore di quella di un essere umano e forse perfino infallibile. Va considerato però chequesta pretesa scientifica è discutibile poiché la qualità della decisione e la sua esattezza non si basano unicamente su dati misurabili, così Cholet, La justice prédictive et les principes fondamentaux du procès civil, in Archives de philosophie du droit, 2018, tome 60, Dalloz, p. 223. Per Garapon, “le sfide che la giustizia predittiva porta all’idea di giustizia” porteranno a una “rivoluzione cognitiva”, che andrà a modificare la definizione, o almeno la percezione della giustizia e della legge, v. Garapon, Les enjeux de la justice prédictive (“Le sfide della giustizia predittiva”, n.d.s.), in La Semaine juridique, n 1-2, 9 janvier 2017, p. 47 ss.

[8] Così Boucq, La justice prédictive en question, Dalloz Actualité, 14 juin 2017, p. 527 s.

[9] Bouteille-Brigant, Pour un transjuridisme? in La justice prédictive, Archives de philosophie du droit, Dalloz, 2018, tome 60, pp. 297-309, spec. p. 299.

[10] Loevinger, Jurimetrics – The Next Step Forward, in Minnesota Law Journal, 1949; Kort, Predicting Supreme Court Decisions Mathematically: A Quantitative Analysis of the «Right to Counsel» Cases, in The American Political Science Review, No. 51, marzo 1957, p. 1 ss.; Lawlor, What Computers Can Do: Analysis and Prediction of judicial Decision, in American Bar Association Journal, No. 49, aprile 1963, p. 337 ss.

[11] In questi termini, Lebreton-Derrien, La justice prédictive. Introduction à une justice “simplement” virtuelle. in La justice prédictive, Archives de philosophie du droit , Dalloz, 2018, tome 60, pp. 3-21, spec. p. 4. V. in tema di giustizia predittiva uno studio condotto a livello testuale su 586 casi giudiziari decisi dalla Corte europea dei diritti dell’Uomo in materia di giusto processo, privacy e trattamenti disumani,’algoritmo ha individuato fatti, circostanze ricorrenti, frasi più frequentemente rinvenibili nei casi di violazione dei diritti fondamentali, e ha predetto il verdetto corretto nel 79% dei casi. Negli USA l’algoritmo predittivo è stato impiegato ai fini della valutazione del rischio di recidiva. In base a un suo calcolo, Eric Loomis, uomo di colore, è stato condannato. Nel luglio 2016, pronunciandosi sul caso State v. Loomis, la Corte suprema del Winsconsin ha dichiarato, pronunciandosi all’unanimità, la legittimità dell’uso giudiziario di algoritmi, che misurano il rischio di recidiva, precisando però che questo non può essere l’unico elemento su cui fondare una pronuncia di condanna. COMPAS (Correctional offender management profiling for alternative sanctions),brevettato da una società americana e utilizzato da un ristretto numero di Corti di merito americane è un sistema per la previsione su base statistica della probabilità di recidiva dell’imputato/condannato, per la quantificazione della pena e della successiva extended supervision: mediante l’inserimento di una serie di dati oggettivi riguardanti il trascorso criminale, le condizioni socio-economiche e personali dell’imputato, e le risposte a 137 domande a risposta vincolata formulate a quest’ultimo, COMPAS misura il rischio di recidiva e lo qualifica “low“, “medium” o “high“. Usato in molte Corti Usa come obbligatorio, ma non vincolante, è stato oggetto di verifica dalla ONG ProPublica, che ne ha evidenziato gli effetti discriminatori. Secondo la Corte suprema del Wisconsin nella sua pronuncia sopra menzionata, gli algoritmi a base statistica come COMPAS non stabiliscono la specifica verosimiglianza che un determinato imputato commetterà un nuovo reato. Al contrario, forniscono una previsione basata su una comparazione di informazioni relative al singolo imputato con quelle relative a un gruppo di soggetti simili. In base a tale constatazione, la Corte ha affermato che COMPAS è soltanto uno di una serie di molti fattori di cui tener conto e da ponderare nella decisione. A prescindere dai limiti imposti all’utilizzo processuale di COMPAS, la Corte ha asserito che l’esercizio del diritto di difesa appare inficiato negativamente dalla segretezza del meccanismo di funzionamento degli algoritmi, per cui ha ritenuto che questi possono essere un supporto alla decisione del giudice, ma non possono sostituirla.

[12] Loi n. 2016-1321 pour une République numérique, in https://www.legifrance.gouv.fr/eli/loi/2016/10/7/ECFI1524250L/jo; in argomento v. Serverin, De l’informatique juridique aux services de justice prédictive, la longue route de l’accès du public aux décisions de justice dématérialisées, Dalloz, 2018, tome 60, p. 23 ss.; Deumier, La justice prédictive et les sources du droit: la jurisprudence de fond, La justice prédictive, in Archives de philosophie du droit, Dalloz, 2018, tome 60, p. 49 ss., secondo cui l’utilizzo dei dati della giurisprudenza di merito tenderà indirettamente ad orientare la giurisprudenza di merito, con la conseguente sua armonizzazione. La giustizia predittiva è vista come “outil“, strumento, di questa armonizzazione. V. anche Kambrun-Favennec, L’ouverture des données publiques: un préalable à la justice prédictive, in Archives de philosophie du droit, Dalloz, 2018, tome 60, p. 83; Allard, Protection des données personnelles destinées à être publiées: description d’une attaque minimaliste sur un jeu de données pseudonymisées, in Archives de philosophie du droit, Dalloz, 2018, tome 60, p. 183 ss.; v. anche Maximin, Nouvelle organisation pour la transformation numérique de l’ é tat, in Dalloz actualité del 7 novembre 2019, in cui l’a. segnala che in Francia un decreto del 25 ottobre 2019 (Décr. n. 2019-1088, 25 octobre 2019) pubblicato nel Journal officiel del 27 ottobre 2019 ha definito il sistema d’informazione e di comunicazione dello Stato francese, i compiti della direzione interministeriale sul numérique (digitale), oltre al campo di azione delle direzioni ministeriali del digitale.

[13] V. Babonneau, Open data: la Cour de cassation toujours «particulièrement engagée» dans cette mission, in Dalloz actualité del 9 settembre 2019; Id., Justice.fr: la “révolution numérique” du ministère de la Justice, in Dalloz actualité del 19 settembre 2019; Thierry, La Cour de cassation et le Conseil d’ é tat (s’emparent de l’intelligence artificielle, in Dalloz actualité del 23 luglio 2019; sul temaGiambiasi,Les perspectives ouvertes par la mise à disposition du public des décisions de justice: quelle place et quelle régulation pour la justice prédictive?, in La justice prédictive, Archives de philosophie du droit, 2018, tome 60, Dalloz, p. 117 ss., secondo cui la loi 7 octobre 2016 pour une République numérique favorisce il trattamento dei dati inseriti nelle decisioni giudiziarie attraverso strumenti automatizzati. Ciò apre nuove prospettive per i richiedenti giustizia e per gli attori del diritto: – migliore comprensione della giustizia, prevedibilità accresciuta delle decisioni rese dalle giurisdizioni, – creazione di valore economico. Tuttavia implica anche l’elaborazione di meccanismi di regolamentazione adatti, la cui costruzione costituisce una sfida per i poteri pubblici in un contesto di rapida evoluzione delle tecnologie e di internazionalizzazione degli attori e dei flussi.

[14] Lebreton-Derrien, La justice prédictive. Introduction à une justice “simplement” virtuelle, cit., p. 5, secondo cui si può vedere nella giustizia predittiva un semplice strumento statistico di quantificazione dei rischi di una controversia, come è per esempio per la nota piattaforma francese di giustizia predittiva Prédictice, che attribuisce il “salto predittivo” non allo strumento, ma piuttosto all’utilizzatore, v., in proposito, Le guide de la justice prédictive, Prédictice, del 14/06/2018, in http:// blog.predictice.com. Prédictice “prevede” l’esito giudiziario, cioè calcola la propensione del giudice riguardo ad una decisione, a partire da una base dati costituita da sentenze di Corti d’Appello e decisioni di Cassazione. La sperimentazione di Prédictice in due Corti d’appello, quelle di Rennes e Douai, non ha avuto successo: sono stati rilevati errori di valutazione del software, che hanno determinato esiti anomali o inappropriati, per la confusione tra semplici ricorrenze lessicali delle motivazioni giudiziarie e le causalità che erano state decisive nel ragionamento dei giudici. La piattaforma ora è usata da operatori privati, ad esempio AXA, per valutare le possibilità di buon esito di loro strategie processuali.

[15] V., ancora, Lebreton-Derrien, La justice prédictive. Introduction à une justice “simplement” virtuelle, cit., pp. 15-21, spec. p. 18.

[16] Ferey, Analyse économique du droit, big data et justice prédictive, in Archives de philosophie du droit, Dalloz, 2018, tome 60, pp. 67-81, spec. p. 72.

[17] V. in questi termini anche Ferey, Analyse économique du droit, big data et justice prédictive, cit., p. 81; Bruguès-Reix, La justice prédictive: un “outil” pour les professionnels du droit,in Archives de philosophie du droit, Dalloz, 2018, tome 60, pp. 279-285, ove l’a. rileva che in Francia l’open data delle decisioni di giustizia (v. la già citata Loi pour un République numérique del 7 ottobre 2016) ha aperto il mercato degli algoritmi di giustizia predittiva. Da allora sono numerose in Francia le innovazioni che alleano Intelligenza Artificiale e diritto: il “logiciel” (cioè il software) di giustizia predittiva è uno strumento complementare al lavoro dell’avvocato, che dovrà lavorare prima e dopo il suo utilizzo: a monte dovrà porre domande pertinenti al software, dovrà aver circoscritto il problema; a valle, una volta che il software avrà fornito le sue informazioni, statistiche e probabilità, l’avvocato non dovrà solo verificare che non vi siano errori manifesti, ma dovrà analizzare il risultato che otterrà con la massima circospezione.

[18] V. sul punto Dondero, Justice prédictive: la fin de l’aléa judiciaire?, in Recueil Dalloz del 9 marzo 2017, n. 10, (Chroniques-Jugement), pp. 532-538.

[19] Larret-Chahine, Le droit isométrique: Un nouveau paradigme juridique né de la justice prédictive, cit., pp. 287-295.

[20] V. così sul tema anche Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it. 12/2018, c. 385 ss., spec. c. 392, e id., Giurisprudenza creativa e prevedibilità del diritto giurisprudenziale, in Giusto processo civ., 2017, p. 1023 ss.; Bruguès-Reix, La justice prédictive: un “outil” pour les professionnels du droit,cit., p. 279 ss., spec. 285, ove l’a. pone giustamente in evidenza il rischio di incomprensione: il “logiciel“(software)di giustizia predittiva comprende le decisioni di giustizia ed elabora la probabilità di successo di una pretesa. Ma quid in caso di successo solo parziale di un’azione? Il software potrebbe non riuscire a percepire questo tipo di risultato e la complessità della controversia. Per di più, la redazione troppo diversa delle pronunce è un primo ostacolo che non facilita la sistematizzazione delle decisioni stesse. Sulla necessità di tutelare la sicurezza dei dati v. Filiol, Les risques concernant l’utilisation des algorithmes dits prédictif dans le domaine sensible de la justice, ? in Archives de philosophie du droit , Dalloz, 2018, tome 60, pp. 147-152: spesso l’utilizzo di tecniche predittive nel processo giudiziario, con lo sviluppo delle tecniche di spoglio e di analisi dei dati, è considerato non solo come un’evoluzione necessaria, ma anche come una rivoluzione in grado di ottimizzare e razionalizzare la gestione della giustizia; l’a. espone in cosa questa evoluzione comporta dei rischi, quali sono le poste in gioco, perché è illusorio sperare in qualcosa di positivo per le procedure giudiziarie. Si profilano infatti diversi rischi: un “risque moral” (ogni decisione deve comportare moralmente una responsabilità e, suo corollario, la sua possibile sanzione); un “risque et non-sens techniques” (rischio di errore tecnico, o di non senso tecnico ad es. perché un attacco di hacker può sconvolgere i dati e falsare il risultato finale – profila questo rischio anche De la Oliva Santos, “Giustizia predittiva”, interpretazione matematica delle norme, sentenze robotiche e la vecchia storia del “Justizklavier”, in Riv. trim. dir. e proc. civ., 2019, p. 887 ss., spec. p. 893); un “risque sociétal et citoyen” (un rischio per la società e per i cittadini, che ne mette in gioco la sovranità poiché cedono poco a poco la loro umanità agli algoritmi e ai robots).

[21] V. su questo profilo, l’approfondito studio di P. Comoglio, Nuove tecnologie e disponibilità della prova. L’accertamento del fatto nella diffusione delle conoscenze, Torino, 2018, spec. p. 328 ss.; Dondi, Processo civile, new technologies e implicazioni etico-professionali, in Riv. trim. dir. e proc. civ., 2019, p. 878; insiste sulla formazione a tutti i livelli Crisci, Intelligenza artificiale ed etica dell’algoritmo, in Foro amm., 2018, p. 1787 ss.; spec. p. 1816. V. anche, sull’esigenza della formazione, il Consiglio Superiore della Magistratura (C.S.M.), il quale, nella delibera di risoluzione sui tirocini formativi presso gli uffici giudiziari (pratica n. 1058/VV/2013 del 26 luglio 2019, prot. P13750/2019), p. 12, stabilisce che: “La raccolta giurisprudenziale e la predisposizione di schede tematiche, anche nell’ambito di progetti di giustizia predittiva attivati da alcuni uffici giudiziari presuppongono che venga svolta specifica attività formativa in favore dei tirocinanti, ed altresì un controllo a posteriori, in quanto l’elaborazione di orientamenti e la massimazione di sentenze è questione delicata che richiede preparazione ad hoc“.

[22] V. Kestenare, Justice prédictive et protection juridique: quel apport dans notre relation client?, ? in Archives de philosophie du droit, Dalloz, 2018, tome 60, pp. 271-278.

[23] Così anche Bouteille-Brigant, Pour un transjuridisme?, in Archives de philosophie du droit, Dalloz, 2018, tome 60, pp. 297-309, spec. p. 301 e p. 304.

[24] V. ancora, in questi termini, Bouteille-Brigant, Pour un transjuridisme?, cit.,p. 305; cfr. per un’analisi estensiva e interdisciplinare dell’Intelligenza Artificiale: Boden, Artificial Intelligence. A Very Short Introduction, Oxford, 2018, passim, traduzione italiana in Id., L’intelligenza artificiale, Bologna, 2019. passim.

[25] V. in questo senso Bouteille-Brigant, Pour un transjuridisme?, cit., p. 308.

[26] Così CNIL, Comment permettre à l’Homme de garder la main? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, 15 dicembre 2017; per un commento su questo rapporto v. Marraud des Grottes, Intelligence artificielle: la CNIL appelle à une plus grande vigilance, RLDI, 2018/144, p. 41; v. anche Bensamoun, Rapport de la CNIL sur les enjeux de l’intelligence artificielle, une réflexion éthique, RPPI, n. 1, aprile 2018, dossier 5.

[27] V. in questo senso anche Larret-Chahine, Le droit isométrique: Un nouveau paradigme juridique né de la justice prédictive,Archives de philosophie du droit,Dalloz, 2018, tome 60, pp. 287-295, spec. p. 294 s.

[28] Si ritorna al discorso sulla possibile automatizzazione e individualizzazione dell’applicazione delle regole di diritto, per coglierne le implicazioni in termini di efficacia economica, v. Ferey, Analyse économique du droit, big data et justice prédictive, cit., p. 81; v. sul tema anche le considerazioni di Dupré,Du droit saisi par l’IA au droit saisissant l’IA, éléments de réflexion, Archives de philosophie du droit, 2018, Dalloz, tome 60, pp. 103-116, il quale rileva che Intelligenza Artificiale è una nozione propizia ai fantasmi: fa paura per la capacità che avrebbe di soppiantare l’uomo e per i mezzi di controllo sociale che permetterebbe. In pratica, l’I.A. costituisce, come noto, una tecnologia che permette a delle macchine di realizzare cose che gli umani qualificano intelligenti. Il rapporto che l’I.A. intrattiene con il diritto si situa essenzialmente a due livelli: da una parte si può trattare, grazie all’I.A., il diritto come un oggetto matematico, e ciò permette di quantificare l’alea giudiziaria (in questo quadro, la macchina non scimmiotta il ragionamento del giudice, ma permette di misurare meglio le soluzioni possibili e le loro probabilità, con la speranza di favorire soluzioni amichevoli-conciliative); dall’altra parte, l’I.A. è un campo del diritto nascente, di cui i giuristi devono impadronirsi. La riflessione relativa all’automatizzazione della giustizia non è peraltro nuova: l’idea era già in germe in Montesquieu con l’idea di un giudice “bouche de la loi“, v. Montesquieu, De l’esprit des lois, libro XI, capitolo VI “Les juges de la nation ne sont que la bouche de la loi, des êtres inanimés qui n’en peuvent modérer ni la force ni la rigueur“.

[29] L’espressione “isometric law” è stata coniata da Larret-Chahine, Le droit isométrique: Un nouveau paradigme juridique né de la justice prédictive, cit.,p. 292: l’ a. è il co-fondatore della società Prédictice, e per questo, forse, il suo contributo si esprime in modo molto favorevole alla giustizia predittiva; nell’articolo l’a. rileva come l’open data congiunto alle tecnologie di analisi quantitativa delle decisioni giudiziarie creerebbe dunque un potere normativo di fatto a partire dalle pronunce de fond (di merito), con l’effetto collaterale che il diritto isometrico sfuggirebbe in parte al potere politico, poiché prodotto dai magistrati, per divenire più democratico e coloro che li influenzano, in primo luogo avvocati e dottrina, devono imparare a padroneggiare gli strumenti di giustizia predittiva – quindi un diritto più trasparente, più democratico, più giusto, più flessibile e in apparenza più obiettivo. Il diritto isometrico costituirebbe una risposta all’aspirazione dei cittadini di un rinnovamento del sistema giustizia che funziona male. L’autore dimentica però, a mio parere, che le società-imprese che creano e gestiscono il software possono scegliere, a monte, quali dati e pronunce giudiziarie inserire o scartare, per cui il risultato può risultare falsato e non attendibile in mancanza di algoritmi completi e comprensibili anche per i giuristi, e non solo per gli informatici, onde consentire un controllo degli operatori giuridici ex ante, in itinere e ex post. Un diverso approccio, logico e non statistico, all’uso degli algoritmi di I.A. (non applicati alla giurisprudenza, ma alla normativa) è stato proposto in Italia da Viola, Interpretazione della legge con modelli matematici, Processo, a.d.r., giustizia predittiva, vol. I, 2a ed., 2018, passim, secondo cui occorre costruire un modello matematico semplificato, sulla base dell’art. 12 delle Preleggi, partendo dall’interpretazione letterale della norma, in subordine alla interpretazione in base alla ratio legis e in subordine ulteriore all’analogia legis e infine all’analogia iuris, matematicizzando questi criteri, attraverso degli algoritmi, dato che il suindicato art. 12 delle Preleggi costituisce già di per sé la base per un algoritmo. Il suddetto approccio logico all’uso degli algoritmi è secondo l’a. preferibile rispetto a quello statistico, considerando che l’ordinamento italiano è molto complesso anche per la qualità piuttosto scarsa delle norme, per il grado di difformità delle decisioni dei giudici e per l’impossibilità di comprendere il percorso motivazionale che è stato seguito dall’algoritmo – che sovente opera come una black box – al fine di pervenire ad un determinato risultato.

[30] V. così sul punto Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., pp. 223-236.

2. Luci ed ombre dell’uso degli algoritmi di Intelligenza Artificiale nella giustizia civile

Attraverso l’uso degli algoritmi e, quindi, dell’Intelligenza Artificiale non si sostituisce l’attività del professionista, cioè dell’avvocato o del giudice, né quella degli operatori nel settore dell’amministrazione della giustizia, ad es. del personale delle cancellerie giudiziarie, ma si aiuta il professionista con uno strumento di lavoro efficace. Per quanto concerne gli avvocati, il ricorso agli algoritmi consente più facilmente di conoscere, seppur in termini prognostici e statistico-probabilistici, l’esito del giudizio e, quindi, di poter evitare liti che si possano rivelare temerarie e ricorrere a vie alternative di soluzione delle controversie (mediazione, negoziazione assistita, arbitrato) ove più convenienti per le parti, con conseguente deflazione del contenzioso e risparmio di costi processuali inutili – prodotti anche dal fatto che, se le parti giungono a una soluzione condivisa, vi sarà un meno frequente utilizzo delle impugnazioni e conseguente aggravio del contenzioso (su cui v. infra in questo paragrafo). Così la giustizia predittiva potrebbe prevenire ed evitare il giudizio, contribuendo a “disintasare” i tribunali. Resta fermo però, a parere di chi scrive, che la giustizia predittiva deve essere conforme ai principi fondamentali del giusto processo. Questi principi sono nati dalla Convenzione europea dei diritti dell’uomo e sono garantiti da norme costituzionali come gli artt. 25 e 111 Cost. (su cui v. infra paragrafo 3). Viene allora da chiedersi se la giustizia predittiva potrebbe avere delle ricadute sui principi fondamentali dei processi, in particolare del processo civile. Il diritto di adire il giudice non sarebbe compromesso, in quanto la previsione delle chances di successo di una decisione da parte di un algoritmo non impedisce di per sé di adire le vie giudiziali. Anche se le possibilità di successo sono nulle, ciò, attualmente, non costituisce un ostacolo alla ricevibilità dell’istanza. Probabilmente, se il software di giustizia predittiva fosse utilizzato di frequente in futuro, il legislatore potrebbe però essere tentato di prevedere una non ricevibilità collegata alle basse possibilità di successo o, più certamente, a una possibilità di fallimento al 100% dell’azione. E questa dovrebbe essere considerata una violazione di fatto del diritto di adire il giudice[31]. Ma la situazione è diversa in presenza di una predizione/prevedibilità di successo molto alta per una parte e molto bassa per l’altra. La parte che può ostentare un’alta possibilità di successo potrà imporre alla controparte di negoziare su questa base. Ne deriva che la giustizia predittiva condurrà allo sviluppo dei modi alternativi di soluzione delle controversie a beneficio dello Stato, le cui finanze saranno alleggerite. Ma la giustizia predittiva comporterà anche il rischio non trascurabile di un forte incentivo alla rinuncia ad adire le vie giudiziali. Questa rinuncia è lecita se è realizzata con conoscenza di causa, in modo non equivoco – perché un risultato affidabile deve nascere da statistiche non contestabili – e, soprattutto, senza costrizioni. Il diritto di agire in giudizio va contemperato con l’esigenza di prevenire casi di abuso del processo, il contenzioso temerario, anche perché tale diritto può estrinsecarsi comunque compiutamente, anche avvalendosi di strumenti alternativi qualitativamente efficaci, ma in molti casi meno costosi di un processo (quali la mediazione) e più rapidi (quali la mediazione suddetta e l’arbitrato), che quindi meritano di essere incentivati[32]. Va segnalato sul punto l’interessante progetto “Giustizia semplice” del Tribunale di Firenze (in collaborazione con l’Università degli Studi di Firenze) sulla mediazione e l’uso di algoritmi di Intelligenza Artificiale[33], finalizzato ad individuare, nelle materie contrattuali e di competenza del Tribunale delle Imprese, le cause conciliabili, onde facilitare il giudice nell’invio della controversia in mediazione demandata e a realizzare un algoritmo predittivo in tale campo. Questi i risultati provvisori, ma significativi: in 11 mesi sono state mandate in mediazione 1160 cause, la mediazione è stata avviata nel 70% dei casi (a fronte di una media nazionale del 52%) e l’accordo è stato raggiunto nel 55% dei casi nelle controversie contrattuali (a fronte del 36% a livello nazionale). Nel periodo febbraio 2018-gennaio 2019 sono state selezionate 6482 cause civili, e con lo studio analitico degli atti di causa è stato ravvisato il potenziale per un accordo della controversia in 3720 casi. Nel 72% delle cause studiate è stata rilevata la presenza di elementi significativi per la conciliabilità stragiudiziale della lite. La mediazione è stata effettivamente svolta nel 70% dei casi. Se all’esito di tutte le procedure sarà confermato il trend indicato, 447 processi si chiuderanno con una soluzione mediata capace di soddisfare l’interesse delle parti.

La giustizia predittiva ha come oggetto lo stabilire ciò che potrebbe essere giudicato basandosi su ciò che è già stato giudicato. Essa si fonda così sullo sfruttamento di banche dati di giurisprudenza in corso di sviluppo (v. le decisioni della Cassazione disponibili in Francia – in Italia siamo solo all’inizio in questa direzione – come open data, vale a dire che possono essere liberamente scaricati e riutilizzati). Concepita per “illuminare” le persone sull’esito probabile di una controversia, la giustizia predittiva potrebbe avere come primo effetto di dissuadere le persone dal rivolgersi a un giudice per risolvere una lite il cui esito appaia prevedibile Ma c’è il problema della qualità dell’informazione: della sua affidabilità per completezza, correttezza e trasparenza (su cui v. infra in questo contributo), nonché della necessità di integrare la giurisprudenza con la dottrina. Per esempio, un algoritmo che prendesse in considerazione solo la giurisprudenza passata, senza considerare il fatto che una nuova legge o un revirement della giurisprudenza ha mutato il regime giuridico applicabile, darebbe dei risultati errati, che trarrebbero in inganno. La giustizia predittiva non può sostituirsi all’atto del giudicare, che consiste nel rendere una sentenza motivata in fatto e in diritto sulla base di elementi che hanno potuto essere dibattuti in contraddittorio[34]. In questa cornice, gli strumenti di giustizia predittiva, se utilizzati durante il processo, obbediranno ai principi della procedura e saranno sottoposti come gli altri elementi alla dialettica in contraddittorio. Tuttavia potrebbero arricchire i dibattiti giudiziari e contribuire a definire e precisare l’equilibrio tra prevedibilità e imprevedibilità, necessario nell’esercizio della giustizia: una giustizia totalmente prevedibile nella sua applicazione, automatica, non è più giusta. Al contrario, una giustizia insufficientemente prevedibile tende necessariamente verso una discrezionalità del giudice, che se eccessiva giunge all’arbitrio[35].

L’utilizzo nel settore giustizia degli algoritmi consentirebbe al giudice di trovare più velocemente soluzioni ad un controversia, dato che l’utilizzo degli algoritmi anche nel settore della giustizia permetterebbe di analizzare in breve tempo una quantità di dati immessi nel sistema informatico molto più ampia (i cosiddetti big data) rispetto a quanto è solitamente in grado di fare un essere umano, agevolando la ragionevole durata dei processi e la circolarità della giurisprudenza, stimolando la conoscenza e responsabilizzando i soggetti. Ciò non serve ad anticipare il dispositivo della sentenza tramite l’impiego dell’Intelligenza Artificiale (giustizia predittiva in senso stretto, n.d.s.), ma per fornire un supporto tecnologico, un orientamento e un’integrazione al processo interpretativo e decisionale, per giungere così a una maggiore efficienza nella soluzione delle controversie e, dato che aumenterebbe il grado di prevedibilità e di stabilità delle decisioni, evitando mutamenti di giurisprudenza repentini e contraddittori[36]. Si potrebbe concepire un algoritmo che seleziona in modo intelligente l’informazione in una banca dati anticipando ciò che cerca l’utilizzatore, senza imporre la soluzione a una causa. Così, ben lontano dal sostituirsi all’uomo, l’algoritmo lo sosterrebbe nel suo sforzo intellettuale sollevandolo da fastidiose ricerche documentali. È comunque l’utilizzatore che ha la responsabilità di usare in modo pertinente i risultati dell’algoritmo in rapporto alla singolarità del caso di specie[37]. Tutto ciò favorirebbe non solo la modernizzazione e la semplificazione dell’accesso al giudice[38], ma anche una maggiore certezza del diritto, dato che aumenterebbe il grado di prevedibilità delle decisioni e migliorerebbe l’accesso alla giustizia da parte dei cittadini (che a volte desistono dall’adire le vie giudiziali, al fine di far valere i propri diritti, per il timore di affrontare i costi di cause lunghe e dall’esito incerto), tenendo comunque conto del fatto che anticipare la decisione non significa anticipare il dispositivo della sentenza, ma vuol dire, in una prospettiva di trasparenza, rendere le parti partecipi del ragionamento del giudice[39]. Un simile algoritmo sarebbe, mi sembra, ben applicabile alle tipologie di controversie più semplici e standardizzate, a bassa litigiosità e con poche variabili, e a quelle seriali (come le controversie in materia di contratti di consumatori) o per il calcolotramite utilizzo di algoritmi degli assegni familiari a favore del coniuge e/o dei figli (v. ad esempio il software ReMida[40]).

In generale, l’uso degli algoritmi di Intelligenza Artificiale è auspicabile nelle cause ripetitive, semplici e di modesta entità, “dove spesso è sufficiente la mera allegazione del fatto e di una produzione documentale priva dei crismi formali e dove è rara l’opposizione del soggetto intimato”[41]. È ipotizzabile nella individuazione di parametri di credibilità di un testimone, in base ai risultati raggiunti dalla c.d. psicologia della testimonianza. Oppure è attualmente già in essere nella realizzazione di “programmi che aiutano a ricostruire i fatti sulla base degli indizi che in precedenti casi hanno svolto un ruolo fondamentale nella ricerca”[42]. Indispensabile è estrarre dai provvedimenti giudiziari non soltanto la massima, ma anche la casistica e dunque l’illustrazione degli elementi caratterizzanti il caso concreto, poiché “registrare” sul database la massima senza alcuna indicazione del caso specifico rischia di compromettere i passi successivi, forse anche l’output di futuri algoritmi predittivi. Gli algoritmi consentono una valutazione celere e al contempo accurata dei dati e delle variabili di input, purché standardizzati, inseriti come input, più di quanto riuscirebbe a fare un essere umano, consentono cioè di indicizzare i dati, di astrarre dei criteri o delle regole generali dalla ripetitività dei casi. Oltre al già citato sistema giudiziario francese, altri ordinamenti, come quelli di Gran Bretagna e Paesi Bassi, hanno lavorato alla realizzazione di meccanismi di trattamento più o meno automatizzato della giurisprudenza, onde limitare contenziosi civili ripetitivi e di basso valore. Nei Paesi Bassi, il Governo porta avanti un progetto che prevede la gestione on line di casi di mediazione delle controversie civili (in materia di diritto della famiglia): Rechtwijzer è una piattaforma di consulenza presente a livello internazionale nelle politiche di promozione dello stato di diritto, che instaura la connessione tra utente mediatore e assistente legale in via digitale e dematerializzata; fornisce servizi di consulenza, mediazione in senso proprio, monitoraggio della fase esecutiva; dal 2015 ne è stata stabilita l’applicazione anche alle controversie riguardanti diritti di proprietà, controversie condominiali e controversie concernenti i servizi alla persona. Nel 2013, il Ministero della sicurezza e della giustizia dei Paesi Bassi, in cooperazione con il Consiglio per la giustizia, ha altresì previsto una procedura digitale obbligatoria per gli avvocati in materia civile e commerciale; la sperimentazione è in corso (8000 casi ad oggi sono stati gestiti in via telematica). In tutti i casi di richiesta di asilo sono state adottate procedure di case filing e case management telematiche. Nel settembre 2017 è stata iniziata una sperimentazione per tutte le procedure civili, obbligatoria in due sedi circondariali; il processo di completamento della fase attuativa dovrebbe avvenire nel 2020[43]. In Austria ci si avvale di strumenti di Intelligenza Artificiale nei tribunali per la lettura rapida, la classificazione e l’attribuzione di atti e documenti alle sezioni di cancelleria e anche per monitorare l’attività dei tribunali. In altri ordinamenti, come quello cinese, la Corte on line di Pechino (Beijing Internet Court) ha predisposto un centinaio di robot con il compito non di pronunciare sentenze, ma di affiancare il giudice nel processo decisionale. Tale giudice virtuale ha sembianze e voce femminili, e coadiuva il giudice umano nello svolgimento dei compiti più ripetitivi come la ricezione dei ricorsi, l’analisi giurisprudenziale su casistica con esiti simili, ciò per sgravare i magistrati delle attività più semplici e ripetitive, velocizzare i tempi processuali e anche realizzare una giustizia predittiva.

Dato che un calcolatore, impiegando gli algoritmi, è in grado di tener conto e interpretare tutti i dati giuridici e fattuali a disposizione, potrebbe, al termine di un trattamento informatico, valutare con una grande precisione la soluzione da dare a una controversia tenendo conto dei giudizi già resi in situazioni simili, attraverso un’analisi diagnostica e predittiva della giurisprudenza. La sua valutazione statistica sarebbe sicuramente migliore di quella di un essere umano e forse perfino, in termini statistici, infallibile[44]. Resta fermo che il giudice ha comunque un ruolo rilevante per valutare le prove e per decidere in che misura discostarsi dal responso dell’algoritmo, quindi gli algoritmi di Intelligenza Artificiale, che, anche quando effettuano previsioni sempre più precise, non configurano una decisione anticipata. Gli algoritmi sono strumenti di semplificazione e razionalizzazione del sistema, promuovono la calcolabilità giuridica in quanto è possibile con modelli matematici pervenire ad una interpretazione della legge prevedibile, e dunque rendere conoscibile ex ante l’esito dell’interpretazione della legge sul piano pratico; ad esempio per calcolare indennizzi in materia di licenziamenti, per emanare ingiunzioni per pagamento di somme non contestate, in controversie di sfratto, verrebbe meglio assicurata la garanzia dell’uguaglianza di trattamento: casi uguali verrebbero dall’algoritmo risolti con uguale esito e al giudice non resterebbe che controllare che i dati iniziali immessi nell’algoritmo siano completi, mirati, affidabili e corretti, e che le varie fasi del procedimento si siano correttamente compiute, permettendo al giudice di riservare più tempo a controversie complesse e in cui sia necessaria una maggiore discrezionalità (che gli algoritmi, a differenza del giudice, non possono garantire)[45].

Per quanto attiene al rispetto del principio dell’ “uguaglianza delle armi”, indispensabile per garantire un giusto processo, si possono porre dei problemi in relazione al fatto che l’utilizzo della giustizia predittiva richiede il ricorso a imprese che hanno elaborato software specifici e li sfruttano commercialmente. Questa attività si sviluppa in un contesto di liberalizzazione p>legaltech, a impadronirsi di tale nuovo mercato. Si tratta di imprenditori associati a informatici che sviluppano questi software, non giuristi né ancor meno il potere pubblico. Le conseguenze per l’uguaglianza delle armi sono importanti: solo chi ha i mezzi per pagarsi i servizi di queste imprese ne trae vantaggio. Gli utilizzatori più potenti possono così scegliere i risultati che sono loro favorevoli, utilizzando diversi software di giustizia predittiva, e negoziare con la controparte sulla base di tali risultati. Se la controparte non ha i mezzi per utilizzare software analoghi, ne risulterà una situazione privilegiata per il richiedente, dunque la rottura dell’uguaglianza delle armi. Inoltre, esiste il rischio che i software siano concepiti per i clienti più facoltosi: banche, grandi imprese, compagnie di assicurazione. I risultati sarebbero così falsati. Certamente, l’ineguaglianza è già presente in caso di controversia tra una parte forte (professionista, datore di lavoro o impresa), che può sollecitare molti pareri di avvocati, di fronte a una parte debole (consumatore, lavoratore salariato), che non può far fronte a spese equivalenti. Tuttavia c’è una differenza importante fra le due situazioni possibili: i risultati forniti dall’algoritmo di giustizia predittiva apparirebbero come evidenti e incontestabili, contrariamente ai pareri degli avvocati. Si sa che non è così: bisogna sempre interpretare le cifre e i risultati forniti da un software elaborato da uomini, che hanno tenuto conto di certe opinioni scartandone altre. Ma, è indubbio, l’apparente obiettività dei numeri fa impressione. Il rischio di ledere il principio di uguaglianza delle armi potrebbe essere scongiurato se la giustizia predittiva risultasse da un software unico, pubblico e gratuito, cosa che attualmente non avviene. Ma è auspicabile? Non è certo: un software unico presupporrebbe che si possa con certezza valutare i risultati futuri dei processi secondo un solo metodo. Questo non è soltanto tecnicamente discutibile, ma anche pericoloso, poiché la previsione/prevedibilità una e centralizzata tenderebbe a divenire la verità ufficiale, che influenzerebbe il giudice al punto di poterlo progressivamente sostituire[46]. Occorre pertanto rifuggire da una prospettiva manichea, che vede da un lato i giuristi fautori di una visione scettica e di un rifiuto anacronistico dell’uso degli algoritmi (nel timore si realizzino scenari come quelli prospettati nel film Minority Report[47]), dall’altro i giuristi fautori di un’accettazione incondizionata ed entusiasta degli algoritmi stessi per qualsiasi tipo di procedimento civile[48]. Trattandosi di una svolta epocale nel mondo del diritto e dell’amministrazione della giustizia, essa incute il timore di non essere pronti, e la preoccupazione per i rischi di una giustizia disumanizzata in cui l’uomo, giudice o avvocato, possa essere soppiantato dal robot, come nello scenario futuristico del romanzo Lex Humanoide, des robots et des juges.[49]. Ma, a ben vedere, il processo decisionale del giurista (e specialmente del giudice) non può essere sostituito da un algoritmo, da un’applicazione matematica che si sostituisca totalmente al giurista uomo, in quanto vi sono elementi che non sono prevedibili, come le clausole valoriali (ad es. l’interesse del minore, la buona fede) in una società post moderna[50] e “liquida”[51] come quella attuale, molto complessa e in continua evoluzione[52], in cui è richiesta più discrezionalità nell’applicazione della legge. Gli algoritmi possono essere invece inseriti gradualmente nel sistema giustizia per coadiuvare il giurista nell’attività di organizzazione del lavoro giudiziario, ad es. nella assegnazione dei fascicoli: una volta che viene reso disponibile l’algoritmo, la sua applicazione rende più automatica e veloce l’assegnazione dei procedimenti e permette di realizzare meglio la garanzia del giudice naturale. Gli algoritmi permettono anche di formalizzare regole di applicazione delle norme ai casi concreti, ma l’applicazione di tali regole non può prescindere dal giudice, che può modificare e decidere l’esito della controversia: si tratta di applicazioni di Intelligenza Artificiale cosiddetta “debole”, e non sembrano praticabili nel breve-medio termine applicazioni di Intelligenza Artificiale “forte”, alias un giudice robot[53], anche se alcune esperienze straniere come quella dell’Estonia a taluni potrebbero richiamare il fantasma del giudice robot[54]. Nel nostro ordinamento il giudice, anche in caso di utilizzo sempre più cospicuo e implementato dei cosiddetti sistemi di machine learning, resta la figura indispensabile, che consente di realizzare il percorso “tesi-antitesi-sintesi” di applicazione delle norme ai casi concreti, dopo aver esaminato, nel modo più veloce e accurato che le tecnologie consentono, i precedenti giurisprudenziali (pur avendo questi ultimi, come noto, nel nostro ordinamento e negli altri sistemi di Civil Law, portata persuasiva e non vincolante, a differenza dei sistemi di Common Law) e più autorevole sarà la sintesi, più efficace sarà il precedente giurisprudenziale[55]. In questa prospettiva, l’uso degli algoritmi di Intelligenza Artificiale riveste una funzione virtuosa per supportare un’applicazione del diritto meno potenzialmente fallace ed esposta ai rischi dell’errore umano[56] e soprattutto di calcolabilità giuridica[57]. Se gli algoritmi, che com’è noto si basano su regole logico-matematiche simili a quelle sillogistiche molto articolate, devono essere di supporto, essi devono operare senza margini di ambiguità e incertezza, rimanendo sempre sotto il controllo dell’uomo durante tutto il procedimento. Inoltre il giudice deve potersi discostare dagli esiti del programma di machine learning, dando in tal caso una esaustiva motivazione. La motivazione sarà ovviamente invece più concisa se si uniforma al risultato del programma[58], ma va scongiurato, come già precisato, il rischio di una cristallizzazione delle decisioni. Va rilevato altresì che, quando sia richiesta una evoluzione giurisprudenziale, ad esempio per la tutela di nuovi diritti, o per rispondere ai mutamenti culturali e sociali emergenti, nessun meccanismo di Intelligenza Artificiale potrà apprezzarli, perché in tal caso serve la sensibilità e la coscienza del giudice uomo, mentre un giudice robot non sarebbe in grado di valutare le varie sfumature della società in divenire, per dare una risposta di giustizia condivisa dalla collettività, prima ancora che un determinato principio si traduca in una norma giuridica positivizzata e quindi in una evoluzione del diritto scritto[59].

[31] In questi termini v. anche Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 227, l’a. rileva altresì che quando il programma predittivo annuncia una possibilità di successo vicina al 50%, c’è incertezza sul risultato della controversia e il ricorso al giudice è giustificato per mettervi fine.

[32] Del resto strumenti di giustizia, in senso lato, predittiva non sono nuovi nel nostro ordinamento, si pensi ad esempio all’art. 185 bis c.p.c., a norma del quale il giudice aiuta in anticipo le parti a capire quale è il ragionamento giurisprudenziale, che sta facendo, e a cosa può condurre anche al fine di portare le parti a un eventuale accordo: ad esempio tramite una soluzione transattiva o conciliativa (Buffone, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, 2a ed., 2018, tenutosi a Roma il 19/10/2018, in www.treccani.it.

[33] V. sul punto in toscana24.ilsole24ore.com.

[34] Schirò, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, 2a ed., 2018, tenutosi a Roma il 19/10/2018, in www.treccani.it.

[35] V. così v. Rottier, La Justice prédictive et l’acte de juger: quelle prévisibilité pour la justice?, in Archives de philosophie du droit , Dalloz, 2018, tome 60, pp. 188-193.

[36] Chiaravallotti, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, 2a ed., 2018, tenutosi a Roma il 19/10/2018, in www.treccani.it. Secondo Castelli-Piana, Giustizia predittiva. La qualità della giustizia in due tempi, in www.questionegiustizia.it (15-05-2018), “non si tratta di predire con esattezza puntuale il dispositivo di una sentenza, ma di individuare l’orientamento del ragionamento del giudice. Poiché tale ragionamento non ha mai la natura di un sillogismo lineare, ma si compone di passaggi analogici deduttivi induttivi, la predizione sarà focale e non puntuale”. Sull’utilizzo delle banchi dati come “miniera di dati”, in particolare in Italia della banca dati nazionale di giurisprudenza, legislazione e dottrina, attualmente denominata Italgiureweb e gestita dalla Corte Suprema di Cassazione mediante il CED (Centro elettronico di documentazione), si rinvia a Castelli-piana, Giustizia predittiva: La qualità della giustizia in due tempi, cit. (15-05-2018), e Id., Giusto processo e intelligenza artificiale, San Arcangelo di Romagna, p. 50 ss. e 115 ss.; v. anche Vincenti, Il “problema” del giudice-robot, in AA.VV., La decisione robotica, a cura di Carleo, cit., p. 112.

[37] In questi termini, Rouvière, Le raisonnement par algorithmes: le fantasme du juge robot, in RTD Civ., aprile-giugno 2018, pp. 530-532 (commento e recensione di tre opere: Meneceur, Quel avenir pour la “justice prédictive”? Enjeux et limites des algorithmes d’anticipation des décisions de justice, JCP 2018, p. 190; Ferrié, Les algorithmes à l’épreuve du droit à un procès équitable, JCP 2018, p. 297; Guérandier, Réflexions sur la justice prédictive, Gaz. Pal. 3 aprile 2018, p. 15; per ragioni diverse, gli autori recensiti sostengono che invece il ricorso a un giudice-robot è inquietante e poco auspicabile); v. ancheLasserreJustice prédictive et transhumanisme, Archives de philosophie du droit , Dalloz, 2018, tome 60, p. 297, il quale rileva che l’argomento della giustizia predittiva è uno degli argomenti di attualità più scottanti: la giustizia predittiva seduce in quanto promette una giustizia più sicura e migliore; tuttavia, la sua stessa denominazione, il suo utilizzo, i suoi simboli, la sua legittimità e i suoi effetti meritano di essere criticati e discussi.

[38] Ambrani Mekki, Justice judiciaire, justice amiable, justice numérique: des liasons dangereuses?, in Gazzette du Palais, n. 28, 31 luglio 2018.

[39] Buffone, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, cit.

[40] Si tratta di un software privato messo a punto da G. D’Aietti, ex Presidente del Tribunale di Sondrio, che consente, usando modelli matematici predittivi e oggettivi, di assicurare uguaglianza di trattamento, attraverso un approccio induttivo, sulla base dei fatti comunque allegati e provati dagli avvocati delle parti, onde evitare che, come spesso accade, anche se i redditi sono gli stessi, cambia l’ammontare dell’assegno di mantenimento. Il software Remida, basato sugli algoritmi, è stato di recente utilizzato anche dal Tribunale di Catania, sezione terza, sentenza del 26 febbraio 2019, inwww.lanuovaproceduracivile.com(n. 3/2019), per la quantificazione del danno biologico in un sinistro stradale. V. anche il progetto ancora in fieri elaborato in convenzione tra il Tribunale di Genova e la Scuola superiore S. Anna di Pisa, su cui v. Imperatore, Genova-Pisa: l’intelligenza artificiale vuole entrare in tribunale , in gNewsonline (GiustiziaNewsOnline. Quotidiano del Ministero della Giustizia), 18 Settembre 2019. Il fine del progetto è quello di effettuare un’analisi delle tendenze in un periodo dato per estrarre gli orientamenti giurisprudenziali che emergono. “Si potranno così stabilire al termine della ricognizione e della rielaborazione dei dati, quali siano le soluzioni prevalenti e quali quelle minoritarie, in presenza di presupposti di fatto comuni e determinati. Questo risultato iniziale dell’indagine sarà d’interesse soprattutto per i giudici, che avranno così a disposizione dati sintetici e analitici per valutare la correttezza delle proprie decisioni, l’esistenza o meno di orientamenti dominanti per comprendere la ragione e l’eventuale incoerenza di queste ultime”. Si sottolinea come “più le decisioni dei giudici sono coerenti tra loro, più risultano prevedibili gli esiti delle cause intraprese dai cittadini. Scontate diventano così le ricadute in termini di riduzione del contenzioso e possibilità di soluzioni concordate tra le parti in causa. Si partirà da tre casi di studio: le sentenze in materia di separazione e divorzio; quelle che quantificano i risarcimenti dei danni non patrimoniali; tra queste, specificamente, quelle di risarcimento del danno da stress e da mobbing lavorativo. Il passaggio ulteriore sarà prevedere come il giudice deciderà in presenza di situazioni identiche o analoghe a quelle analizzate”. Nella stessa prospettiva di creare banche dati anche su pronunce di merito, estraendo dai provvedimenti non solo la massima, ma anche l’illustrazione degli elementi caratterizzanti il caso concreto, a fini di giustizia predittiva, si colloca l’interessante progetto, già in essere, della Corte d’appello di Brescia, in collaborazione con la locale Università. Come ha sottolineato il Presidente della Corte, Claudio Castelli (anche coautore con D. Piana dell’opera Giusto processo e intelligenza artificiale, cit.) l’obiettivo è la creazione di una banca dati il più “smart” possibile e allo stato dell’arte, con la raccolta, per ora, di tutti i provvedimenti emanati dal 2018 in poi in specifici ambiti: le materie assegnate alla competenza del tribunale delle imprese, gli appalti, i contratti bancari, e il lavoro con specifico riguardo a rapporto di lavoro, infortunistica, licenziamenti.

[41] Così, testualmente, Nieva fenoll, Inteligencia artificial y proceso judicial, 2018, traduzione in italiano di P. Comoglio, Intelligenza artificiale e processo, cit., p. 14.

[42] V., ancora, Nieva fenoll, Inteligencia artificial y proceso judicial, 2018, traduzione in italiano di P. Comoglio, Intelligenza artificiale e processo, cit., p. 14.

[43] V. in argomento, Castelli-Piana, Giustizia predittiva, La qualità della giustizia in due tempi, in www.questionegiustizia.it, 15-05-2018; Id., Giusto processo e intelligenza artificiale, cit., 100 ss.; Covelli, Dall’informatizzazione della giustizia alla “decisione robotica”. Il giudice di merito, in AA.VV., La decisione robotica, a cura di Carleo, cit., p. 129.

[44] Garapon-Lassègue, Justice digitale, cit., p. 136; Jeuland, Justice prédictive: de la factualisation au droit potentiel, RPPI, ottobre 2017, n. 2. p. 15 ss.

[45] Contra Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 228, secondo cui il principio di uguaglianza delle armi che protegge i diritti delle parti rischia di essere intaccato.

[46] Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 230.

[47] Minority Report è un film del 2002 diretto da Steven Spielberg, liberamente tratto dall’omonimo racconto di fantascienza scritto nel 1956 da Philip K. Dick. Vi si immagina che in un ipotetico futuro l’umanità abbia completamente eliminato gli omicidi e la maggior parte delle azioni criminali grazie all’istituzione della polizia Precrimine, che utilizza tre veggenti in grado di prevedere il futuro e riesce così a sventare i crimini prima che questi possano essere commessi. Non viene pertanto punito il crimine, che non avviene, bensì l’intenzione di compierlo, che porterebbe a concretizzarlo. Ma si scopre che a volte uno dei veggenti fornisce un rapporto discorde dagli altri due, e che, quando ciò accade, il rapporto di minoranza viene arbitrariamente scartato per non inficiare pubblicamente l’affidabilità del sistema.

[48] V. in argomento, Nieva Fenoll, Intelligenza artificiale e processo, con prefazione e traduzione italiana di P. Comoglio, Torino, 2019, passim, e Castelli-Piana, Giusto processo e intelligenza artificiale, cit., passim.

[49] Janot, Lex Humanoide, des robots et des juges, Thot, 2017, passim. In tale romanzo si immagina che, nel 2030, la giustizia sia gestita da CUJAS, un sistema esperto che ha sostituito i giudici umani, troppo soggettivi. Il ruolo degli avvocati si limita all’inserimento dei dati e le decisioni vengono prese in conformità al principio di “equità statistica”. Ma qualcuno teme che il sistema esperto miri ad ottenere l’equiparazione delle macchine con i vivi per far loro acquisire gli stessi diritti, e indagando in proposito scopre che CUJAS ha arbitrariamente e autonomamente manipolato i suoi database di riferimento.

[50] Lyotard, La condition postmoderne. Rapport sur le savoir, Les editions de minuit 1979, passim.

[51] Bauman, Modernità liquida, Roma-Bari, 2002, passim.

[52] V. sul punto anche corasaniti, in L’indiscreto fascino della giustizia predittiva: il decalogo dei giuristi italiani. Intelligenza artificiale, algoritmi e tutela dei diritti, a cura di C. Morelli, in www.altalex.com (15/10/2018), secondo cui l’”evento deve essere letto, interpretato e tradotto in linguaggio macchina in modo il più possibile fedele”. Inoltre la macchina replica attraverso analisi di precedenti ma non può sostituire i “sentimenti” umani” o tener conto di tutte le variabili che sono proprie del nostro ordinamento.

[53] Schirò, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, cit.

[54] L’Estonia si è affidata ad un interessante progetto tecnologico, e-Estonia, tramite il quale sono stati digitalizzati tutti i servizi per i cittadini in un’unica piattaforma denominata X-Road: tutti i dati di ogni cittadino confluiscono su tale piattaforma, a cui si accede mediante una carta di identità elettronica. L’Estonia ha voluto anche sperimentare dei robot che esercitino la funzione di giudici per risolvere le controversie di minore entità, fino a € 7000, 00, onde smaltire l’arretrato. “Il Ministero della Giustizia estone ha costituito un pool di esperti con il compito di creare un sistema di Intelligenza Artificiale in grado di svolgere la funzione di giudice; il sistema ideato prevede che le parti carichino atti e documenti su una piattaforma, per poi lasciare ad un algoritmo la decisione sulla questione, fatta salva la possibilità di fare appello ad un giudice umano”, in questi termini, Bassoli, L’intelligenza artificiale applicata alla giustizia: i giudici-robot, in www.altalex.com (7/06/2019).

[55] Sandulli, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, 2a ed., 2018, tenutosi a Roma il 19/10/2018, in www.treccani.it; sul valore del precedente in una prospettiva di circolarità della giurisprudenza come requisito di qualità v. Castelli-Piana, Giustizia predittiva, La qualità della giustizia in due tempi, cit., il quale sottolinea condivisibilmente come “È massimamente auspicabile che il giudice si avvalga del massimo grado di libertà possibile e di autonomia da ogni forma di indebita influenza per giudicare e dirimere una controversia […] E tuttavia saremmo molto poco favorevoli ad accettare l’dea che senza delle ragioni forti ed intellegibili dinnanzi a casi simili […] i giudizi divergano in modo evidente ed immotivato da un caso ad un altro”.

[56] Così anche Mattera, Decisione negoziale e giudiziale: quale spazio per la robotica?, in NLCC, 2019, p. 196 ss., spec. p. 200.

[57] Carleo (a cura di), La calcolabilità giuridica, Bologna, 2017, passim; Carleo (a cura di), Il vincolo giudiziale del passato. I precedenti, Bologna, 2018, passim; v. anche Morera, Il giudice e l’esigenza di un diritto dell’economia “calcolabile”, in Analisi giur. dell’economia, 2018, p. 269 ss., in cui si insiste sull’uso degli algoritmi di I.A. anche per prevenire possibili errori giudiziari; ritiene che il diritto sia incalcolabile invece Irti, Un diritto incalcolabile, Torino, 2016, passim, spec. p. 8 ss., l’illustre autore sostiene che il “funzionamento calcolabile delle norme è ormai in piena crisi” per “l’irruzione dei criteri di giudizio nella decisione”, per “l’incontrollabile soggettivismo della decisione”, soprattutto quando il giudice è chiamato a “pensare e decidere per valori”. V. anche Id., Per un dialogo sulla calcolabilità giuridica, in Riv. dir. proc., 2016, p. 917 ss.; cfr., anche per i riferimenti bibliografici, Passanante, Il precedente impossibile. Contributo allo studio del diritto giurisprudenziale nel processo civile, Torino, 2018, passim; De la Oliva Santos, “Giustizia predittiva”, interpretazione matematica delle norme, sentenze robotiche e la vecchia storia del “Justizklavier”, cit., p. 894 s., esprime la sua netta contrarietà all’uso della giurisprudenza come fonte del diritto.

[58] V. De Gioia, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, 2a ed., 2018, tenutosi a Roma il 19/10/2018, in www.treccani.it.

[59] V. anche in questo senso Schirò, Relazione al Convegno organizzato dall’Istituto Enciclopedia Treccani di Presentazione del volume di Luigi Viola, Interpretazione della legge con modelli matematici, cit.; predilige una “giustizia fluida” rispetto a una “giustizia logica” Dalfino, Stupidità (non solo) artificiale, predittività e processo. Alcune considerazioni critiche a partire dallo studio di Jordi Nieva Fenoll su Intelligenza artificiale e processo, in www.questionegiustizia.it, 03-07-2019; ritiene “calcolabile” anche la decisione per valori, laddove i “valori siano misurabili”, Calcaterra, Machinae autonome e decisione robotica, in AA.VV., La decisione robotica, a cura di Carleo, cit., p. 57 ss., spec. p. 61; con riguardo alla componente valoriale il diritto resta invece, come già precisato, non computabile e “incalcolabile”, secondo Irti, Un diritto incalcolabile, cit., p. 8 ss.

3. Riflessioni conclusive

Nelle pagine che precedono si è cercato di mettere in luce come la giustizia civile predittiva porti con sé trasformazioni rilevanti, ma ambivalenti, ma che sicuramente essa consente sviluppi positivi per la qualità e l’efficienza della giustizia. è stato evidenziato in questo scritto che gli algoritmi predittivi, basati sull’apertura a tutti i cittadini delle decisioni delle autorità giudiziarie, graduale ma comunque massiccia (e si auspica anche gratuita in Italia, come in Francia, nel breve-medio termine), mirano ad accelerare la risoluzione delle controversie e ad aumentare l’efficienza e la certezza del diritto, migliorando la prevedibilità delle decisioni di giustizia. Infatti, con il loro uso, i giudici avranno una migliore conoscenza delle pratiche giurisdizionali dei loro colleghi e gli avvocati saranno in grado di determinare con maggiore precisione le probabilità di successo di un procedimento giudiziario, nonché di valutare le migliori strategie difensive. Inoltre algoritmi predittivi “aperti”, nel senso precedentemente descritto, dovrebbero promuovere l’accesso al diritto e all’uguaglianza nei tribunali, nonché la stabilizzazione, l’armonizzazione e la coerenza della giurisprudenza[60], mentre l’uso di algoritmi per l’elaborazione dei casi più ripetitivi e più semplici, ad esempio quelli che richiedono solo la valutazione del danno, o l’applicazione di una scala o di una griglia predeterminata, incoraggerebbe la risoluzione di molte controversie a monte del ricorso al giudice, utilizzando modalità alternative di risoluzione delle stesse come la mediazione-conciliazione. Inoltre riducendo il tempo speso per la ricerca normativa e giurisprudenziale sulla base di problemi fattuali e legali comparabili, l’uso di algoritmi consentirebbe ai giudici di svolgere i compiti più dispendiosi in termini di tempo e poter così esaminare accuratamente questioni nuove o complesse. La giustizia predittiva “favorirebbe quindi la rifocalizzazione dei giudici sui casi per i quali la loro esperienza apporta un maggiore valore aggiunto”[61]. Occorre però, come segnalato, fare attenzione al fatto che i progressi tecnologici non dovrebbero oscurare i rischi per l’ufficio del giudice e l’accesso alla giustizia. Il rischio derivante dall’uso di un software predittivo è che il giudice, sotto l’effetto della sorveglianza risultante da un trattamento massiccio delle decisioni giudiziarie, perda la sua libertà di apprezzamento e indipendenza e preferisca conformarsi all’opinione dominante o maggioritaria dei suoi pari. Tuttavia, la caratteristica della giustizia è che ogni caso viene esaminato per quello che è, con la sua quota di originalità e complessità irriducibile e che non può essere sistematizzata dal software. Infatti, anche in contenziosi di massa o altamente ripetitivi, l’esperienza personale e professionale e la capacità dei giudici restano essenziali, mentre gli algoritmi sono programmati per eseguire attività mirate, basate su un’ampia serie di dati[62], e non sono in grado di rispondere a domande aperte o di decidere su questioni giuridiche di propria iniziativa. Ciò che il giudice comprende della gerarchia delle norme e dei rapporti tra i sistemi giuridici nazionali ed europei, un algoritmo non pare in grado di coglierlo. Questa è la ratio per cui, come ho rilevato in questo scritto, il giudice deve rimanere padrone della questione sia per quanto attiene all’interpretazione del risultato dato dagli algoritmi, sia per quanto riguarda le conseguenze che devono essere tratte da essi[63]. D’altra parte, se la prevedibilità della legge è necessaria, non deve congelare la giurisprudenza, renderla solo retrospettiva, ma accompagnare le evoluzioni legislative, economiche e sociali, e giudicare anche secondo valori, quando necessario. I giudici devono rimanere liberi di deviare dagli orientamenti giurisprudenziali maggioritari, per quanto ripetuti e amplificati dai risultati prodotti dagli algoritmi, contro i quali qualsiasi decisione “atipica”, anche se giustificata, potrebbe sembrare inaccettabile se non è motivata in modo particolareggiato e completo[64]. Inoltre mi pare imprescindibile che gli algoritmi e la giustizia predittiva vengano utilizzati nel rispetto dei principi fondamentali della giustizia e, in particolare, di quelli del giusto processo. I giudici devono poter continuare ad esercitare il loro libero convincimento e mantenere la loro indipendenza. Anche i principi che inquadrano il ruolo del giudice, in particolare i principi di indipendenza e imparzialità del giudice, potrebbero essere altrimenti sovvertiti, così come l’ufficio del giudice: l’art. 6 della Convenzione europea dei diritti dell’uomo enuncia che il giudice deve essere indipendente e imparziale. L’indipendenza del giudice deve essere assicurata riguardo a pressioni esterne[65]. Questi deve dunque essere innanzitutto indipendente da ogni potere, e poi essere imparziale, vale a dire non essere a priori favorevole a una delle parti. È l’indipendenza del giudice che è più minacciata dalla giustizia predittiva, non riguardo al potere esecutivo e legislativo, ma al potere di fatto che alla tecnologia è associato e, in particolare, al potere delle imprese che concepiscono i software di giustizia predittivae li commercializzano – imprese che non perseguono l’interesse generale, ma interessi privati, puramente economici[66].

Inoltre, nell’ordinamento italiano il giudice decide la controversia conformemente alle regole del diritto che sono applicabili. Il compito del giudice civile – ma l’analisi può essere estesa in gran parte a qualunque giudice – è quello di esaminare la domanda in fatto e in diritto riguardo agli argomenti delle parti, individuare la regola di diritto che si applica a questi fatti e poi applicare questa regola ai fatti a fondamento della controversia. Compito del giudice è dunque quello di risolvere la controversia secondo il diritto applicabile[67]. Con la giustizia predittiva il giudice prende conoscenza, direttamente o attraverso le parti, delle statistiche elaborate a partire da soluzioni che sono quelle delle giurisdizioni che hanno già deciso controversie in casi simili, e conosce la soluzione più probabile secondo le decisioni precedenti. Potrebbe risultarne una trasformazione dell’ufficio del giudice legato alla “fattualizzazione” del diritto, alla modifica del suo ragionamento intellettuale e infine alla riduzione del suo intervento[68]. Lo sviluppo di algoritmi predittivi non deve comportare il sostituirsi dell’Intelligenza Artificiale al giudice uomo. Quest’ultimo non può, e a parere di chi scrive non deve, essere sostituito neanche a lungo termine, e l’analisi statistica e algoritmica non può essere utilizzata come pretesto per un comportamento mimetico non pensante[69]. L’Intelligenza Artificiale e l’intelligenza umana devono combinarsi e rafforzarsi a vicenda, poiché la prima non può pretendere di sostituire l’altra[70]. Il sostegno dell’intelligenza umana è tanto più essenziale in quanto l’attuale tasso di sicurezza degli algoritmi predittivi non sembra, al momento, superiore al 70%, un valore che non è così elevato da giustificare certezze[71]. Inoltre, l’uso di algoritmi deve essere basato sui principi di neutralità e di trasparenza. La neutralità degli algoritmi non può essere presunta. I risultati proposti dal software predittivo non si limitano a fornire informazioni disincantate, ma agiscono come un segnale: quello di una tendenza o interpretazione di maggioranza, che poi ha la vocazione di influenzare il processo decisionale dei giudici. Dobbiamo quindi riflettere sul fatto che l’utilizzo di algoritmi è probabilmente performativo ovvero auto-avverante, o addirittura dirompente. Di conseguenza, a maggior ragione, la metodologia utilizzata nell’elaborazione dei dati disponibili in dati aperti deve essere esplicita e trasparente[72], in modo che il giudice e le parti possano confrontare e discutere del contenuto e dei risultati degli algoritmi e non limitarsi a subirne passivamente i risultati. La tracciabilità e la regolamentazione degli algoritmi devono essere, per quanto possibile, assicurati o almeno seriamente ricercati[73]. Si veda in proposito la sentenza Cons. Stato, 8 aprile 2019, sezione VI, n. 2270, sul problema della necessità di garantire il controllo umano in tutte le fasi di sviluppo dell’algoritmo ed ex post, e quindi la trasparenza nell’uso degli algoritmi: l’algoritmo, se non formulato in modo comprensibile, spesso agisce come una black box per pervenire a un determinato esito e quindi occorre conoscerne e verificarne il contenuto e gli effetti; deve perciò essere semplice per essere compreso e controllabile anche dai giuristi, e non solo da esperti informatici, avvalendosi di un approccio interdisciplinare, integrato e sistemico all’Intelligenza Artificiale[74]. Non deve essere segreto, altrimenti può contenere errori volontari o involontari e vulnerare diritti o creare discriminazioni e disparità di trattamento di casi uguali, a cui consegue un esito diverso[75]. Come evidenzia la Risoluzione del Parlamento europeo del 12 febbraio 2019[76] su “Una politica industriale europea globale in materia di robotica e di intelligenza artificiale”, l’alfabetizzazione digitale può “favorire una partecipazione ampia e inclusiva alle soluzioni di economia dei dati e agevolare la comunicazione e la collaborazione con tutte le parti interessate”[77]. Occorre quindi cogliere le opportunità offerte dall’Intelligenza Artificiale nel sistema giustizia, pur sapendo essere molto vigili sull’inviolabilità dei principi di una giustizia, che, direi, deve restare antropocentrica, indipendente, imparziale, trasparente ed equilibrata, che deve evitare qualsiasi automatismo e tatticismo e che non deve dipendere da modelli economici o piani aziendali privati, rispettabili ma né disinteressati, né neutrali. Come procedere in questa direzione? Un paradigma ci viene dato dalla sopra citata Risoluzione del Parlamento europeo, che prospetta una visione umano-centrica dell’Intelligenza Artificiale e sottolinea che lo sviluppo della robotica e dell’Intelligenza Artificiale dovrebbero mirare ad integrare le capacità umane e non a sostituirle.

Quanto agli scenari futuri, va segnalato l’approccio dell’Unione Europea all’Intelligenza Artificiale e il suo recente tentativo di garantirne uno sviluppo antropocentrico etico e trasparente anche attraverso l’adozione da parte della Commissione europea delle “Ethics Guidelines for Trustworthy Artificial Intelligence” (Piano coordinato sulla Intelligenza artificiale, c.d. Linee guida/Orientamenti etici U.E. in materia di Intelligenza Artificiale) del 7 dicembre 2018[78]. La Commissione europea sta adottando un approccio articolato in tre fasi: definizione dei requisiti fondamentali per un’Intelligenza Artificiale affidabile, avvio di una fase pilota su larga scala per raccogliere le osservazioni delle parti interessate (fase attuale), e successivo impegno volto al raggiungimento di un consenso internazionale per un’Intelligenza Artificiale antropocentrica, perché le tecnologie, i dati e gli algoritmi non conoscono frontiere. Per questo la Commissione europea rafforzerà la cooperazione con i partner che condividono gli stessi principi, come il Giappone, il Canada e Singapore. Inoltre per garantire lo sviluppo etico dell’Intelligenza Artificiale, la Commissione, entro l’autunno del 2019, attiverà reti di centri di eccellenza per la ricerca sull’Intelligenza Artificiale applicata, inizierà la creazione di reti di poli dell’innovazione digitale e, insieme agli Stati membri e alle parti interessate, avvierà discussioni per sviluppare e attuare un modello per la condivisione dei dati e per usare nel migliore dei modi gli spazi di dati comuni. In seguito, all’inizio del 2020, dopo la fase pilota e alla luce delle osservazioni ricevute, il gruppo di esperti sull’Intelligenza Artificiale riesaminerà le liste di controllo relative ai requisiti fondamentali. Sulla base di questo riesame, la Commissione valuterà i risultati ottenuti e proporrà eventuali tappe successive [79]. La finalità dei sopra citati Orientamenti etici dell’UE per lo sviluppo di un’intelligenza artificiale antropocentrica (c.d. Linee guida) è quella di dare le direttive indispensabili per sviluppare una Intelligenza Artificiale “affidabile” (“trustworthy“), in conformità alla legge, e specialmente ai Trattati dell’U.E., alla Carta dei Diritti Fondamentali dell’Unione Europea e al diritto internazionale dei diritti umani, nel rispetto dei principi etici. In particolare, le Linee guida delineano sette principi fondamentali che i sistemi di Intelligenza Artificiale dovrebbero osservare:

1. Azione e sorveglianza umane: i sistemi di Intelligenza Artificiale dovrebbero incentivare lo sviluppo di società eque sostenendo l’azione umana e i diritti fondamentali, e non dovrebbero ridurre, limitare o sviare l’autonomia dell’uomo[80].

2. Robustezza e sicurezza: è necessario che gli algoritmi, alla base di una Intelligenza Artificiale affidabile,siano sicuri, nonché abbastanza robusti per fronteggiare possibili errori o incongruenze durante tutte le fasi del ciclo di vita dei sistemi di Intelligenza Artificiale. Occorre in altre parole identificare i difetti di sicurezza e i rischi del tool e del sistema informativo, intrinseci (ad es. la riservatezza e l’accesso ai dati) ed estrinseci (ad es. la cybersecurity del sistema)[81].

3. Riservatezza e governance dei dati:i cittadini dovrebbero avere il pieno controllo dei propri dati personali e, nel contempo, i dati che li riguardano non devono essere utilizzati per danneggiarli o discriminarli[82]. Anche la Risoluzione del Parlamento europeo del 12 febbraio 2019 insiste sulla necessità di “applicare le procedure per garantire il consenso valido, la riservatezza, l’anonimato il trattamento equo e il giusto processo”. Attualmente in Francia, nell’articolo 33 della legge n. 2019/222, che concerne la supervisione e armonizzazione delle regole di divulgazione delle decisioni giudiziarie, viene previsto il divieto di profilazione dei giudici[83]. Il divieto opera sia per la giustizia ordinaria sia per quella amministrativa. Inoltre, al fine di conciliare la pubblicità delle decisioni giudiziarie e il diritto al rispetto della vita privata, è previsto che “Fatte salve le disposizioni speciali che regolano l’accesso e la pubblicità delle decisioni giudiziarie, le sentenze dei tribunali sono messe a disposizione del pubblico gratuitamente in formato elettronico. I cognomi e i nomi delle persone fisiche menzionati nella decisione, quando sono parti o terzi, sono oscurati prima della messa a disposizione del pubblico. Quando la sua divulgazione potrebbe minare la sicurezza o il rispetto della privacy di queste persone o del loro entourage, viene anche nascosto qualsiasi elemento che consenta di identificare le parti, i terzi, i magistrati e i cancellieri. I dati identificativi dei magistrati e dei cancellieri non possono essere riutilizzati con lo scopo o l’effetto di valutare, analizzare, confrontare o prevedere le loro pratiche professionali effettive o presunte”.

4. Trasparenza: dovrebbe essere garantita la tracciabilità dei sistemi di Intelligenza Artificiale lungo l’intero ciclo di sviluppo.

5. Diversità, non discriminazione ed equità: i sistemi di Intelligenza Artificiale dovrebbero tener conto dell’intera gamma delle capacità, delle competenze e dei bisogni umani ed essere accessibili.

6. Benessere sociale e ambientale: i sistemi di Intelligenza Artificiale dovrebbero essere utilizzati per promuovere i cambiamenti sociali positivi ed incrementare la sostenibilità e la responsabilità ecologica.

7. “Accountability“: dovrebbero essere stabiliti meccanismi che garantiscano la responsabilità e l’accountability dei sistemi di Intelligenza Artificiale e dei loro risultati, nonché adeguati meccanismi di ricorso e risarcimento, in modo che i cittadini possano fidarsi delle tecnologie di Intelligenza Artificiale.

Con specifico riferimento all’ambito della giustizia, di recente (il 3-4 dicembre 2018), è stata adottata la “Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement” emanata dalla Commissione Europea per l’Efficienza della Giustizia (Commission europeenne pour l’efficacité de lajustice – CEPEJ) del Consiglio d’Europa[84]. Tale Commissione, nella sopra citata “Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia e in ambienti connessi”, ha enunciato i seguenti importanti principi:

1.Principio del rispetto dei diritti fondamentali: assicurare una progettazione e un’implementazione di nuovi strumentie servizi di Intelligenza Artificiale che siano compatibili con i diritti fondamentali[85].

2. Principio di non discriminazione: prevedere in particolare la creazione o il rafforzamento di qualsiasi forma di discriminazione tra individui o gruppi di individui.

3. Principio di qualità e sicurezza: per quanto concerne il trattamento delle decisioni giurisdizionali e dei dati giudiziari, utilizzare fonti certificate e dati immateriali con modelli progettati in modo multidisciplinare, in un ambiente tecnologico sicuro.

4. Principio di trasparenza, neutralità e integrità intellettuale: rendere le metodologie di elaborazione dei dati accessibili e comprensibili, autorizzando audit esterni di autorità o esperti indipendenti.

5) Principio di padronanza da parte dell’utente: impedire un approccio deterministico e consentire all’utente degli strumenti informatici di essere un soggetto informato e padrone delle sue scelte.

In questo scenario di riferimento, soprattutto il giudice dovrebbe poter controllare in qualsiasi momento le decisioni giudiziarie e i dati che sono stati usati per perseguire un risultato, nonché continuare ad avere la possibilità di discostarsi dalle soluzioni proposte dagli algoritmi di Intelligenza Artificiale, tenendo conto delle peculiarità dei casi a lui sottoposti. Ogni utente dovrebbe essere altresì informato, in un linguaggio chiaro e comprensibile, delle soluzioni proposte dagli strumenti di Intelligenza Artificiale, delle diverse opzioni disponibili e del suo diritto all’assistenza di un avvocato e al ricorso a un tribunale. La Carta etica della CEPEJ individua dei principi che costituiscono un’importante base di confronto per valutare le caratteristiche delle differenti applicazioni di Intelligenza Artificiale, tuttora in fase di sperimentazione nel sistema giudiziario, e auspica che questi principi divengano un punto di riferimento concreto per gli operatori e i professionisti del diritto, le imprese private (start-up attive sul mercato delle nuove tecnologie applicate ai servizi legali, le legaltech), le autorità pubbliche che si trovano ad affrontare la sfida di integrare le nuove tecnologie basate sull’Intelligenza Artificiale nelle politiche pubbliche o nella loro attività quotidiana. La CEPEJ rileva fin dall’inizio che l’uso di strumenti e servizi di I.A. nei sistemi giudiziari è volto a migliorare l’efficienza e la qualità della giustizia e merita di essere incoraggiato. Tuttavia, ciò deve avvenire in modo responsabile, nel rispetto dei diritti fondamentali[86]. Occorre infatti sempre porre attenzione all’impatto che l’utilizzo di algoritmi, in particolare di machine learning, possono avere sui diritti fondamentali delle persone. La normativa vigente, nel fare riferimento al diritto di ogni persona che la sua causa sia esaminata da parte di un “tribunale indipendente ed imparziale” (art. 6, comma 1, della Convenzione per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali) e nel prevedere che ogni processo debba svolgersi davanti ad un “giudice terzo e imparziale” (art. 111, secondo comma, Cost.), esclude che si possa prospettare una giustizia, e soprattutto una decisione, esclusivamente robotica. Peraltro, la Carta etica europea del 2018 – come precedentemente ricordato – ammette l’uso dell’Intelligenza Artificiale nei sistemi di giustizia, ma solo sotto il controllo umano. Occorre, in conclusione, cogliere le opportunità e il valore aggiunto offerti dall’ Intelligenza Artificiale anche nell’ambito giudiziario, ma nella consapevolezza dei rischi e facendo in modo che la società effettui delle scelte che privilegino i valori umani, secondo una visione antropocentrica dell’ Intelligenza Artificiale, attraverso un “utilizzo inclusivo ed etico dell’Intelligenza Artificiale”, con “chiare norme anche in merito a responsabilità ed equità”, come ben evidenzia la sopra citata Risoluzione del Parlamento europeo del 12 febbraio 2019. Ne va della libertà! I principi fondamentali del processo sono dei bastioni contro taluni pericoli della giustizia predittiva, che deve essere un’opportunità, un ausilio per il giudice, non un suo sostituto. Conviene allora reinterpretare il kantiano sapere aude nell’uso dell’Intelligenza Artificialeedessere vigili nel pilotare con efficacia la trasformazione della giustizia, dando delle regole nel senso sopra descritto alla giustizia predittiva e, più in generale, nell’applicazione degli algoritmi in un settore delicato, come quello della giustizia. Certamente la giustizia digitale comporta la necessità di governare le tecnologie, ponendole al servizio dell’uomo e non viceversa, per trattare quantità di dati inimmaginabili senza l’utilizzo delle stesse, e per far entrare nelle aule giudiziarie un livello inedito di conoscenza. Nessuna “giustizia rimpiazzata”, quindi, ma una “giustizia aumentata”, che determina una giustizia “ripensata”, fermo restando che l’atto del giudicare deve restare una inderogabile prerogativa umana, in quanto è una funzione molto più complicata della mera applicazione della norma[87].

[60] V. anche in questa prospettiva l’autorevole posizione espressa da Sauvé (Vicepresidente del Conseil d’État francese) il 12 febbraio 2018, La justice prédictive ,in www.conseil-etat.fr . L’articolo è scritto in collaborazione con S. Houllier, magistrato amministrativo.

[61] In questi termini, Sauvé, La justice prédictive ,cit.

[62] Villani, Intervista a Le Figaro, 19 gennaio 2018, L’Europa può raccogliere la sfida dell’intelligenza artificiale.

[63] Rouvière, La giustizia predittiva, versione moderna della sfera di cristallo, in RTD Civ., 2017, p. 527.

[64] Buat-Menard e Gambiasi, La memoria digitale delle decisioni giudiziarie. I dati apertidelle decisioni giudiziarie della magistratura, in Recueil Dalloz, 2017, p. 1483.

[65] Tavernier, Les grands arrêts du droit des libertés fondamentales, Dalloz, 2017, n. 5, p. 29 p>et alii, Droit processuel, 9 éd., Dalloz, 2017, n. 340, p. 858.

[66] In questi termini, Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 230 ss., il quale nota che le previsioni avranno molto probabilmente un impatto sul giudizio, un effetto “performatif“, “performativo”. Dal momento che l’algoritmo indicherà una soluzione prevedibile o probabile, il giudice ne sarà certamente influenzato. Lo sarà tanto più quanto più la probabilità indicata sarà alta. Per sicurezza, conformismo e volontà di essere valutato bene, avrà la tendenza a conformarsi a questa previsione. Vi è il rischio che decida una controversia non in funzione di quel caso particolare o della fattispecie che gli è sottoposta, ma in funzione delle statistiche. Per evitare questi “attacchi” ai principi di indipendenza e imparzialità, i poteri pubblici devono inquadrare le funzioni della giustizia predittiva, limitandola a un ruolo di aiuto all’informazione e rifiutando di tenerne conto per la gestione dell’istituzione giudiziaria e della carriera dei magistrati.

[67] V. per tutti, Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 233; Chainais, Hess, Saletti e J.-F. Van Drooghenbroeck (dir.), L’office du juge. Ėtude de droit comparé, Bruxelles, Bruylant, 2017, passim.

[68] V., ancora, Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 233.La fattualizzazione del diritto risulta prima di tutto dal modo in cui sono trattati i dati dai programmi di giustizia predittiva. Tutti gli elementi sono messi sullo stesso piano e trasformati in dati informatici, che si tratti di dati giuridici o di dati fattuali di ogni fattispecie. Questa codificazione iniziale permette di trattarli e di fare dei raffronti per trarne delle statistiche. Il fatto e il diritto sono ridotti al rango di informazioni e il diritto diviene un fatto come un altro, Croze, “La factualisation du droit“, JCP 2017, 101; v. anche Jeuland, “Justice prédictive: de la factualisation au droit potentiel“, RPPI 2017, Dossier 9. Vi è in questo una potenziale e importante modifica dell’ufficio del giudice: allorché il giudice ha normalmente per missione di ricercare il diritto applicabile (secondo l’art. 12 del c.p.c. francese, come nota Cholet, La justice prédictive et les principes fondamentaux du procès civil, cit., p. 233), mentre le parti hanno per ruolo di portare i fatti (secondo l’art. 6 del medesimo c.p.c. francese),la giustizia predittiva sconvolge questo schema poiché i fatti e il diritto non esistono più in quanto categorie distinte.

[69] Garapon, Le sfide della giustizia predittiva, in JCP G., 9 gennaio 2017, nota 4, p. 31.

[70] Così giustamente osserva Villani, L’Europa può raccogliere la sfida dell’intelligenza artificiale, cit.

[71] Rapport Institut Montaigne, Justice: faites entrer le numérique, in http://www.institutmontaigne.org/ressources/pdfs/publications/justice-faites-entrer-le-numerique-rapport.pdf,novembre 2017.

[72] Così anche SauvéLa justice prédictive,cit.

[73] V. ancora Sauvé, La justice prédictive,cit., in cui l’a. ben sottolinea che occorre garantire pure la neutralità e la completezza delle fonti giurisprudenziali utilizzate nel contesto dell’uso di algoritmi. Infatti, ci sono asimmetrie problematiche tra le parti che il giudice non è sempre in grado di correggere. L’a. rileva altresì, condivisibilmente, che, affinché i giudici e gli avvocati possano continuare a farsi strada attraverso informazioni esaustive e interattive, è necessario mantenere una certa gerarchia di giurisprudenza, che non deve cancellata dall’uso degli algoritmi di I.A.

[74] V. anche Garapon-Lassègue, Justice digitale, cit., passim.

[75] V. Dalfino, Stupidità (non solo) artificiale, predittività e processo. Alcune considerazioni critiche a partire dallo studio di Jordi Nieva Fenoll su Intelligenza artificiale e processo, cit.

[76] V. la Risoluzione del Parlamento europeo del 12 febbraio 2019, in www.agendadigitale.eudel 23-05-2019.

[77] Sempre sulla esigenza di trasparenza, v. anche Mouriesse, Quelle transparence pour les algorithmes de justice prédictive?, in Archives de philosophie du droit, Dalloz, 2018, tome 60, p. 125 ss. V anche sul tema Crisci, Intelligenza artificiale ed etica dell’algoritmo, in Foro amm., 2018, p. 1787 ss., spec. p. 1814.

[78] Il documento Comunicazione della Commissione U.E. al Parlamento europeo, al Consiglio europeo, al Comitato economico e sociale europeo e al Comitato delle regioni, 07/12/2018 COM(2018) 795 finale, si può scaricare all’indirizzo http://data.consilium.europa.eu/doc/document/ST-15641-2018-INIT/it/pdf.

[79] Comunicato stampa dell’Unione europea: Orientamenti etici sull’intelligenza artificiale: proseguono i lavori della Commissione, Bruxelles, 8 aprile 2019. Sul punto v. anche, sull’iter che ha portato all’emanazione delle Linee guida U.E., Beltrame, Intelligenza Artificiale e sviluppo etico: le linee guida dell’Unione Europea per una AI antropocentrica e affidabile, in www.cyberlaws.it (24/05/2019), ove l’a. rileva che l’ “Unione Europea, considerando l’Intelligenza Artificiale uno strumento estremamente utile, ma al tempo stesso insidioso per gli interrogativi giuridici ed etici che solleva, ha ritenuto essenziale integrare i valori su cui è basata e il suo solido quadro normativo nello sviluppo dell’I.A. In seguito alla nomina nel giugno 2018 di un gruppo di esperti indipendenti di alto livello, lo scorso dicembre è stata raggiunta una bozza preliminare delle linee guida che andranno a comporre il Codice Etico dell’Unione Europea sull’Intelligenza Artificiale. Queste ultime sono sottoposte da giugno 2019 ad una fase pilota, tesa a garantire la loro applicabilità pratica (Commissione Europea, Orientamenti etici sull’intelligenza artificiale: proseguono i lavori della Commissione, comunicato stampa, 8 aprile 2019, in http://europa.eu/rapid/press-release_IP-19-1893_it.htm) e a raccogliere le osservazioni delle parti interessate, ossia di autorità pubbliche, istituti di ricerca e industria. Infine, a partire dall’inizio del 2020, il Gruppo di Alto Livello di Esperti avrà il compito di revisionare e aggiornare le linee guida, sulla base dei riscontri e delle osservazioni ottenuti durante la fase pilota”. V. anche in argomento tremolada, L’Europa pubblica un codice etico sull’intelligenza artificiale. Ecco cosa dice, in www.ilsole24ore.com (19/12/2018); nicotra, Intelligenza Artificiale, cos’è, come funziona e le applicazioni in Italia ed Europa, inwww.agendadigitale.eu (23/05/2018). I principi espressi dalla Carta etica sopra citata sono stati richiamati anche dalla presidenza francese del Comitato dei Ministri del Consiglio d’Europa, alla recente conferenza “Digital challenges to justice in Europe”, tenutasi il 15 ottobre 2019, organizzata su iniziativa della presidenza francese stessa (v. il documento Statement by the French Presidency of the Committee of Ministers of the Council of Europe at the Conference of Ministers of Justice on “Digital Challenges for Justice in Europe”, in https://rm.coe.int/final-declaration-of-the-french-presidency-conference-of-mj-coe-15-oct). Alla conferenza sopra citata ha partecipato anche il Ministro della giustizia italiano Bonafede, il quale ha segnalato alcuni progetti di cui il suo Ministero, in collaborazione con quello per l’innovazione tecnologica e la digitalizzazione, sta ipotizzando l’attivazione e che concernono “il ricorso a sistemi di intelligenza artificiale per la decisione in prima istanza di procedimenti di natura elementare, quale per esempio le impugnazioni contro sanzioni amministrative per violazioni del codice della strada, lasciando comunque alla parte ricorrente il diritto di richiedere una revisione della decisione da parte del giudice”, nonché “il ricorso a sistemi di intelligenza artificiale dotati di funzionalità predittive da porre a disposizione degli utenti del sistema giustizia per la previsione dell’esito, probabile esito, di giudizi di struttura elementare in modo da disincentivare, ove possibile, il ricorso alla giustizia da parte dei soggetti più probabilmente soccombenti e incentivare così il ricorso a soluzioni stragiudiziali di componimento delle liti”.

[80] Sulla stessa linea di tendenza si pone anche il primo Libro Bianco su “L’intelligenza artificiale a servizio del cittadino”, presentato il 21 marzo 2018, pubblicato dall’Agenzia per l’Italia Digitale (AGID). Si tratta di una guida che illustra le linee guida e le raccomandazioni per l’utilizzo sostenibile e responsabile in Italia dell’ Intelligenza Artificiale nella Pubblica Amministrazione. Tale libro bianco intende sottolineare come, tramite le tecnologie I.A., si possano garantire un miglioramento della qualità della vita, una maggiore accessibilità ai servizi pubblici e un abbattimento dei costi. Per perseguire questo fine, bisogna però adattare l’I.A. all’uomo e non viceversa.

[81] Sul punto v. il Regolamento UE n. 881/2019 del Parlamento europeo e del Consiglio, del 17 aprile 2019, sui compiti e funzioni dell’ENISA, pubblicato il 7 giugno 2019 in Gazzetta Ufficiale e in vigore dal 27 giugno 2019, che abroga il Regolamento UE n. 526/2013Regolamento sulla cibersicurezza“. Il suddetto Regolamento UE n. 881/2019, obbligatorio in tutti i suoi elementi e direttamente applicabile in ciascuno degli Stati membri, disciplina i compiti e le funzioni dell’ENISA, l’Agenzia dell’Unione europea per la cibersicurezza, e le relative certificazioni per le tecnologie dell’informazione e della comunicazione. Sottolinea altresì l’importanza della cibersicurezza nell’Unione Europea per “garantire che i dati non siano deliberatamente alterati o usati impropriamente al fine di consentire un funzionamento dell’I.A. dannoso per i cittadini” anche la sopra citata Risoluzione del Parlamento europeo del 12 febbraio 2019.

[82] Lo stesso concetto del diritto a non essere sottoposti a trattamenti automatizzati, come quelli di I.A., senza controllo umano, in Italia è espresso nell’art. 22 GDPR, che esclude che un qualche atto, provvedimento giudiziario e amministrativo implicante una valutazione del comportamento umano, possa essere fondato unicamente su un trattamento automatizzato se non in caso esso sia necessario per la conclusione o esecuzione di un contratto tra l’interessato e il titolare del trattamento, sia autorizzato da una legge europea o dello Stato membro, o si basi sul consenso esplicito dell’interessato; deroghe sono legittime anche in caso di necessità di salvaguardare una serie di interessi pubblici indicati analiticamente (come in tema di sicurezza pubblica e prevenzione e repressione dei reati).

[83] Loi n. 2019-222 du 23 mars 2019 de programmation 2018-2022 et de réforme pour la justice 24 mars 2019, in Journal officiel de la République française (24-03-2019).La legge n. 2019-222 (di programmazione 2018-2022 e di riforma della giustizia) prevede sanzioni penali ingenti per le società o chiunque, partendo dalle decisioni e sentenze, raccolga, analizzi e riutilizzi “i dati di identità dei magistrati con lo scopo o l’effetto di valutare, analizzare, confrontare o prevedere le loro effettive o presunte pratiche professionali”. Sul tema v. anche Morelli, Giustizia predittiva: la Francia dice no alla profilazione dei giudici, in www.altalex.com(17/06/2019).

[84] Carta etica europea di utilizzo dell’Intelligenza Artificiale nei sistemi giudiziari ed ambienti connessi”, adottata Strasburgo il 3-4 dicembre 2018 dalla Commissione europea, del Consiglio d’Europa, per l’efficienza della giustizia (CEPEJ), si può leggere in www.coe.int.

[85] Per una disamina approfondita riguardo all’ Intelligenza Artificiale e al suo impatto sui diritti umani, quali il diritto ad essere giudicati da un giudice terzo indipendente ed imparziale, il diritto di difesa, il diritto alla riservatezza, ecc., si rinvia a Nieva Fenoll, Intelligenza artificiale e processo, cit. p. 117 ss.

[86] V. sul punto anche Barbaro(Head of CEPEJ Cooperation Unit), CEPEJ, adottata la prima Carta etica europea sull’uso dell’intelligenza artificiale (AI) nei sistemi giudiziari, in www.questionegiustizia.it (7 dicembre 2018).

[87] Garapon, Presentazione dell’autore al Convegno “La giustizia ai tempi dell’algoritmo” dell’Opera diLassègue-Garapon, Justice digitale, cit., tenutosi presso l’Università Cattolica del Sacro Cuore di Milano il 20/11/2018, in cui l’a. cita efficacemente il pensiero dello studioso americano Daniel Katz, secondo cui “Gli uomini con le macchine sono sempre più forti degli uomini senza macchine e delle macchine senza uomini”.

Dott.ssa Concas Alessandra

Scrivi un commento

Accedi per poter inserire un commento