Giurimetria e Giustizia predittiva: intelligenza artificiale e Legal tech

Scarica PDF Stampa

La giurimetria, l’intelligenza artificiale (IA) e la giustizia predittiva sono argomenti che suscitano sempre più interesse in campo giuridico. La giurimetria è l’applicazione dell’informatica al diritto, mentre la giustizia predittiva utilizza algoritmi complessi per prendere decisioni giudiziarie o prevedere gli esiti delle decisioni. Queste innovazioni digitali offrono vantaggi come una maggiore certezza del diritto e l’uniformità nelle interpretazioni legali, ma sollevano anche preoccupazioni riguardo ai rischi e alla trasparenza delle decisioni basate su algoritmi. Attualmente, la giustizia predittiva risulta essere più diffusa negli Stati Uniti, mentre in Europa e in Italia è ancora in fase sperimentale. Essa si può definire come un metodo che consente la possibilità di affidare ad un algoritmo, la decisione giudiziale, in luogo del giudice umano. Per alcuni autori, l’informatica applicata al diritto avrebbe il vantaggio di assicurare un diritto certo, chiaro, conoscibile, univoco e uniformemente interpretato ed applicato dai diversi uffici giudiziari. Il termine Giurimetria fu coniato, nel 1949, per mano dell’avvocato Lee Loevinger[1]che si proponeva di applicare, l’informatica al diritto, in modo, da ottenere una scienza esatta. Ritornando sui nostri passi, va sottolineato che, dato il carattere innovativo della questione: per molti operatori del settore, è ancora difficile comprenderne appieno la portata.  Inoltre, è importante valutare i benefici e gli svantaggi che tale innovazione digitale apporterà al sistema giudiziario. Alcuni autori ne evidenziano già i rischi. Tuttavia, allo stato dell’arte non è semplice sciogliere questi dubbi.
Sul rapporto con le nuove intelligenze artificiali si incentra il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”, che consigliamo per l’approfondimento.

Indice

1. La giustizia predittiva, l’intelligenza artificiale, la giurimetria


Intesa come la possibilità che in un processo si affidi ad un algoritmo[1] la decisione giudiziale, a garanzia di un diritto certo, chiaro, conoscibile, univoco, nonché interpretato ed applicato in modo omogeneo presso i diversi uffici giudiziari.
Ebbene, la giustizia predittiva rappresenta un campo emergente che combina la giurimetria e l’intelligenza artificiale per migliorare l’efficienza e l’accuratezza delle decisioni giudiziarie.   Questo articolo esplorerà l’evoluzione della giustizia predittiva, analizzando il ruolo della giurimetria e dell’intelligenza artificiale (abbr. IA) nel contesto del sistema giudiziario.

2. La giurimetria e la sua applicazione nella giustizia


La giurimetria strettamente correlata alla giustizia predittiva è una disciplina che si occupa della misurazione e dell’analisi dei fenomeni giuridici attraverso metodi quantitativi. Nell’ambito della giustizia predittiva, la giurimetria viene utilizzata per esaminare le decisioni giudiziarie passate e identificare modelli o tendenze che possono fornire indicazioni sulle probabilità di esito in casi futuri simili.
L’analisi giurimetrica coinvolge diversi fattori, tra cui la tipologia del caso, le caratteristiche delle parti coinvolte, le decisioni precedenti e altri elementi pertinenti. Utilizza modelli statistici e algoritmi di apprendimento automatico. La giurimetria cerca di predire gli esiti dei casi legali in base a queste informazioni.

3. L’intelligenza artificiale e il suo impatto sulla giustizia


L’intelligenza artificiale (IA) ha dimostrato un enorme potenziale nell’ambito della giustizia. Gli algoritmi di IA possono analizzare grandi quantità di dati giuridici, tra cui testi legislativi, precedenti giudiziari e decisioni delle corti, al fine di fornire supporto alle decisioni giudiziarie.
Uno dei principali strumenti dell’IA utilizzati nella giustizia predittiva è il machine learning, che consente ai sistemi di imparare dai dati e migliorare le proprie prestazioni nel tempo. Ad esempio, un sistema di giustizia predittiva può essere addestrato su un vasto insieme di decisioni giudiziarie passate, consentendo di formulare previsioni sugli esiti futuri. Sul rapporto con le nuove intelligenze artificiali si incentra il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”, che consigliamo per l’approfondimento.

FORMATO CARTACEO

Il nuovo diritto d’autore

Questa nuova edizione dell’Opera è aggiornata all’attuale dibattito dedicato all’intelligenza artificiale, dalla Risoluzione del Parlamento europeo del 20 ottobre 2020 alla proposta di Regolamento europeo – AI Act.Il testo si configura come lo strumento più completo per la risoluzione delle problematiche riguardanti il diritto d’autore e i diritti connessi.Alla luce della più recente giurisprudenza nazionale ed europea, la Guida dedica ampio spazio alle tematiche legate alla protezione della proprietà intellettuale, agli sviluppi interpretativi in tema di nuove tecnologie e alle sentenze della Suprema Corte relative ai programmi per elaboratore, alle opere digitali e al disegno industriale.Il testo fornisce al Professionista gli strumenti processuali per impostare un’efficace strategia in sede di giudizio, riportando gli orientamenti giurisprudenziali espressi dalla Cassazione civile nel corso del 2023.Completano il volume un Formulario online editabile e stampabile, sia per i contratti che per il contenzioso, un’ampia Raccolta normativa e un Massimario di giurisprudenza di merito, legittimità e UE, suddiviso per argomento.Nell’area online saranno messi a disposizione del lettore anche il testo del final draft con gli ulteriori sviluppi relativi al percorso di approvazione del Regolamento AI Act, e la videoregistrazione del webinar del 23 febbraio, in cui parleremo con l’Autore delle sfide legali emerse con l’avvento dell’AI anche mediante l’analisi di casi studio significativi.Per iscriverti all’evento gratuito clicca qui Andrea Sirotti GaudenziAvvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma e ADISI di Lugano. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Trattato pratico del risarcimento del danno”, “Codice della proprietà industriale”. Magistrato sportivo, attualmente è presidente della Corte d’appello federale della Federazione Ginnastica d’Italia. I suoi articoli vengono pubblicati da diverse testate e collabora stabilmente con “Guida al Diritto” del Sole 24 Ore.

Andrea Sirotti Gaudenzi | Maggioli Editore 2024

4. Benefici e sfide dell’utilizzo della giustizia predittiva


L’adozione della giustizia predittiva, supportata dalla giurimetria e dall’intelligenza artificiale, presenta numerosi benefici potenziali. Innanzitutto, può contribuire a ridurre la discrezionalità delle decisioni giudiziarie, garantendo maggiore coerenza nell’applicazione della legge. Inoltre, può aiutare a identificare i casi ad alto rischio o ad alta priorità, consentendo ai tribunali di assegnare le risorse in modo più efficiente.
Tuttavia, l’utilizzo della giustizia predittiva solleva anche alcune sfide. Ad esempio, l’accuratezza dei modelli predittivi dipende dalla qualità dei dati utilizzati per l’addestramento. Se i dati contenessero pregiudizi o discriminazioni, questi potrebbero essere amplificati dagli algoritmi di apprendimento automatico, portando a decisioni ingiuste o sbagliate. È quindi fondamentale garantire la qualità, l’imparzialità e la trasparenza dei dati utilizzati nei sistemi di giustizia predittiva.

5. Brevi considerazioni su Intelligenza artificiale Giustizia predittiva e giurimetria


La giustizia predittiva, combinando la giurimetria e l’intelligenza artificiale, promette di rivoluzionare il sistema giudiziario, migliorando l’efficienza e l’equità delle decisioni. Tuttavia, è necessario affrontare le sfide legate alla qualità dei dati, all’imparzialità degli algoritmi e alla protezione della privacy per garantire che l’uso di tali tecnologie sia equo e rispettoso dei diritti fondamentali. L’equilibrio tra l’automazione e il ruolo dell’umanità nella giustizia rimane un tema centrale nel dibattito sull’evoluzione della giustizia predittiva e richiede una continua riflessione e regolamentazione.

6. Dall’uso della IA possiamo ricavare i seguenti vantaggi


La giustizia predittiva, la giurimetria e l’intelligenza artificiale offrono una serie di vantaggi per il sistema giudiziario.

  1. Miglioramento dell’efficienza: L’uso di modelli predittivi basati su giurimetria e intelligenza artificiale può aiutare a identificare i casi ad alto rischio o ad alta priorità, consentendo ai tribunali di allocare le risorse in modo più efficiente. Ciò significa che i tempi di attesa possono essere ridotti e i processi possono essere gestiti in modo rapido ed efficace.
  2. Riduzione della discrezionalità: L’introduzione di modelli predittivi basati su dati può contribuire a ridurre la discrezionalità dei giudici e garantire una maggiore uniformità nell’applicazione della legge. I modelli possono fornire indicazioni oggettive sulle probabilità di esito di un caso, basate su precedenti giudiziari e analisi quantitative.
  3. Miglioramento dell’accuratezza delle previsioni: Utilizzando algoritmi di apprendimento automatico, la giustizia predittiva può migliorare l’accuratezza delle previsioni sugli esiti dei casi legali. I modelli possono analizzare grandi quantità di dati e identificare pattern o correlazioni nascoste, che possono essere difficili da individuare con metodi tradizionali.
  4. Supporto alle decisioni giudiziarie: I sistemi basati sull’intelligenza artificiale possono fornire un supporto prezioso nella valutazione delle prove e nella ricerca giuridica. Attraverso l’analisi dei precedenti giudiziari e l’estrazione di informazioni rilevanti dai testi legislativi, tali sistemi possono aiutare i giudici nella presa di decisioni informate e basate su dati.
  5. Miglioramento dell’accessibilità alla giustizia: L’uso di tecnologie avanzate può contribuire a migliorare l’accesso alla giustizia per le persone che hanno risorse finanziarie limitate. Ad esempio, l’automazione di alcune procedure e la disponibilità di strumenti di ricerca giuridica basati su intelligenza artificiale possono rendere più facile per i cittadini comprendere i loro diritti e accedere alle risorse legali necessarie.
  6. Identificazione dei pregiudizi e delle discriminazioni: L’analisi dei dati attraverso l’intelligenza artificiale può aiutare a rilevare e mitigare pregiudizi e discriminazioni nel sistema giudiziario. L’identificazione di modelli discriminatori consente di prendere misure correttive più eque nelle decisioni legali.

Tuttavia, è importante sottolineare che l’introduzione di queste tecnologie richiede un’attenzione particolare per garantire la trasparenza, l’imparzialità e la tutela dei diritti fondamentali. È fondamentale trovare un equilibrio tra l’utilizzo delle tecnologie e il ruolo umano nel processo decisionale.


Potrebbero interessarti anche:

7. Il caso Eric Loomis negli Stati Uniti: l’algoritmo Compas


Il caso Eric Loomis[1] mette in luce la problematica che un algoritmo decisionale commini una pena non in base al fatto commesso ma piuttosto sulla scorta delle probabilità future di commettere nuovi reati. Tutto ciò affidandosi ad un sistema automatizzato, l’algoritmo Compas, basato su statistiche ricavate dal passato.
Eric Loomis, cittadino afroamericano degli Stati Uniti, fu fermato dalla polizia nel 2013 perché coinvolto in una sparatoria. In seguito, fu nuovamente arrestato con l’accusa di non essersi fermato ad un controllo. Nel nuovo processo, il giudice lo condannò a una pena detentiva di sei anni, basandosi su una valutazione del rischio di recidiva (risk assessment).

8. L’algoritmo Compas alla base della sentenza Loomis


Il giudice, per emettere la sentenza di condanna e determinare la durata della pena si basò sull’algoritmo chiamato Compas, sviluppato da un’azienda privata.
Nel caso specifico, l’algoritmo Compas[1] aveva classificato Eric Loomis come un individuo ad alto rischio di commettere nuovi reati, basandosi sulle risposte fornite a un questionario. Queste valutazioni del rischio di recidiva del condannato, insieme alla valutazione della capacità criminale, sono utilizzate per determinare le circostanze che possono influire sulla gravità della sanzione. Inoltre, queste informazioni fornite da Compas negli Usa possono essere utilizzate anche per assegnare programmi di riabilitazione specifici, stabilire la struttura penitenziaria in cui il condannato sarà incarcerato e persino determinare la durata della pena. La questione fondamentale risiede nel fatto che questo algoritmo, che valuta il rischio di recidiva, è coperto da un brevetto industriale e il suo funzionamento è segreto.
La difesa di E. Loomis impugnò la condanna, affermando che il giudice aveva basato la sua decisione su un algoritmo segreto e non verificabile o contestabile. Si sosteneva che ciò violasse i diritti fondamentali della difesa, non garantendo un processo equo all’imputato. Tuttavia, nel 2016, la Corte Suprema del Wisconsin respinse l’appello, affermando che l’utilizzo dell’algoritmo non era l’unico elemento determinante per la condanna e che la decisione sarebbe stata la stessa in ogni caso. Pertanto, affidare ad un software, il cui funzionamento è privato e segreto a causa dei brevetti sugli algoritmi, la determinazione delle possibilità di recidiva di un individuo basandosi solo su statistiche ricavate dal passato per molti giuristi  e causa di seri e preoccupanti interrogativi .
Compas non è l’’unico algoritmo usato dalle Corti USA: si veda anche PSA
Il Public Safety Assessment (PSA) è un software gratuito sviluppato per aiutare i giudici penali negli Stati Uniti nelle decisioni pre-trial, come il rilascio su cauzione o la carcerazione preventiva. Utilizzando registrazioni preprocessuali e casi convalidati provenienti da diverse giurisdizioni, PSA valuta la probabilità di fuga e il rischio per gli altri, tenendo conto del principio che l’incapacità di pagare la cauzione non dovrebbe influenzare la detenzione. Esso è in funzione in diversi stati: Arizona, Kentucky, New Jersey, Phoenix, Chicago e Houston.
In Europa ed in Italia l’eventuale utilizzo di algoritmi decisionali in sede processuale si pone in aperto   contrasto con le seguenti norme
l’uso degli algoritmi può condurre a violazioni del diritto all’equo processo[2] sancito dall’art. 6 Cedu e dall’art. 111 Cost. Italiana. Uno dei problemi principali è l’opacità dell’algoritmo, che impedisce alle parti di comprendere il funzionamento e la logica delle decisioni prese. Ciò limita la capacità di difesa dell’accusato e la possibilità di contestare il risultato algoritmico.
In tale ottica bisogna garantire il diritto di accesso all’algoritmo in modo da poter valutare la sua accuratezza e poter contestare il risultato. Tuttavia, l’accesso all’algoritmo può essere ostacolato dalla tutela della proprietà intellettuale e dalla mancanza di trasparenza dei processi decisionali algoritmici.
Le norme più rilevanti ai fini di tutela nell’ambito di decisioni automatizzate sono ricavabili principalmente dalla disciplina europea in materia di trattamento dei dati personali, che vuole creare così una barriera simbolica alle decisioni prese senza intervento umano. Esse sono gli articoli 13 e 15 del GDPR che in materia di trasparenza algoritmica, riconoscono il diritto dell’interessato a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed a ricevere informazioni sulla logica utilizzata. Viene inoltre enunciato il principio di non esclusività (art. 22) e il diritto di contestazione della decisione basata unicamente su un processo decisionale automatizzato, nonché il principio di non discriminazione algoritmica sancito dall’art. 71 del GDPR. L’intento perseguito dal Regolamento è proprio quello “di arginare il rischio di trattamenti discriminatori per l’individuo che trovino la propria origine in una cieca fiducia nell’utilizzo degli algoritmi”.
Quindi, è necessario conoscere gli autori del procedimento usato per la sua elaborazione, il meccanismo decisionale, le priorità assegnate e i dati selezionati come rilevanti. Tutto ciò, al fine di certificare che gli esiti e i presupposti della decisione siano conformi alle prescrizioni e alle finalità stabilite dalla legge e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato ed infine per garantire il diritto di difesa.
In Italia, la sentenza n. 2270/19 emessa dal Consiglio di Stato ha affrontato per la prima volta l’applicazione dell’Intelligenza Artificiale nella Pubblica Amministrazione, stabilendo i primi principi giurisprudenziali in materia. Nella motivazione della sentenza, si fa riferimento per la prima volta al concetto di “Giustizia robotizzata o Cybergiustizia” per indicare le decisioni prese da un algoritmo all’interno della P.A.
Nel caso in esame, il C.d.S ha esaminato l’utilizzo degli algoritmi nelle decisioni amministrative. Si è constatato che in questa specifica situazione, un algoritmo era stato impiegato per gestire integralmente il processo di assunzione degli insegnanti di scuola secondaria, ma i ricorrenti hanno sostenuto che tale algoritmo ha prodotto risultati illogici e irrazionali. Secondo loro, l’algoritmo è stato utilizzato in modo poco trasparente, senza coinvolgere un funzionario amministrativo nell’analisi delle singole situazioni, violando così l’articolo 97 della Costituzione.
Il Consiglio di Stato ha accolto il ricorso basandosi su due motivi principali. In primo luogo, si è evidenziato che i principi di imparzialità, pubblicità e trasparenza sono stati violati poiché non è stato possibile comprendere le modalità e le ragioni delle assegnazioni effettuate dall’algoritmo. In secondo luogo, gli esiti del processo sono risultati illogici e irrazionali a causa delle situazioni paradossali che si sono verificate.
Ma, il C.d.S ha anche riconosciuto l’importanza della digitalizzazione della p.a e i vantaggi derivanti dall’utilizzo degli algoritmi per automatizzare i processi decisionali amministrativi standardizzati. Secondo l’Alta Corte, l’uso dell’Intelligenza Artificiale è legittimo quando l’algoritmo svolge solo l’elaborazione dei dati, mentre l’uomo ne stabilisce le regole. Questo approccio rispetta i principi di efficienza ed economicità previsti dalla legge, nonché il principio di buon andamento dell’azione amministrativa sancito dall’articolo 97 della Costituzione Italiana.
Tuttavia, l’uso degli algoritmi viene incoraggiato solo nei casi di processi amministrativi standardizzati, mentre viene escluso quando è richiesta la discrezionalità amministrativa. Secondo la Corte, la valutazione degli interessi in gioco non può essere affidata interamente a un algoritmo. In questo modo, il Consiglio di Stato mostra una posizione favorevole all’uso degli algoritmi nelle decisioni amministrative, a differenza di alcune pronunce precedenti.
Quindi in un prossimo futuro avremo modo di vedere all’opera quella che viene denominata Cyber giustizia ed il suo impatto nel sistema.

9. Cyber giustizia e legaltech


La Cyber giustizia, è un concetto che solleva diverse questioni. Si ipotizza che l’automazione e l’IA possano svolgere un ruolo sempre più importante nel campo della giustizia, ma al momento attuale, la presenza di robot o algoritmi decisionali nell’ambito giudiziario è limitata.
Il Legal Tech, ovvero la tecnologia applicata al settore legale, grazie all’impiego dell’Intelligenza Artificiale (IA) è in continua crescita. L’IA ha il potenziale per trasformare molti aspetti del campo legale, semplificando processi complessi e fornendo nuove soluzioni innovative. Ecco alcuni dei principali sviluppi di Legal Tech basati sull’IA:

  1. Automazione documentale: L’IA può essere utilizzata per automatizzare la generazione e l’elaborazione dei documenti legali. Software di generazione automatica di documenti possono redigere contratti, testamenti, accordi legali e altri documenti standardizzati in modo rapido ed efficiente, riducendo il lavoro manuale degli avvocati.
  2. Ricerca e analisi giuridica: I sistemi basati sull’IA possono analizzare grandi quantità di dati legali, compresi casi giudiziari, decisioni passate, leggi e regolamenti. Questi strumenti di ricerca legale assistita dall’IA possono fornire agli avvocati informazioni pertinenti e precedenti legali per supportare la loro pratica legale. Quindi, addio alle vecchie banche dati: oggi sono a disposizione dell’avvocato programmi molto più evoluti ed in grado di fare molto di più rispetto al passato.
  3. Predictive analytics: L’IA può aiutare gli avvocati a prevedere l’esito di una causa legale sulla base di modelli e analisi dei dati storici. Utilizzando l’apprendimento automatico e l’analisi predittiva, l’IA può fornire indicazioni sulle probabilità di successo di un caso e supportare la strategia legale.
  4. Assistenza virtuale: I chatbot legali basati sull’IA possono fornire assistenza virtuale ai clienti, rispondendo a domande comuni, offrendo orientamento legale di base e raccogliendo informazioni pertinenti per gli avvocati. Questo può aiutare a migliorare l’efficienza delle operazioni legali.
  5. Risoluzione online delle controversie: L’IA può essere utilizzata per facilitare la risoluzione delle controversie online attraverso piattaforme di negoziazione o mediazione automatizzate. Queste piattaforme utilizzano algoritmi intelligenti per guidare le parti coinvolte verso una soluzione equa e ragionevole senza dover ricorrere a un tribunale tradizionale.

In generale, l’IA nel Legal Tech mira a migliorare l’accesso alla giustizia, aumentare l’efficienza e ridurre i costi associati alle attività legali. Tuttavia, è importante notare che la tecnologia non sostituirà affatto gli avvocati, ma funzionerà come importante strumento di supporto.
In Europa dal 2018 abbiamo: la Carta etica europea sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi emessa dalla Commissione europea per l’efficienza della giustizia -CEPEY-
In data il 3 dicembre 2018 il (CEPEJ) organo della Commissione di Giustizia Europea attraverso l’emissione della succitata carta ha sancito i principi basilari da osservare in Europa in materia di Ai. Si chiarisce che la CEPEY è acronimo di European Commission for the Efficiency of Justice) in italiano Commissione per l’efficienza della giustizia del Consiglio d’Europa. Esso è un organismo giudiziario composto da tecnici, rappresentativo dei 47 paesi che ne fanno parte.

10. I cinque principi della Carta etica[1] sull’utilizzo dell’intelligenza artificiale nei sistemi giudiziari e negli ambiti connessi

  1. Principio del rispetto dei diritti fondamentali: assicurare l’elaborazione e l’attuazione di strumenti e servizi di intelligenza artificiale siano compatibili con i diritti fondamentali.
  2. Principio di non discriminazione: punta a prevenire specificamente lo sviluppo o l’intensificazione di discriminazioni tra persone o gruppi di persone.
  3. Principio di qualità e sicurezza: Esso riguarda l’utilizzo di tecnologie che processano decisioni e dati giudiziari e quindi, in ordine al trattamento di decisioni e dati giudiziari, si consiglia di utilizzare fonti certificate e dati intangibili con modelli elaborati multi disciplinarmente, in un ambiente tecnologico sicuro.
  4. Principio di trasparenza, imparzialità ed equità: bisogna rendere le metodologie di trattamento dei dati accessibili e comprensibili, autorizzare verifiche esterne.
  5. Principio del controllo da parte dell’utilizzatore”: si deve precludere da un approccio prescrittivo e assicurare che gli utilizzatori siano attori informati e abbiano il controllo delle loro scelte[1].

 Giova rilevare che la CEPEJ non solo esorta l’utilizzo di tali strumenti nei sistemi giudiziari nazionali e sovranazionali, così da migliorare l’efficienza e la qualità della giustizia, ma cerca anche di individuare delle modalità generali per attuare questo processo innovativo in modo responsabile, nel rispetto dei diritti fondamentali della persona.

11. Intanto, in Europa, è allo studio la prima Legge al mondo, sulla regolamentazione della Intelligenza Artificiale


In data 13 giugno 2023, il Parlamento Europeo ha emanato delle linee guida: in vista della futura e prossima legge sulla IA che sarà la prima al mondo.
L’Unione Europea si prepara a introdurre la prima legge al mondo sull’intelligenza artificiale (IA) onde regolamentare il suo complesso utilizzo. Questa iniziativa rientra nella strategia digitale dell’UE e mira a creare un quadro normativo che promuova lo sviluppo responsabile dell’IA, garantendo al contempo la protezione dei cittadini e la tutela dei loro diritti.
La proposta di legge dell’UE prevede una serie di misure per affrontare i diversi livelli di rischio associati all’IA. I sistemi di IA saranno analizzati e classificati in base al grado di pericolo che rappresentano per gli utenti. Ciò consentirà di stabilire regole specifiche e proporzionate in relazione a ciascun livello di rischio.
La priorità del Parlamento europeo è garantire che i sistemi di IA utilizzati nell’UE siano sicuri, trasparenti, tracciabili, non discriminatori e rispettosi dell’ambiente. Si sta lavorando per definire una definizione tecnologicamente neutra e uniforme dell’IA che possa essere applicata ai futuri sistemi di intelligenza artificiale.

  1. La nuova legge prevede diverse categorie di rischio per i sistemi di IA. I sistemi a rischio inaccettabile, che costituiscono una minaccia per le persone, saranno vietati. Ciò include, ad esempio, l’uso di IA per manipolare comportamenti pericolosi in gruppi vulnerabili, la classificazione sociale delle persone in base a caratteristiche personali e l’identificazione biometrica in tempo reale e a distanza, come il riconoscimento facciale.
  2. I sistemi di IA ad alto rischio, che possono avere un impatto negativo sulla sicurezza o sui diritti fondamentali, saranno soggetti a requisiti più rigidi. Questi includono i sistemi utilizzati in settori come giocattoli, aviazione, automobili, dispositivi medici e altri. Inoltre, saranno registrati in un database dell’UE i sistemi di IA utilizzati per l’identificazione biometrica, la gestione di infrastrutture critiche, l’istruzione e la formazione professionale, l’occupazione e la gestione dei lavoratori, l’accesso a servizi essenziali, le forze dell’ordine, la gestione delle migrazioni e molto altro.
  3. Per quanto riguarda l’IA generativa, come ChatGPT, ci saranno requisiti specifici di trasparenza. Ad esempio, sarà necessario indicare che il contenuto è stato generato da un’intelligenza artificiale e saranno implementate misure per prevenire la creazione di contenuti illegali. Di questo specifico aspetto si occupa approfonditamente il volume “Il nuovo diritto d’autore -La tutela della proprietà intellettuale nell’era dell’intelligenza artificiale”, che consigliamo per l’approfondimento.

Attualmente, il Parlamento europeo sta definendo la sua posizione negoziale sulla legge e successivamente inizieranno i negoziati con i Paesi membri dell’UE per giungere a una versione finale. L’obiettivo è raggiungere un accordo entro la fine dell’anno al fine di stabilire una regolamentazione pionieristica sull’IA nell’UE.
Si rileva che: L’intelligenza artificiale (IA) oltre che nel settore giustizia ha una vasta gamma di applicazioni in tanti altri settori.

12. Conclusioni


L’impiego dell’IA, nel settore della giustizia, solleva importanti questioni etiche e legali, come la trasparenza, la responsabilità, la privacy dei dati e l’equità nell’uso di algoritmi decisionali. Pertanto, è necessario un approccio ponderato e un dialogo continuo per garantire che l’IA sia utilizzata in modo etico nel contesto della giustizia. Nel settore penale potrà essere utile per la identificazione di frodi e comportamenti sospetti aiutando nella lotta contro il crimine finanziario e la criminalità organizzata sempre che non contrasti con l’art. 6 Cedu e 111 Cost. It. e con gli art. 13 e 15 (Gdpr) ed altre norme che vietano decisioni automatizzate. Tuttavia, l’implementazione della Cyber giustizia solleva anche preoccupazioni riguardo la trasparenza delle decisioni prese dagli algoritmi, la responsabilità delle azioni dei robot, la protezione dei dati personali e il rischio di discriminazione algoritmica[1]. È quindi fondamentale garantire che l’uso di robot e intelligenza artificiale nel sistema giudiziario avvenga in modo equo, trasparente e conforme ai principi giuridici fondamentali.
Al momento, la giustizia robotizzata è ancora in una fase iniziale di sviluppo e sperimentazione, e i suoi impatti e limiti devono essere attentamente valutati. È necessario bilanciare l’adozione delle nuove tecnologie con la tutela dei diritti fondamentali e il mantenimento della fiducia nel sistema giudiziario. 

Vuoi ricevere aggiornamenti costanti?

Con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter

Si è verificato un errore durante la tua richiesta.

Scegli quale newsletter vuoi ricevere

Autorizzo l’invio di comunicazioni a scopo commerciale e di marketing nei limiti indicati nell’informativa.

Cliccando su “Iscriviti” dichiari di aver letto e accettato la privacy policy.

Iscriviti

Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Note

  1. [1]

    Lee Loevinger 14/04/1913 Saint Paul Minnesota   26/04/2004 Washington fu magistrato ed avvocato ha redatto molti articoli ed opere nel campo del diritto ed a lui si deve il termine Jurimetrics (giurimetria) si veda 1949 The Next Step Forward Minnesota Law Rewiew

  2. [2]

    Augusta Ada Byron contessa di Lovelace (Londra)10/12/1815 (Londra 27/11/1852 nobildonna e matematica inglese ha creato il primo algoritmo della storia lavorando allo sviluppo della macchina analitica di Charles Babbage

  3. [3]

    Dr.ssa Maria Giulia Ortolani La giustizia predittiva Annali della Facoltà Giuridica dell’Università di Camerino ‒ Studi – n. 12/2023

  4. [4]

    l sistema Compas: Algoritmi, previsioni, iniquità, in XXVI Lezioni di diritto dell’intelligenza artificiale, U. RUFFOLO

  5. [5]

    Elisa Galloppa -L’uso degli algoritmi nel processo penale e la sua conformità ai principi dell’equo processo- tesi di laurea: relatore  prof Pustorino Università Luiss Guido Carli anno accademico 2020-2021

  6. [6]

    Tale importante documento è consultabile al seguente indirizzo https://rm.coe.int/carta-etica-europea-sull-utilizzo-dell intelligenza artificiale-nei-si/1680993348

  7. [7]

    (Ruffolo, U. Intelligenza artificiale, machine learning e responsabilità da algoritmo, in Giur. it., 2019, 7, 1657)

Catello Sorrentino

Scrivi un commento

Accedi per poter inserire un commento