Uso dell’AI negli atti giudiziari e rischio disciplinare: profili normativi e sistemici

Uso dell’AI negli atti giudiziari: limiti, doveri del magistrato e responsabilità disciplinare per errori e citazioni inesistenti.

Scarica PDF Stampa

L’episodio che ha recentemente attirato l’attenzione della stampa giuridica e generalista – un magistrato che avrebbe fatto ricorso a un sistema di intelligenza artificiale generativa nella redazione di un provvedimento giudiziario, incorrendo in errori macroscopici e citazioni giurisprudenziali inesistenti – non è un semplice incidente di percorso tecnologico. È, piuttosto, un segnale preciso: il diritto sta entrando in una fase in cui l’uso dell’AI non è più una curiosità sperimentale, ma una questione di responsabilità istituzionale.
Il punto non è, o non è solo, se un giudice possa utilizzare strumenti di intelligenza artificiale a supporto del proprio lavoro. Il punto è come, con quali limiti, e soprattutto chi risponde quando l’output tecnologico si traduce in un atto giurisdizionale viziato. In altre parole: l’AI può assistere, ma non sostituire la funzione giudicante, né tantomeno diluire la responsabilità personale del magistrato.
In materia consigliamo i volumi NIS 2 ed Evoluzione della Cybersicurezza Nazionale, disponibile su Shop Maggioli e su Amazon, e “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132″, disponibile su Shop Maggioli e su Amazon, e, per la formazione del professionista, il Master in Cybersecurity e compliance integrata.

Indice

1. La funzione giurisdizionale come funzione costituzionale non delegabile


La cornice normativa da cui partire non può che essere costituzionale. L’art. 101, comma 1, Cost. stabilisce che “la giustizia è amministrata in nome del popolo”. Il comma 2 aggiunge che “i giudici sono soggetti soltanto alla legge”. In questa formula, apparentemente semplice, è racchiuso un principio cardine: l’esercizio della giurisdizione è una funzione personale, umana, responsabile, che implica valutazione, interpretazione, ponderazione.
Non esiste, nel nostro ordinamento, uno spazio giuridicamente legittimo per una delega decisionale – nemmeno parziale – a un sistema automatizzato. Anche quando il supporto tecnologico è utilizzato per finalità di ricerca, sintesi o organizzazione delle informazioni, il momento decisorio resta integralmente imputabile al giudice.
L’uso di un sistema di IA generativa che produce contenuti non verificati, come nel caso delle c.d. hallucinations (citazioni normative o giurisprudenziali inesistenti), collide frontalmente con questo assetto. Non si tratta di un errore materiale: si tratta di una rottura del nesso di responsabilità tra chi decide e ciò che viene deciso. In materia consigliamo i volumi NIS 2 ed Evoluzione della Cybersicurezza Nazionale, disponibile su Shop Maggioli e su Amazon, e “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132″, disponibile su Shop Maggioli e su Amazon.

2. Il quadro disciplinare: doveri del magistrato e uso improprio della tecnologia


Sul piano ordinamentale, il riferimento centrale è il d.lgs. 23 febbraio 2006, n. 109, che disciplina gli illeciti disciplinari dei magistrati. In particolare, assumono rilievo:

  • l’art. 1, che richiama i doveri di imparzialità, correttezza, diligenza, laboriosità e riserbo;
  • l’art. 2, che individua come illecito disciplinare la violazione di tali doveri quando la condotta arrechi un pregiudizio all’immagine della magistratura o al corretto esercizio della funzione.

L’utilizzo “irresponsabile” dell’AI – espressione che non è giuridicamente neutra – può integrare una violazione del dovere di diligenza professionale, soprattutto quando il magistrato omette di verificare le fonti, le citazioni e la coerenza logico-giuridica del provvedimento.
Qui non siamo di fronte a un errore scusabile o a una svista occasionale. L’affidamento acritico a uno strumento noto per la sua natura probabilistica e non deterministica configura, sotto il profilo disciplinare, una condotta quantomeno negligente, se non imprudente. E la tecnologia, lungi dall’essere una attenuante, diventa un fattore aggravante, perché il rischio era prevedibile ed evitabile.

Potrebbero interessarti anche:

3. AI generativa e affidabilità delle fonti: un problema giuridico, non tecnico


Uno degli aspetti più delicati riguarda la produzione di contenuti giuridici “verosimili ma falsi”. L’IA generativa non consulta banche dati certificate, non distingue tra fonti primarie e secondarie, non possiede alcuna consapevolezza della gerarchia delle fonti del diritto. Restituisce testi statisticamente plausibili, non giuridicamente validi.
In ambito giudiziario, questo è un punto dirimente. La motivazione di un provvedimento non è un esercizio stilistico: è un atto giuridico che deve essere fondato su norme vigenti, precedenti reali, argomentazioni verificabili. L’introduzione di riferimenti inesistenti non è solo un errore: è una lesione del diritto di difesa (art. 24 Cost.) e del principio del giusto processo (art. 111 Cost.).
Il giudice che utilizza strumenti di AI senza un controllo rigoroso abdica, di fatto, al proprio ruolo di garante della legalità. E questo ha conseguenze sistemiche, perché mina la fiducia dei cittadini nella giurisdizione.

4. Profili di responsabilità e assenza di “schermi tecnologici”


Un altro nodo cruciale riguarda la tentazione, più o meno esplicita, di considerare l’IA come uno “schermo” di responsabilità. Ma l’ordinamento non lo consente. Né sul piano disciplinare, né su quello civile o, in ipotesi estreme, penale.
L’output dell’IA non è una fonte del diritto, né un soggetto giuridico. È uno strumento. E come tale, il suo utilizzo ricade integralmente sotto la responsabilità di chi lo impiega. Non esiste, allo stato, alcuna base normativa per attribuire a un sistema di IA una quota di responsabilità decisionale.
Questo principio è destinato a rafforzarsi ulteriormente alla luce del Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), che – pur escludendo espressamente l’uso dell’IA per decisioni giudiziarie automatizzate – insiste in modo netto sul principio di human oversight e sulla necessità che i sistemi ad alto rischio non compromettano i diritti fondamentali.
La funzione giudiziaria, per definizione, rientra tra gli ambiti più sensibili. E proprio per questo, l’uso dell’IA richiede cautele rafforzate, non scorciatoie operative.

5. Verso linee guida e formazione obbligatoria?


Il caso in esame apre inevitabilmente una riflessione più ampia: è sufficiente affidarsi alla responsabilità individuale del magistrato o è necessario un intervento sistemico? Linee guida, protocolli, formazione obbligatoria sull’uso degli strumenti di IA nel contesto giudiziario appaiono ormai indispensabili.
Non per demonizzare la tecnologia, ma per incanalarla entro confini giuridicamente sostenibili. L’IA può essere un valido supporto per attività preparatorie, organizzative, di ricerca preliminare. Ma deve essere utilizzata con consapevolezza tecnica e giuridica, e soprattutto con la chiara percezione che la decisione resta umana, e solo umana.

6. Conclusioni: la modernizzazione non giustifica l’irresponsabilità


L’innovazione tecnologica non è una giustificazione per l’abbassamento degli standard professionali. Al contrario, li innalza. Il giudice che utilizza l’IA è chiamato a un surplus di attenzione, non a una delega di giudizio.
Il procedimento disciplinare che potrebbe derivare da un uso improprio dell’intelligenza artificiale non è un segnale di chiusura verso il futuro. È, piuttosto, un richiamo fermo a un principio antico ma ancora attualissimo: la responsabilità non si automatizza.
E nel diritto, soprattutto in quello che decide della vita delle persone, l’errore tecnologico non è mai neutro.

Ti interessano questi contenuti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento