C’è qualcosa di profondamente umano – e insieme paradossale – nell’idea di voler regolamentare l’intelligenza artificiale tramite il Codice penale. Un po’ come voler insegnare a un algoritmo l’empatia con una circolare ministeriale. Eppure, è proprio questo il tentativo, audace e necessario, che il Disegno di Legge n. 1146 (alias DDL AI) approvato dal Senato italiano nel marzo 2025 ha intrapreso.
Lo scopo? Disciplinare l’impiego dell’IA in ambito giudiziario, amministrativo e penale. L’esito? Ancora incerto. Ma le premesse sono chiare: il diritto si rifiuta di restare spettatore di una trasformazione epocale, e decide – per una volta – di giocare d’anticipo.
Vediamo allora, da giuristi, cosa c’è davvero dentro questo testo e quali saranno le ricadute per la procedura civile, il Codice penale e il concetto stesso di giustizia. Il volume “Intelligenza artificiale e responsabilità dei professionisti – Etica, diligenza e algoritmi”, disponibile sullo Shop Maggioli e su Amazon, offre, in modo pratico, un’analisi sistematica e comparativa dei diversi regimi risarcitori e sanzionatori operanti tra professionisti con riferimenti normativi, dottrinali e giurisprudenziali. Per approfondire il tema, abbiamo preparato il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione
Indice
- 1. Giustizia e algoritmi: un matrimonio combinato?
- 2. Procedura civile: l’intelligenza artificiale non sale sullo scranno
- 3. IA come ausilio, non come giudice: bene, ma…
- 4. Codice penale: la colpa è dell’IA?
- 5. L’etica algoritmica non si scrive con il Codice penale
- 6. Il nodo della delega legislativa
- 7. Conclusioni: l’IA in tribunale? Sì, ma accompagnata
- Formazione per professionisti
1. Giustizia e algoritmi: un matrimonio combinato?
Il DDL AI – formalmente intitolato “Disposizioni e delega al Governo in materia di intelligenza artificiale” – nasce con l’intento di delineare un quadro normativo per l’uso dell’IA nei servizi pubblici, nella giustizia e nella pubblica amministrazione. In particolare, si concentra su due binari paralleli:
- da un lato, modificare disposizioni già esistenti (come il Codice di procedura civile e quello penale),
- dall’altro, delegare al Governo l’adozione di decreti legislativi per completare la regolazione entro dodici mesi.
Già qui si profila una scelta metodologica importante: il legislatore non definisce l’IA (rimandando implicitamente al Regolamento UE 2024/1689, c.d. AI Act), ma ne disciplina gli effetti. Come se si dicesse: non so cosa sei, ma so che hai bisogno di limiti. Il volume “Intelligenza artificiale e responsabilità dei professionisti – Etica, diligenza e algoritmi”, disponibile sullo Shop Maggioli e su Amazon, offre, in modo pratico, un’analisi sistematica e comparativa dei diversi regimi risarcitori e sanzionatori operanti tra professionisti con riferimenti normativi, dottrinali e giurisprudenziali.
Intelligenza artificiale e responsabilità dei professionisti
Il volume analizza le principali figure di professionisti in senso stretto (avvocati, notai, medici, commercialisti, ingegneri), unitamente a quelle di soggetti pubblici che, di regola, giudicano le loro condotte (magistrati) e di alcuni ausiliari del giudice (CTU) o soggetti preposti alla deflazione del contenzioso (mediatori).Ogni capitolo è dedicato ad una figura professionale specifica ed il filo conduttore, che li attraversa, è dato dalla fiducia e dall’affidamento sottesi al rapporto interumano da cui origina il rapporto professionale.Gli algoritmi e le istruzioni di condotta impartite agli strumenti di Intelligenza Artificiale sono la frontiera su cui si misura la profonda trasformazione delle professioni, che è in atto. Per tutte le figure analizzate, l’Altro è innanzitutto il Cliente, il Paziente, l’Assistito, oltre che naturalmente il Collega, la Controparte, il Consulente Tecnico d’Ufficio, l’Ausiliario e così via.La reciprocità è indicata come il faro, con cui illuminare il percorso delle professioni in un momento di cambiamento e ridefinizione.L’opera offre, in modo pratico, un’analisi sistematica e comparativa dei diversi regimi risarcitori e sanzionatori operanti tra professionisti con riferimenti normativi, dottrinali e giurisprudenziali. Francesca ToppettiEsperta in responsabilità professionale e diritto sanitario, avvocato cassazionista, è coordinatrice del Dipartimento Intelligenza Artificiale e Responsabilità in Sanità della UMEM. Membro del Consiglio Direttivo dell’Unione Europea per la Tutela dei Diritti dell’Uomo e componente della Commissione Responsabilità Professionale Sanitaria istituita presso il Consiglio dell’Ordine degli Avvocati di Roma. Autrice di numerose pubblicazioni e volumi, è relatrice in convegni e congressi in materia di responsabilità civile, tutela dei diritti della persona e conciliazione stragiudiziale delle liti. Si occupa di filantropia ed è Direttore Generale di Emergenza Sorrisi ETS.
Francesca Toppetti | Maggioli Editore 2025
24.70 €
2. Procedura civile: l’intelligenza artificiale non sale sullo scranno
Uno degli aspetti più delicati è l’introduzione dell’art. 4 nel DDL, che modifica la competenza giurisdizionale nei procedimenti relativi ai sistemi di IA: questi casi saranno affidati esclusivamente al Tribunale, escludendo i giudici di pace.
Scelta logica? Forse. Ma il sottotesto è interessante: il legislatore considera le controversie sull’IA troppo complesse per la giurisdizione onoraria. Dunque, l’IA sale in aula, ma solo nei tribunali maggiori.
Allo stesso tempo, si precisa che l’intelligenza artificiale può essere usata nella gestione amministrativa della giustizia, ma non nelle decisioni giudiziarie. Una rassicurazione che vale oro, in tempi in cui ChatGPT è consultato anche per fare ricorso al TAR.
3. IA come ausilio, non come giudice: bene, ma…
Il principio è chiaro: l’intelligenza artificiale può assistere il giudice, non sostituirlo. Eppure, viene da chiedersi: cosa succede quando il supporto diventa dipendenza?
Immaginiamo un sistema di IA che:
- genera schemi di sentenza,
- classifica automaticamente i fascicoli,
- suggerisce orientamenti giurisprudenziali.
Tutto perfetto. Finché non ci accorgiamo che la discrezionalità si assottiglia, e che la macchina detta il ritmo e il contenuto della decisione, anche se formalmente la firma resta del magistrato.
È qui che il DDL mostra un’ambiguità: vieta l’uso decisionale diretto, ma non affronta il tema dell’influenza sistemica. Il rischio, come ha detto qualcuno, è che il giudice diventi il notaio dell’algoritmo.
4. Codice penale: la colpa è dell’IA?
Ma è nel penale che il DDL si fa più muscolare. Tre le novità principali:
a) Aggravanti specifiche
Viene introdotta una circostanza aggravante comune per i reati commessi “mediante sistemi di intelligenza artificiale”. Una seconda aggravante – più grave – si applica agli attentati contro i diritti politici del cittadino se commessi tramite IA.
Siamo al cuore del problema: l’IA come strumento di lesione dei diritti fondamentali. Non è tanto una questione di dolo o colpa, quanto di responsabilità tecnica e giuridica.
b) Un nuovo reato: la diffusione illecita di contenuti AI
Si introduce una nuova fattispecie penale per chi “diffonde contenuti generati o manipolati mediante sistemi di intelligenza artificiale, al fine di danneggiare l’onore, la reputazione o l’identità di una persona”.
Una norma pensata per arginare deepfake, video alterati, immagini pornografiche non consenzienti, e altri orrori digitali. Una risposta necessaria, ma anche problematica: chi stabilisce se un contenuto è “manipolato”? E soprattutto: come si dimostra l’intento lesivo in un contesto di diffusione virale?
5. L’etica algoritmica non si scrive con il Codice penale
Nel DDL c’è molto diritto, ma poca etica. Eppure, nel rapporto tra giustizia e intelligenza artificiale, la questione morale è centrale.
- Come garantire la non discriminazione algoritmica nei sistemi predittivi usati per valutare la recidiva?
- Come evitare che l’IA riproduca bias storici, specie in ambito penale, dove il margine d’errore è inaccettabile?
- Chi è responsabile se un sistema suggerisce una misura cautelare errata?
Su questi temi, il DDL è silente o evasivo. E questo è un problema, perché senza un quadro etico robusto, ogni norma rischia di diventare un’ipocrisia legalizzata.
Potrebbero interessarti anche:
6. Il nodo della delega legislativa
Una parte consistente del DDL è composta da deleghe al Governo per l’adozione di futuri decreti legislativi. Il rischio è evidente: l’architettura normativa sarà costruita fuori dal Parlamento, con margini di discrezionalità notevoli.
Se da un lato questa scelta permette una maggiore agilità, dall’altro depaupera il confronto pubblico e affida a tecnici (o peggio, a lobbisti) il compito di disegnare la giustizia del futuro
7. Conclusioni: l’IA in tribunale? Sì, ma accompagnata
Il DDL AI rappresenta un segnale importante: lo Stato italiano riconosce che l’intelligenza artificiale non è solo un tema da ingegneri, ma anche e soprattutto un tema giuridico.
Eppure, non basta delimitare i confini. Serve una visione complessiva della giustizia digitale: una visione in cui l’algoritmo non diventi l’arbitro occulto delle decisioni, ma resti un assistente evoluto, utile ma subordinato.
Il rischio, altrimenti, è di scivolare nella giurisdizione automatizzata, dove il formalismo maschera l’assenza di pensiero critico, e dove la sentenza diventa un output predittivo più che un atto di responsabilità umana.
Per noi avvocati, DPO, consulenti, significa attrezzarci: capire i meccanismi, conoscere i limiti, affermare i diritti. Non per paura della tecnologia, ma per rispetto della democrazia.
Come ammoniva Oliver Wendell Holmes Jr., giurista visionario e pragmatista:
“The life of the law has not been logic; it has been experience.”
(La vita del diritto non è stata la logica, ma l’esperienza.)
E l’esperienza – quella che forma il giudizio umano, che coglie le sfumature, che distingue il caso dal precedente – non si codifica in un algoritmo.
Formazione per professionisti
Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione
Il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.
Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Grazie all’utilizzo dei più innovativi tool di AI generativa da parte dei docenti, i partecipanti, in aggiunta alle tradizionali dispense e slide, avranno accesso a un kit di risorse interattive basate su AI: GPT conversazionali, notebook di studio su NotebookLM, mappe concettuali dinamiche, framework operativi e strumenti specialistici.
Prenotazione servizio di consulenza
Puoi prenotare un servizio di consulenza personalizzato sulle tue esigenze con il docente Claudio Gionti compilando il modulo disponibile al seguente link:
https://docs.google.com/forms/d/e/1FAIpQLScnwEL4P3B76WZRaoW9FnpcwT9Uh570ZAQfisMgTaDVsOzEMg/viewform
Per assistenza sulle richieste di prenotazione contattare l’indirizzo mail: servizioclienti@maggioli.it
Attestato
Al termine del Master verrà rilasciato un attestato di partecipazione, valido per l’ottenimento dei crediti formativi per avvocati. L’attestato di partecipazione sarà rilasciato solamente agli iscritti che frequenteranno almeno l’80% delle ore a programma.
>>>Per info ed iscrizioni<<<
Scrivi un commento
Accedi per poter inserire un commento