Legge AI: in vigore la legge delega italiana sull’Intelligenza Artificiale

Da oggi, 10 ottobre 2025, sarà in vigore la nuova legge delega italiana sull’intelligenza artificiale: quadro normativo, principi, criticità e prospettive.

Scarica PDF Stampa Allegati

Da oggi, 10 ottobre 2025, è in vigore il testo definitivo della Legge Delega 23 settembre 2025, n. 132, pubblicato in Gazzetta Ufficiale (Serie Generale n. 223 del 25-9-2025), che istituisce il quadro nazionale sull’intelligenza artificiale (il PDF del testo è in allegato scaricabile). Per scoprire cosa cambia per i giuristi, leggi l’articolo Legge italiana sull’Intelligenza Artificiale: cosa cambia per avvocati e giuristi.
Il disegno di legge n. 1146 (“Disposizioni e deleghe al Governo in materia di intelligenza artificiale”) era stato approvato in via definitiva con il voto definitivo del Senato del 17 settembre 2025.
Si tratta di un intervento normativo di notevole rilievo, che si inserisce in un contesto europeo segnato dall’entrata in vigore, il 1° agosto 2024, del Regolamento (UE) 2024/1689 (AI Act), destinato a costituire il quadro giuridico vincolante per l’uso dei sistemi di IA nell’Unione.
L’Italia, con questa legge, sceglie di non limitarsi a un recepimento passivo delle disposizioni europee, ma di introdurre una disciplina nazionale che, pur dichiarandosi complementare e coerente con l’AI Act, intende regolare aspetti peculiari del contesto interno, attraverso principi, regole di governance e deleghe legislative che saranno concretizzate nei prossimi mesi. Sul passaggio precedente, leggi l’articolo Disegno di legge n. 1146/2024 (Ddl Intelligenza Artificiale): ok dalla Camera
L’articolo che segue si propone di analizzare la struttura e i contenuti principali della legge, mettendo in luce le implicazioni sistematiche con il diritto dell’Unione, le interferenze con il Regolamento (UE) 2016/679 (GDPR) e il Codice Privacy (d.lgs. 196/2003, come modificato dal d.lgs. 101/2018), nonché le criticità legate alla responsabilità civile e penale, alla tutela dei diritti fondamentali e all’attuazione pratica. Sulla nuova legge sull’Intelligenza Artificiale abbiamo pubblicato il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e su Amazon. Per approfondire il tema, ti consigliamo i corsi Maggioli Legal Prompting – Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale.

Scarica il testo in PDF

1758826137215.pdf 506 KB

Iscriviti alla newsletter per poter scaricare gli allegati

Grazie per esserti iscritto alla newsletter. Ora puoi scaricare il tuo contenuto.

Indice

1. Struttura e principi generali della legge delega sull’Intelligenza Artificiale


La legge approvata si articola in una parte di principi e disposizioni generali, seguita da norme specifiche per ambiti sensibili e da un’ampia delega al Governo per l’adozione di decreti legislativi entro 12 mesi.
1.1. Principi fondamentali
I principi cardine individuati dal legislatore possono essere sintetizzati nei seguenti:

  • centralità della persona umana e antropocentrismo dell’Intelligenza Artificiale;
  • trasparenza e spiegabilità dei sistemi;
  • responsabilità degli operatori;
  • non discriminazione e inclusione;
  • tutela della dignità e dei diritti fondamentali;
  • protezione dei dati personali e sicurezza informatica.

Tali principi, per quanto ampiamente dichiarativi, costituiscono la cornice interpretativa delle successive norme delegate e dovranno orientare l’attività normativa secondaria.
1.2. Governance
La legge attribuisce un ruolo centrale all’Agenzia per l’Italia digitale (AgID) e all’Agenzia per la Cybersicurezza Nazionale (ACN), chiamate a vigilare, coordinare e monitorare l’attuazione della disciplina, in raccordo con il Governo e con le autorità indipendenti, in primis il Garante per la protezione dei dati personali.
È previsto inoltre un Comitato interministeriale per l’intelligenza artificiale, incaricato di definire le linee strategiche e di coordinare l’azione dei diversi ministeri. Sulla nuova legge sull’Intelligenza Artificiale abbiamo pubblicato il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e su Amazon.

VOLUME

La legge Italiana sull’Intelligenza Artificiale

Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico. Vincenzo FranceschelliCome professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU – Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.Andrea Sirotti GaudenziAvvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.

 

Vincenzo Franceschelli, Andrea Sirotti Gaudenzi | Maggioli Editore 2025

2. Rapporti con il diritto europeo: AI Act e GDPR


2.1. Complementarità con l’AI Act
Il legislatore dichiara espressamente che la legge nazionale deve essere letta in coerenza con l’AI Act. In particolare, le categorie di rischio dei sistemi di IA, così come definite dal regolamento europeo (alto rischio, rischio limitato, rischio minimo), restano la griglia di riferimento. Tuttavia, la legge italiana interviene con regole ulteriori in specifici ambiti (minori, giustizia, sanità) introducendo potenzialmente obblighi più stringenti.
2.2. Rapporti con il GDPR e il Codice Privacy
Il trattamento dei dati personali mediante Intelligenza Artificiale è soggetto al GDPR e al Codice Privacy. La legge ribadisce tale cornice, ma aggiunge:

  • l’obbligo di consultazione preventiva del Garante in caso di utilizzo di sistemi di IA che trattano dati sensibili per ricerca o sanità;
  • l’obbligo di adozione di misure tecniche e organizzative aggiuntive rispetto all’art. 32 GDPR, per i sistemi ad alto rischio;
  • la previsione di informative specifiche agli interessati quando i loro dati sono utilizzati per addestramento algoritmico.

È evidente la volontà del legislatore di evitare conflitti con il diritto europeo, ma non si può escludere il rischio di gold-plating: l’imposizione di obblighi più onerosi rispetto al minimo europeo, con possibili criticità di compatibilità.

Potrebbero interessarti anche:

3. Ambiti settoriali disciplinati


3.1. Giustizia
La legge stabilisce che l’impiego di sistemi di Intelligenza Artificiale nell’ambito giudiziario può riguardare solo funzioni di supporto (analisi giurisprudenziale, gestione degli atti, predizione statistica), ma non le decisioni fondamentali, che restano nella competenza esclusiva del magistrato.
È previsto un regime di trasparenza e tracciabilità, con obbligo di segnalare nei provvedimenti ogni contributo derivante da Intelligenza Artificiale.
3.2. Sanità e ricerca
Sono ammessi sistemi di Intelligenza Artificiale per diagnosi, terapie e ricerca, ma con l’obbligo di coinvolgere comitati etici, ottenere pareri del Garante per la privacy e garantire la supervisione medica. I trattamenti di dati sensibili devono rispettare il principio di minimizzazione, oltre a specifiche misure di sicurezza rafforzate.
3.3. Minori
È introdotto un regime più restrittivo: sotto i 14 anni, l’utilizzo di strumenti di Intelligenza Artificiale che comportino il trattamento di dati personali richiede il consenso dei genitori. Questa previsione si aggiunge all’art. 8 GDPR (che fissa la soglia a 13/16 anni con possibilità di scelta nazionale) e solleva dubbi di compatibilità.

4. Responsabilità civile e penale


4.1. Responsabilità civile
La legge non introduce un sistema unitario di responsabilità, ma rinvia ai decreti delegati. Le ipotesi in discussione includono:

  • una responsabilità oggettiva del fornitore per danni causati da sistemi ad alto rischio;
  • una responsabilità solidale tra sviluppatore, distributore e utilizzatore;
  • obblighi assicurativi per operatori e imprese.

La mancanza di chiarezza immediata espone a incertezza applicativa, specie per le imprese.
4.2. Responsabilità penale
Sono previste nuove fattispecie o aggravanti quando il reato è commesso mediante sistemi di IA, in particolare per:

  • diffusione di deepfake e manipolazioni audiovisive ingannevoli;
  • frodi, truffe o reati informatici agevolati dall’uso di IA.

Queste disposizioni pongono questioni di proporzionalità e di compatibilità con la libertà di espressione e la satira.

5. Criticità sistematiche


5.1. Ambiguità definitorie
Le definizioni adottate dalla legge non sempre coincidono con quelle dell’AI Act. Termini come “decisione automatizzata” o “sistema ad alto rischio” risultano talvolta vaghi, generando il rischio di conflitti interpretativi.
5.2. Governance complessa
La molteplicità di autorità coinvolte (AgID, ACN, Garante privacy, comitati etici, ministeri) rischia di creare frammentazione e conflitti di competenza. Una governance multilivello richiede meccanismi chiari di coordinamento.
5.3. Attuazione finanziaria
Il testo approvato contiene la clausola di invarianza finanziaria (“nessun nuovo o maggiore onere per la finanza pubblica”), che potrebbe rivelarsi problematica: le attività di certificazione, audit, vigilanza e formazione richiedono inevitabilmente risorse.
5.4. Rischio di overregulation
Alcune previsioni nazionali, più severe dell’AI Act, potrebbero scoraggiare investimenti e innovazione, generando un effetto di forum shopping a vantaggio di Paesi UE con discipline meno onerose.

6. Prospettive applicative


Il cuore operativo della riforma risiederà nei decreti legislativi attuativi che il Governo dovrà adottare entro 12 mesi. Saranno questi a:

  • definire criteri tecnici di certificazione e audit dei sistemi;
  • disciplinare la responsabilità civile e gli obblighi assicurativi;
  • precisare l’uso dei sistemi in ambiti sensibili;
  • armonizzare il ruolo delle autorità.

È prevedibile che il Garante privacy, l’ACN e l’AgID giocheranno un ruolo determinante, sia nell’elaborazione dei decreti, sia nell’interpretazione e applicazione concreta.

7. Conclusioni


La nuova legge sull’intelligenza artificiale rappresenta un passaggio storico per l’Italia, che sceglie di dotarsi di un quadro normativo interno a complemento dell’AI Act europeo. L’impianto complessivo, basato su principi generali e ampie deleghe, mostra ambizione ma lascia aperte molte incognite.
Le principali sfide saranno:

  • garantire coerenza con il diritto europeo, evitando duplicazioni e conflitti;
  • chiarire il regime delle responsabilità;
  • assicurare effettività ai diritti degli interessati, in particolare in relazione ai dati personali;
  • dotare le autorità di risorse adeguate;
  • bilanciare innovazione e tutela, senza cadere nell’overregulation.

Il vero banco di prova sarà dunque l’attuazione: solo attraverso decreti legislativi ben calibrati, linee guida tecniche e un dialogo costante con gli operatori sarà possibile tradurre i principi della legge in strumenti concreti ed efficaci di regolazione.

Formazione per professionisti in materia


Il corso Legal Prompting -Dal prompting ai workflow pratici: nuovi modelli di AI per lo studio legale offre strumenti concreti per usare in modo consapevole e sicuro strumenti di AI generativa nella vita professionale di tutti i giorni. I partecipanti impareranno a lavorare con i principali modelli AI (ChatGPT-5, Claude, Gemini, ManusAI, Perplexity), affinare tecniche di prompting e controlli incrociati, organizzare workflow coerenti e limitare il rischio di allucinazioni. 
Verrà presentato il Metodo dei 5 Progetti, con applicazioni concrete alla professione forense, e si lavorerà sulla scelta del modello più sicuro e adeguato, la protezione di dati e dispositivi, il rispetto delle regole deontologiche e la protezione di GPT personalizzati da prompt injection e altri rischi di sicurezza.
Il corso combina dimostrazioni pratiche, checklist operative e casi d’uso concreti, garantendo un approccio immediatamente applicabile nella pratica professionale.
>>>Per info ed iscrizioni<<<

Ti interessano questi contenuti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento