AI Act: nuovi adempimenti entro il 2 agosto 2025 – Guida pratica per imprese e professionisti

Il 2 agosto 2025 segna un nuovo passaggio cruciale per l’attuazione del Regolamento europeo sull’Intelligenza Artificiale (AI Act).

Lorena Papini 01/08/25
Scarica PDF Stampa

Il 2 agosto 2025 segna un nuovo passaggio cruciale per l’attuazione del Regolamento europeo sull’Intelligenza Artificiale (AI Act). Oltre alla designazione delle autorità nazionali competenti, scattano nuovi obblighi per i fornitori di modelli di intelligenza artificiale di uso generale (GPAI). Le aziende, le startup e gli operatori legali devono attivarsi immediatamente per non trovarsi impreparati di fronte a sanzioni elevate e controlli più stringenti.
Di seguito una checklist operativa per comprendere cosa cambia, chi è soggetto agli adempimenti e come organizzarsi per tempo.

Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale. Per approfondire questi temi abbiamo organizzato il corso di formazione Master in Cybersecurity e compliance integrata

Indice

1. Designazione delle Autorità di vigilanza: cosa significa per le imprese


Ogni Stato membro UE dovrà nominare entro il 2 agosto le proprie autorità di controllo. In Italia, la proposta di legge individua l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la Cybersicurezza nazionale (ACN) come enti responsabili della supervisione del rispetto dell’AI Act.

Cosa comporta per le aziende:

  • Le imprese che sviluppano o utilizzano sistemi di IA, soprattutto ad alto rischio o GPAI, dovranno relazionarsi con queste autorità per eventuali notifiche, richieste di chiarimento e verifiche di conformità.
  • Gli organismi notificati incaricati delle valutazioni di conformità saranno sottoposti a controlli periodici da AgID e ACN, aumentando il numero di audit sulle imprese che impiegano sistemi di IA complessi.
  • È consigliabile individuare un referente interno per la compliance AI, in grado di gestire le comunicazioni con le autorità e predisporre la documentazione necessaria.

Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.

VOLUME

Ai Act

Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).

 

Michele Iaselli | Maggioli Editore 2024

2. Obblighi per i fornitori di modelli GPAI: cosa fare subito


Dal 2 agosto 2025 entrano in vigore obblighi specifici per chi sviluppa, fornisce o mette sul mercato modelli di IA di uso generale. Le novità riguardano in particolare:

  • Documentazione tecnica: ogni modello GPAI dovrà essere accompagnato da informazioni dettagliate su architettura, dati di addestramento, capacità e limiti del sistema.
  • Trasparenza sui dataset: sarà obbligatorio pubblicare un riepilogo dei dati utilizzati per l’addestramento, con attenzione particolare alle fonti protette dal diritto d’autore.
  • Notifica per modelli ad alto impatto: i modelli classificati a rischio sistemico (ad esempio con potenza di calcolo superiore a 10^23 FLOP e potenziale impatto su diritti fondamentali, sicurezza o democrazia) dovranno essere notificati all’AI Office europeo.
  • Misure di mitigazione del rischio: per i modelli più avanzati, è richiesta una valutazione preventiva dei rischi sistemici, il monitoraggio continuo e la predisposizione di meccanismi di audit indipendenti.

Suggerimento operativo: avviare subito una mappatura interna dei modelli AI sviluppati o utilizzati, classificandoli secondo i criteri dell’AI Act (standard, alto rischio, GPAI, GPAI ad alto impatto) per predisporre la documentazione richiesta.

Potrebbero interessarti anche:

3. Sistemi ad alto rischio: coordinamento con gli organismi notificati


Chi sviluppa o impiega sistemi di IA ad alto rischio (ad esempio nei settori bancario, sanitario, infrastrutturale o di sicurezza) dovrà sottoporre tali sistemi a procedure di valutazione della conformità.
Le aziende devono:

  • Verificare quali organismi notificati potranno svolgere le valutazioni in Italia.
  • Preparare in anticipo la documentazione di conformità (test di sicurezza, tracciabilità dei dati, gestione degli incidenti).
  • Implementare sistemi di monitoraggio post-commercializzazione, con obbligo di segnalare incidenti gravi o malfunzionamenti.

4. Sanzioni e responsabilità: perché è urgente agire


Le sanzioni previste sono molto elevate:

  • Fino a 35 milioni di euro o 7% del fatturato annuo globale per violazioni gravi.
  • Fino a 15 milioni di euro o 3% del fatturato per inosservanza dei requisiti sui sistemi ad alto rischio.
  • Fino a 7,5 milioni di euro o 1% del fatturato per informazioni false o incomplete.

Le PMI e le startup beneficiano di una riduzione proporzionale, ma non di esenzioni.
È quindi fondamentale documentare in modo accurato i processi di sviluppo e utilizzo dei sistemi di IA, così da dimostrare la diligenza richiesta in caso di controlli.

5. Prossimi step e scadenze future

  • 2 agosto 2025: entrano in vigore gli obblighi per i modelli GPAI introdotti dopo tale data.
  • 2 agosto 2026: la Commissione europea avrà pieni poteri sanzionatori e di vigilanza.
  • 2 agosto 2027: obbligo di conformità anche per i modelli immessi sul mercato prima del 2025.

Le imprese che iniziano oggi a implementare sistemi di gestione della compliance AI ridurranno il rischio di sanzioni e potranno utilizzare l’IA in modo conforme e sicuro.

Formazione per professionisti


Master in Cybersecurity e compliance integrata
Il Master è un percorso formativo avanzato per imprese e pubbliche amministrazioni, professionisti, DPO e consulenti legali che operano nel settore della sicurezza informatica e della governance normativa delle tecnologie digitali.
L’obiettivo del programma è fornire una visione sistematica e integrata della normativa europea e italiana in materia di cybersicurezza, affrontando in chiave applicativa gli step degli adempimenti richiesti, e la complessa interazione delle normative di riferimento, dalla Direttiva NIS 2 al GDPR, alla regolamentazione dei sistemi di intelligenza artificiale, passando per i regolamenti complementari e gli atti attuativi nazionali.
Attraverso un approccio teorico-pratico, il Master esplora: 
•  L’evoluzione della strategia europea di cybersicurezza
•  L’impianto della Direttiva NIS 2 e il D.lgs. 138/2024, con approfondimento su soggetti obbligati, misure tecniche e regimi sanzionatori
•  Il perimetro nazionale di sicurezza cibernetica e la Legge n. 90/2024 come strumenti di difesa strategica dello Stato
•  Le interazioni con normative chiave come il GDPR, il Cybersecurity Act, il Digital Operational Resilience Act (DORA) e il Cyber Resilience Act (CRA)
•  Il nuovo AI Act, che disciplina lo sviluppo, l’uso e il controllo dei sistemi di intelligenza artificiale in Europa
•  Ruoli e poteri dell’ACN: atti attuativi e misure tecniche
•  Le responsabilità aziendali e degli amministratori, la governance interna della cybersicurezza e le strategie di compliance integrata
Il percorso è arricchito da esempi pratici, simulazioni di audit, check list operative e riferimenti normativi aggiornati, utili per implementare con efficacia le disposizioni di legge nei diversi contesti organizzativi.
>>>Per info ed iscrizioni<<<

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Lorena Papini

Scrivi un commento

Accedi per poter inserire un commento