Il 2 agosto 2025 segna un nuovo passaggio cruciale per l’attuazione del Regolamento europeo sull’Intelligenza Artificiale (AI Act). Oltre alla designazione delle autorità nazionali competenti, scattano nuovi obblighi per i fornitori di modelli di intelligenza artificiale di uso generale (GPAI). Le aziende, le startup e gli operatori legali devono attivarsi immediatamente per non trovarsi impreparati di fronte a sanzioni elevate e controlli più stringenti.
Di seguito una checklist operativa per comprendere cosa cambia, chi è soggetto agli adempimenti e come organizzarsi per tempo.
Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale. Per approfondire questi temi abbiamo organizzato il corso di formazione Master in Cybersecurity e compliance integrata
Indice
- 1. Designazione delle Autorità di vigilanza: cosa significa per le imprese
- 2. Obblighi per i fornitori di modelli GPAI: cosa fare subito
- 3. Sistemi ad alto rischio: coordinamento con gli organismi notificati
- 4. Sanzioni e responsabilità: perché è urgente agire
- 5. Prossimi step e scadenze future
- Formazione per professionisti
- Vuoi ricevere aggiornamenti costanti?
1. Designazione delle Autorità di vigilanza: cosa significa per le imprese
Ogni Stato membro UE dovrà nominare entro il 2 agosto le proprie autorità di controllo. In Italia, la proposta di legge individua l’Agenzia per l’Italia digitale (AgID) e l’Agenzia per la Cybersicurezza nazionale (ACN) come enti responsabili della supervisione del rispetto dell’AI Act.
Cosa comporta per le aziende:
- Le imprese che sviluppano o utilizzano sistemi di IA, soprattutto ad alto rischio o GPAI, dovranno relazionarsi con queste autorità per eventuali notifiche, richieste di chiarimento e verifiche di conformità.
- Gli organismi notificati incaricati delle valutazioni di conformità saranno sottoposti a controlli periodici da AgID e ACN, aumentando il numero di audit sulle imprese che impiegano sistemi di IA complessi.
- È consigliabile individuare un referente interno per la compliance AI, in grado di gestire le comunicazioni con le autorità e predisporre la documentazione necessaria.
Il volume “Ai Act – Principi, regole ed applicazioni pratiche del Reg. UE 1689/2024”, disponibile sullo Shop Maggioli e su Amazon, si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.
Ai Act
Quale impatto avrà l’intelligenza artificiale sulla nostra società e soprattutto sul diritto? Il testo esplora questa complessa intersezione, offrendo una guida dettagliata e completa.L’opera approfondisce l’evoluzione dell’AI, dalle sue umili origini nei primi sistemi esperti alle avanzate reti neurali e all’AI generativa di oggi.Analizza in modo critico il panorama normativo europeo, come il recente Regolamento n. 1689/2024, delineando il percorso legislativo e le regolamentazioni che cercano di gestire e governare questa tecnologia in rapida evoluzione.Gli autori affrontano temi fondamentali come l’etica dell’AI, la responsabilità legale, la sicurezza dei dati e la protezione della privacy.Il libro non si limita alla teoria: esplora anche le applicazioni pratiche dell’AI in vari settori, tra cui la giustizia, il settore finanziario, la pubblica amministrazione e la medicina.Attraverso casi di studio e analisi dettagliate, il libro mostra come l’AI stia trasformando questi ambiti e quali questioni giuridiche stiano emergendo.Inoltre, viene esaminato l’impatto dell’AI sul mondo del lavoro, evidenziando come l’automazione e le nuove tecnologie stiano cambiando le dinamiche lavorative e quali siano le implicazioni legali di queste trasformazioni.L’opera vuole essere una lettura essenziale per avvocati, giuristi, professionisti IT e tutti coloro che desiderano comprendere le complesse relazioni tra tecnologia e diritto, offrendo una visione completa e aggiornata, ricca di analisi critiche e riflessioni pratiche, per navigare nel futuro della tecnologia e del diritto con consapevolezza e competenza.Michele IaselliAvvocato, docente di Diritto digitale e tutela dei dati alla LUISS e di informatica giuridica all’Università di Cassino. Direttore del comitato scientifico di ANDIP e coordinatore del comitato scientifico di Feder-privacy. Funzionario del Ministero della Difesa ed esperto dell’Ufficio Generale Innovazione Difesa, è membro del Comitato di presidenza dell’ENIA (Ente Nazionale Intelligenza Artificiale).
Michele Iaselli | Maggioli Editore 2024
43.70 €
2. Obblighi per i fornitori di modelli GPAI: cosa fare subito
Dal 2 agosto 2025 entrano in vigore obblighi specifici per chi sviluppa, fornisce o mette sul mercato modelli di IA di uso generale. Le novità riguardano in particolare:
- Documentazione tecnica: ogni modello GPAI dovrà essere accompagnato da informazioni dettagliate su architettura, dati di addestramento, capacità e limiti del sistema.
- Trasparenza sui dataset: sarà obbligatorio pubblicare un riepilogo dei dati utilizzati per l’addestramento, con attenzione particolare alle fonti protette dal diritto d’autore.
- Notifica per modelli ad alto impatto: i modelli classificati a rischio sistemico (ad esempio con potenza di calcolo superiore a 10^23 FLOP e potenziale impatto su diritti fondamentali, sicurezza o democrazia) dovranno essere notificati all’AI Office europeo.
- Misure di mitigazione del rischio: per i modelli più avanzati, è richiesta una valutazione preventiva dei rischi sistemici, il monitoraggio continuo e la predisposizione di meccanismi di audit indipendenti.
Suggerimento operativo: avviare subito una mappatura interna dei modelli AI sviluppati o utilizzati, classificandoli secondo i criteri dell’AI Act (standard, alto rischio, GPAI, GPAI ad alto impatto) per predisporre la documentazione richiesta.
Potrebbero interessarti anche:
3. Sistemi ad alto rischio: coordinamento con gli organismi notificati
Chi sviluppa o impiega sistemi di IA ad alto rischio (ad esempio nei settori bancario, sanitario, infrastrutturale o di sicurezza) dovrà sottoporre tali sistemi a procedure di valutazione della conformità.
Le aziende devono:
- Verificare quali organismi notificati potranno svolgere le valutazioni in Italia.
- Preparare in anticipo la documentazione di conformità (test di sicurezza, tracciabilità dei dati, gestione degli incidenti).
- Implementare sistemi di monitoraggio post-commercializzazione, con obbligo di segnalare incidenti gravi o malfunzionamenti.
4. Sanzioni e responsabilità: perché è urgente agire
Le sanzioni previste sono molto elevate:
- Fino a 35 milioni di euro o 7% del fatturato annuo globale per violazioni gravi.
- Fino a 15 milioni di euro o 3% del fatturato per inosservanza dei requisiti sui sistemi ad alto rischio.
- Fino a 7,5 milioni di euro o 1% del fatturato per informazioni false o incomplete.
Le PMI e le startup beneficiano di una riduzione proporzionale, ma non di esenzioni.
È quindi fondamentale documentare in modo accurato i processi di sviluppo e utilizzo dei sistemi di IA, così da dimostrare la diligenza richiesta in caso di controlli.
5. Prossimi step e scadenze future
- 2 agosto 2025: entrano in vigore gli obblighi per i modelli GPAI introdotti dopo tale data.
- 2 agosto 2026: la Commissione europea avrà pieni poteri sanzionatori e di vigilanza.
- 2 agosto 2027: obbligo di conformità anche per i modelli immessi sul mercato prima del 2025.
Le imprese che iniziano oggi a implementare sistemi di gestione della compliance AI ridurranno il rischio di sanzioni e potranno utilizzare l’IA in modo conforme e sicuro.
Formazione per professionisti
Master in Cybersecurity e compliance integrata
Il Master è un percorso formativo avanzato per imprese e pubbliche amministrazioni, professionisti, DPO e consulenti legali che operano nel settore della sicurezza informatica e della governance normativa delle tecnologie digitali.
L’obiettivo del programma è fornire una visione sistematica e integrata della normativa europea e italiana in materia di cybersicurezza, affrontando in chiave applicativa gli step degli adempimenti richiesti, e la complessa interazione delle normative di riferimento, dalla Direttiva NIS 2 al GDPR, alla regolamentazione dei sistemi di intelligenza artificiale, passando per i regolamenti complementari e gli atti attuativi nazionali.
Attraverso un approccio teorico-pratico, il Master esplora:
• L’evoluzione della strategia europea di cybersicurezza
• L’impianto della Direttiva NIS 2 e il D.lgs. 138/2024, con approfondimento su soggetti obbligati, misure tecniche e regimi sanzionatori
• Il perimetro nazionale di sicurezza cibernetica e la Legge n. 90/2024 come strumenti di difesa strategica dello Stato
• Le interazioni con normative chiave come il GDPR, il Cybersecurity Act, il Digital Operational Resilience Act (DORA) e il Cyber Resilience Act (CRA)
• Il nuovo AI Act, che disciplina lo sviluppo, l’uso e il controllo dei sistemi di intelligenza artificiale in Europa
• Ruoli e poteri dell’ACN: atti attuativi e misure tecniche
• Le responsabilità aziendali e degli amministratori, la governance interna della cybersicurezza e le strategie di compliance integrata
Il percorso è arricchito da esempi pratici, simulazioni di audit, check list operative e riferimenti normativi aggiornati, utili per implementare con efficacia le disposizioni di legge nei diversi contesti organizzativi.
>>>Per info ed iscrizioni<<<
Vuoi ricevere aggiornamenti costanti?
Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!
Scrivi un commento
Accedi per poter inserire un commento