Linee guida AI nel lavoro: AI Act, diritto del lavoro e rischio algoritmico

Focus sulle linee guida per l’AI nel lavoro: impatti dell’AI Act, tutele lavoristiche e governance del rischio algoritmico nelle decisioni HR.

Scarica PDF Stampa Allegati

Con il decreto ministeriale n. 180 del 17 dicembre 2025, il Ministero del lavoro e delle politiche sociali ha adottato le Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro, dando attuazione, sul piano operativo, a una pluralità di fonti ormai imprescindibili: il Regolamento (UE) 2024/1689 sull’intelligenza artificiale (AI Act), la Strategia italiana per l’IA 2024–2026, il Piano d’azione del G7 Lavoro di Cagliari e, soprattutto, la legge 23 settembre 2025 n. 132, che ha istituito l’Osservatorio nazionale sull’adozione dei sistemi di IA in ambito lavorativo.
Il dato rilevante, però, non è tanto l’ennesima produzione di soft law, quanto la scelta – finalmente esplicita – di collocare l’uso dell’IA nel lavoro dentro una cornice giuridica, che tiene insieme innovazione tecnologica, diritti fondamentali e responsabilità organizzativa. Le Linee guida non sono un manuale tecnico né un semplice documento di indirizzo politico: sono, piuttosto, un tentativo di costruire una grammatica giuridica dell’algoritmo applicato al lavoro.
In materia consigliamo i volumi NIS 2 ed Evoluzione della Cybersicurezza Nazionale, disponibile su Shop Maggioli e su Amazon, e “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132″, disponibile su Shop Maggioli e su Amazon, e, per la formazione del professionista, il Master in Cybersecurity e compliance integrata.

Scarica le Linee guida per l’implementazione dell’intelligenza artificiale nel mondo del lavoro

decreto-ministeriale-n-180-del-17122025-1.pdf 6 MB

Iscriviti alla newsletter per poter scaricare gli allegati

Grazie per esserti iscritto alla newsletter. Ora puoi scaricare il tuo contenuto.

Indice

1. Il lavoro come ambito ad alto rischio algoritmico


Uno dei punti più interessanti del documento è la piena assunzione di consapevolezza del fatto che il contesto lavorativo rientra, a pieno titolo, tra quelli ad “alto rischio” ai sensi dell’AI Act. Non si tratta di un’affermazione simbolica. I sistemi utilizzati per la selezione del personale, la valutazione delle performance, l’organizzazione del lavoro, la gestione dei turni o il monitoraggio della produttività incidono direttamente su diritti fondamentali della persona: accesso al lavoro, parità di trattamento, dignità professionale, salute psico-fisica.
In questo senso, le Linee guida si muovono in continuità con l’impostazione europea, ma la traducono in una prospettiva tipicamente lavoristica, richiamando – anche se non sempre in modo esplicito – lo Statuto dei lavoratori, il divieto di controlli a distanza non proporzionati, il principio di correttezza e buona fede nel rapporto di lavoro. L’algoritmo non è più un semplice strumento organizzativo neutro: è un fattore di rischio giuridico e come tale deve essere governato. In materia consigliamo i volumi NIS 2 ed Evoluzione della Cybersicurezza Nazionale, disponibile su Shop Maggioli e su Amazon, e “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132″, disponibile su Shop Maggioli e su Amazon.

2. Trasparenza, supervisione umana e diritto alla spiegazione


Il cuore giuridico delle Linee guida è rappresentato dal trittico trasparenza–spiegabilità–supervisione umana. Concetti noti, certo, ma qui calati in modo molto concreto nei processi aziendali. L’uso dell’IA nel lavoro non può tradursi in una delega cieca alla macchina. Ogni decisione algoritmica che incide sulla posizione del lavoratore deve essere comprensibile, verificabile e contestabile.
Questo punto si innesta direttamente sull’art. 22 del GDPR, ma ne amplia la portata applicativa. Non si parla solo di “decisioni esclusivamente automatizzate” in senso stretto, ma di sistemi che, pur formalmente assistivi, orientano in modo determinante le scelte del datore di lavoro. La supervisione umana richiesta non è cosmetica: deve essere effettiva, informata, dotata di potere correttivo. In altre parole, la responsabilità non può mai essere scaricata sull’algoritmo.

Potrebbero interessarti anche:

3. Il governo del rischio e la responsabilità organizzativa


Un altro elemento di forte interesse è l’insistenza sul risk management algoritmico. Le Linee guida introducono un approccio strutturato: mappatura dei sistemi di IA utilizzati, classificazione del rischio secondo l’AI Act, valutazione degli impatti su occupazione, privacy e diritti, adozione di misure di mitigazione. Qui il diritto del lavoro incontra la compliance, la data protection e la responsabilità amministrativa degli enti.
Non è casuale il richiamo al D.Lgs. 231/2001. L’uso improprio o opaco dell’IA può diventare, a tutti gli effetti, un rischio organizzativo rilevante. Audit etici, policy interne, tracciabilità dei processi decisionali algoritmici e canali di segnalazione (anche in chiave whistleblowing) sono strumenti che parlano il linguaggio della prevenzione, non della repressione. E segnano un passaggio culturale importante: l’IA entra stabilmente nei modelli di governance aziendale.

4. Lavoratori, PMI e inclusione digitale


Merita attenzione anche l’impostazione inclusiva del documento. Le Linee guida non sono pensate solo per le grandi imprese tecnologicamente mature, ma dedicano ampio spazio alle PMI e ai lavoratori autonomi, che rappresentano l’ossatura del mercato del lavoro italiano. L’IA viene presentata come opportunità, ma senza ingenuità: si riconoscono i rischi di esclusione, polarizzazione delle competenze e dipendenza dalle piattaforme.
La risposta proposta non è il blocco dell’innovazione, bensì l’investimento sistematico in formazione, upskilling e reskilling, accompagnato da strumenti pubblici di supporto e incentivi economici. È una visione coerente con il Patto europeo per le competenze e con l’idea, ormai centrale anche a livello UE, che la transizione digitale sia prima di tutto una transizione sociale.

5. Un documento aperto, non una verità definitiva


Infine, va sottolineato un aspetto spesso trascurato: le Linee guida non si presentano come un testo chiuso. Al contrario, dichiarano espressamente la loro natura dinamica, affidando all’Osservatorio sull’adozione dell’IA nel lavoro il compito di aggiornarle nel tempo. È una scelta intelligente, perché riconosce l’evoluzione rapidissima delle tecnologie e la necessità di un monitoraggio continuo.
Dal punto di vista giuridico, questo significa una cosa molto chiara: l’adozione dell’IA nel lavoro non è un evento puntuale, ma un processo. E come tale richiede responsabilità, competenze interdisciplinari e una costante capacità di interrogarsi sugli effetti concreti delle scelte tecnologiche.
In definitiva, il decreto ministeriale n. 180/2025 e le Linee guida allegate rappresentano un passaggio significativo nella costruzione di un diritto del lavoro capace di dialogare con l’intelligenza artificiale senza subirla. Non risolvono tutti i problemi, né potrebbero farlo. Ma segnano una direzione: l’algoritmo non governa il lavoro; è il diritto che deve governare l’algoritmo. E, di questi tempi, non è affatto poco.

Formazione in materia per professionisti



Master in Cybersecurity e compliance integrata
Il Master, giunto alla II edizione, è un percorso formativo avanzato pensato per imprese e pubbliche amministrazioni, professionisti, DPO, responsabili IT, compliance officer e consulenti legali che operano nel settore della sicurezza informatica e della governance normativa delle tecnologie digitali.
L’obiettivo del programma è fornire una visione sistematica, integrata e aggiornata della normativa europea e italiana in materia di cybersicurezza, affrontando in chiave applicativa i principali riferimenti normativi, dalle Direttive NIS alla nuova regolamentazione dei sistemi di intelligenza artificiale, passando per i regolamenti complementari e le linee guida e le ultime Determinazioni dell’ACN.
Attraverso un approccio teorico-pratico, il master esplora:
• L’evoluzione della strategia europea di cybersicurezza.
• L’impianto della Direttiva NIS 2 e il D.lgs. 138/2024, con approfondimento su soggetti obbligati, misure tecniche e regimi sanzionatori.
• Il Perimetro nazionale di sicurezza cibernetica e la Legge n. 90/2024 come strumenti di difesa strategica dello Stato.
• Le interazioni con normative chiave come il GDPR, il Cybersecurity Act, il Digital Operational Resilience Act (DORA) e il Cyber Resilience Act (CRA).
• Il nuovo AI Act, che disciplina lo sviluppo, l’uso e il controllo dei sistemi di intelligenza artificiale in Europa.
• Le responsabilità aziendali e degli amministratori, la governance interna della cybersicurezza e le strategie di compliance integrata.
Il percorso è arricchito da esempi pratici, simulazioni di audit, check list operative e riferimenti normativi aggiornati, utili per implementare con efficacia le disposizioni di legge nei diversi contesti organizzativi.
>>>Per info ed iscrizioni<<<

Ti interessano questi contenuti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento