Antropocentrismo e diritto dell’intelligenza artificiale: tra legge italiana e AI Act

Tra i principi della legge italiana sull’AI spicca quello dell’“antropocentrismo”, destinato a diventare la cifra del rapporto tra uomo e macchina

Scarica PDF Stampa

La legge italiana sull’intelligenza artificiale, recentemente approvata dal Parlamento, apre una stagione di interventi nazionali nel solco — o ai margini — dell’AI Act europeo (Regolamento UE 2024/1689).
Tra i principi ispiratori spicca quello dell’“antropocentrismo”, destinato a diventare la cifra retorica e giuridica del rapporto tra uomo e macchina. Ma cosa significa, concretamente, un approccio antropocentrico in un contesto dominato da algoritmi opachi, automazione e asimmetrie informative?
L’articolo esamina la tenuta effettiva di tale principio alla luce del diritto europeo, interrogandosi sulla compatibilità e sul rischio di sovrapposizione tra la legge italiana e l’AI Act, che già disciplina in modo esaustivo lo sviluppo, la messa in commercio e l’uso dei sistemi di intelligenza artificiale.
In materia consigliamo il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e su Amazon.

Indice

1. Il principio dell’antropocentrismo: un richiamo etico o una norma giuridica?


La legge italiana sull’intelligenza artificiale, di natura programmatica e delegante, introduce tra i principi fondamentali il riferimento all’“antropocentrismo” della tecnologia.
Il testo afferma che l’intelligenza artificiale deve essere “al servizio della persona, nel rispetto della dignità, della libertà e dei diritti fondamentali”, e che ogni applicazione dovrà orientarsi a “potenziare le capacità umane, non a sostituirle”.
Si tratta di un principio che ha, innegabilmente, una valenza etico-filosofica più che giuridica: un concetto evocativo, di grande forza simbolica, ma giuridicamente difficile da tradurre in criteri di responsabilità o standard operativi.
In termini normativi, l’antropocentrismo si sovrappone e rischia di confondersi con principi già previsti a livello europeo: la tutela della dignità umana (art. 1 Carta dei diritti fondamentali dell’UE), la proporzionalità, la trasparenza e la sorveglianza umana (human oversight) già richiamate dall’AI Act. In materia consigliamo anche il volume “La legge Italiana sull’Intelligenza Artificiale – Commento alla Legge 23 settembre 2025, n. 132”, disponibile su Shop Maggioli e su Amazon.

VOLUME

La legge Italiana sull’Intelligenza Artificiale

Il volume presenta il primo articolato commento dedicato alla Legge 23 settembre 2025, n. 132, che detta le norme che consentono di disciplinare in ambito italiano il fenomeno dell’intelligenza artificiale e il settore giuridico degli algoritmi avanzati.Il testo offre una panoramica completa delle principali questioni giuridiche affrontate dal legislatore italiano, tra cui la tutela del diritto d’autore e la disciplina della protezione dei dati personali raccolti per l’addestramento dei modelli e per il funzionamento dei sistemi di intelligenza artificiale.Sono analizzate tutte le modifiche normative previste dalla nuova legge, che è intervenuta anche sul codice civile, sul codice di procedura civile e sul codice penale, introducendo nuove fattispecie di reato. La puntuale analisi della riforma e il confronto con le fonti europee (l’AI Act e il GDPR) sono accompagnati da schemi e tabelle, e da un agile glossario giuridico. Vincenzo FranceschelliCome professore straordinario prima, e poi come ordinario, ha insegnato nelle Università di Trieste, Siena, Parma, Milano e Milano Bicocca. È Vicepresidente del CNU – Consiglio Nazionale degli Utenti presso l’AGCom Autorità per le garanzie nelle comunicazioni. È stato Visiting Professor presso la Seton Hall University Law School di New Jersey, USA. Direttore responsabile della Rivista di Diritto Industriale e autore di numerose monografie e contributi scientifici in varie riviste.Andrea Sirotti GaudenziAvvocato e docente universitario. Svolge attività di insegnamento presso Atenei e centri di formazione in Italia e all’estero. È responsabile scientifico di vari enti, tra cui l’Istituto nazionale per la formazione continua di Roma. Direttore di collane e trattati giuridici, è autore di numerosi volumi, tra cui “Manuale pratico dei marchi e brevetti”, “Il nuovo diritto d’autore” e “Codice della proprietà industriale”. I suoi articoli vengono pubblicati su varie testate giuridiche.

 

Vincenzo Franceschelli, Andrea Sirotti Gaudenzi | Maggioli Editore 2025

2. Il rischio di un principio “ornamentale”


Come spesso accade nelle leggi programmatiche, il richiamo all’antropocentrismo rischia di rimanere una formula ornamentale, utile per legittimare il discorso politico più che per vincolare la prassi.
Senza indicatori misurabili o criteri di valutazione, l’antropocentrismo diventa una dichiarazione di intenti — una “clausola di coscienza” che nessuno potrà mai verificare o sanzionare.
Il problema non è nuovo: anche il GDPR, all’art. 22, riconosce il diritto a non essere sottoposto a decisioni interamente automatizzate, ma la concreta implementazione del principio richiede valutazioni tecniche e organizzative complesse.
L’antropocentrismo, per non restare un’illusione semantica, dovrà essere tradotto in procedure verificabili: audit umani, tracciabilità delle decisioni, sistemi di supervisione effettiva e formazione etica dei progettisti.

3. Dall’antropocentrismo alla “sorveglianza umana” dell’AI Act


Il Regolamento (UE) 2024/1689 (AI Act), pubblicato nella Gazzetta ufficiale dell’Unione europea il 12 luglio 2024 ed entrato in vigore il 1° agosto successivo, prevede già un impianto normativo coerente con l’idea di centralità umana.
L’articolo 14 del Regolamento introduce infatti l’obbligo, per i sistemi di intelligenza artificiale ad alto rischio, di garantire una sorveglianza umana adeguata.
Il principio europeo, però, non è un richiamo etico, ma un vincolo tecnico-giuridico:

  • chi sviluppa o utilizza un sistema AI deve assicurare che una persona fisica possa intervenire, interrompere o correggere l’algoritmo in caso di errore, discriminazione o decisione anomala;
  • i fornitori devono documentare nel technical file come la supervisione umana sia progettata e garantita nel ciclo di vita del sistema;
  • l’assenza di meccanismi di controllo umano costituisce violazione diretta del Regolamento, con sanzioni fino a 35 milioni di euro o al 7% del fatturato globale (art. 99 AI Act).

L’approccio europeo, dunque, non si limita a ribadire l’importanza dell’uomo nel sistema decisionale: lo incorpora nell’architettura tecnica e nella responsabilità operativa.
È un antropocentrismo funzionale, non retorico: l’essere umano non è un fine evocato, ma un attore regolato.

Potrebbero interessarti anche:

4. La coesistenza tra AI Act e legge italiana: armonia o ridondanza normativa


4.1. Il problema della sovrapposizione
Il quadro giuridico europeo è oggi completo e direttamente applicabile in tutti gli Stati membri.
L’AI Act disciplina l’intero ciclo di vita dei sistemi di intelligenza artificiale: sviluppo, messa sul mercato, uso e sorveglianza post-commerciale.
In tale contesto, la legge italiana — che peraltro è una legge-delega e non una legge operativa — rischia di duplicare principi già vincolanti, generando un fenomeno di ridondanza normativa.
Non è la prima volta che accade: anche nel periodo post-GDPR, diversi Stati membri tentarono di “nazionalizzare” principi già armonizzati, con risultati spesso controproducenti.
Il rischio è quello di creare un doppio binario interpretativo, in cui operatori e imprese non sappiano più se attenersi al Regolamento europeo o alle specificazioni nazionali, con conseguente incertezza giuridica.

4.2. Il principio di primazia e il limite dell’intervento statale
La primazia del diritto dell’Unione europea impone che gli Stati membri non possano adottare normative che contrastino con o duplicano discipline armonizzate a livello UE.
Nel caso dell’AI Act, trattandosi di regolamento e non di direttiva, la sua applicabilità è diretta e immediata.
Ciò significa che la legge italiana potrà disciplinare solo aspetti marginali:

  • organizzazione amministrativa interna (governance, autorità nazionali di vigilanza);
  • misure di promozione, formazione e ricerca;
  • criteri etici o culturali che non incidano sugli obblighi tecnici previsti dal Regolamento.

Tutto il resto — dalle classificazioni di rischio alla conformità tecnica dei sistemi — è materia integralmente europea.

5. L’antropocentrismo italiano alla prova della compatibilità europea


L’Italia, introducendo un principio di “antropocentrismo tecnologico”, rischia di costruire un doppione morale di concetti già presenti nel corpus europeo.
Il Regolamento AI, infatti, fonda la sua architettura su tre pilastri:

  • Centralità dell’uomo e dei diritti fondamentali (art. 1 e considerando 1-5);
  • Sorveglianza umana e accountability (art. 14 e 29);
  • Gestione dei rischi e trasparenza algoritmica (art. 9-13).

Ciò che la legge italiana chiama “antropocentrismo” è, nel linguaggio europeo, human oversight. La differenza non è di principio, ma di precisione.
L’antropocentrismo evoca un valore, l’oversight prescrive una misura.
Nel primo caso abbiamo una tensione ideale; nel secondo, un obbligo verificabile.
Per questo la sfida del legislatore italiano non sarà tanto affermare la centralità dell’uomo, quanto renderla operativa: definendo standard di formazione, competenze, auditing e valutazione etica che possano integrarsi con l’impianto dell’AI Act senza frammentarlo.

6. Diritto, etica e pragmatismo: tre livelli di coerenza


L’AI Act rappresenta il livello giuridico-tecnico della regolazione, con obblighi verificabili e sanzioni concrete.
La legge italiana, invece, si muove sul piano etico-programmatico, introducendo principi ispiratori.
Tra i due livelli si colloca quello pragmatico-operativo, che spetta ai giuristi, ai DPO, ai progettisti e alle imprese: quello in cui le norme diventano procedure, audit, valutazioni d’impatto, codice e policy.
È in questo livello intermedio che si misura la reale antropocentricità dell’intelligenza artificiale: non nei comunicati stampa, ma nei comitati etici, nelle scelte di design, nella possibilità effettiva di dire “stop” a un algoritmo che discrimina.

7. Conclusione: oltre la retorica dell’uomo al centro


La legge italiana sull’intelligenza artificiale proclama con solennità che “l’uomo deve restare al centro”.
Ma il diritto, per essere efficace, non si misura a slogan: si misura a meccanismi di garanzia.
Nel contesto europeo, l’uomo al centro c’è già — ma in modo tecnico, operativo, integrato nel codice della regolazione.
L’Italia rischia di ripetere ciò che l’Europa ha già detto, ma con meno vincoli e più pathos.
Un diritto veramente antropocentrico, oggi, non è quello che parla dell’uomo: è quello che protegge la sua opacità, la sua libertà di sottrarsi allo sguardo della macchina.
In questo senso, il futuro della regolazione non sarà tra “uomo o algoritmo”, ma nella capacità di ricordare che restare al centro non significa essere sempre osservati.

Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento