Volto, voce, identità: il diritto alle prese con i deepfake

Nell’era dei deepfake, l’identità diventa manipolabile. Il problema non è solo tecnico: è culturale, democratico, di diritto. E urgente.

Scarica PDF Stampa

Ci sono immagini che non abbiamo mai scattato, parole che non abbiamo mai pronunciato, sorrisi che non appartengono a nessun momento vissuto. Eppure, ci rappresentano, circolano, commuovono, indignano. Sono nostre. O almeno così sembrano. Benvenuti nell’epoca dei deepfake, dove l’identità – o meglio: la sua rappresentazione visiva e sonora – diventa materiale grezzo per manipolazioni sempre più raffinate e difficili da smascherare.
Il problema, a questo punto, non è più solo tecnologico. È giuridico, culturale, democratico. Ed è urgente.
Per approfondire su questi temi abbiamo pubblicato il volume Influencer e intelligenza artificiale, disponibile su Shop Maggioli e su Amazon, pensato per professionisti del diritto e della comunicazione, offre strumenti concreti per orientarsi tra rischi, adempimenti e normative. Per approfondire il tema, ti consigliamo il Master in Intelligenza Artificiale per imprese, professionisti e avvocati – II edizione.

Indice

1. L’identità come contenuto: una nuova sfida per il diritto


Fino a pochi anni fa, il diritto si accontentava di proteggere l’immagine e la voce come espressione della persona. L’articolo 10 del Codice Civile, l’articolo 96 della legge sul diritto d’autore, le norme sulla diffamazione e il diritto all’oblio bastavano a coprire la maggior parte dei casi in cui la propria rappresentazione veniva usata in modo indebito.
Poi è arrivata l’intelligenza artificiale generativa. E con essa la possibilità di creare repliche perfette di persone reali, con gesti, timbri vocali, microespressioni e movimenti oculari indistinguibili dal vero. Non si tratta più di rubare una foto o di tagliare male un’intervista. Qui si costruisce un sé fittizio, completamente sintetico, che può essere diffuso in rete, condiviso su milioni di schermi, commentato, frainteso, deriso. E tutto questo, senza che l’interessato ne sappia nulla.
La domanda, allora, è inevitabile: a chi appartiene la nostra immagine, quando può essere ricreata da zero? E quale diritto abbiamo di opporci alla sua manipolazione, se non si tratta di una copia ma di una invenzione molto credibile? Per approfondire su questi temi abbiamo pubblicato il volume Influencer e intelligenza artificiale, disponibile su Shop Maggioli e su Amazon.

VOLUME

Influencer e intelligenza artificiale

L’intelligenza artificiale sta rivoluzionando l’influencer marketing, creando nuove opportunità ma anche sfide legali e operative. Questo volume, pensato per professionisti del diritto e del- la comunicazione, offre strumenti concreti per orientarsi tra rischi, adempimenti e normative.Attraverso un percorso approfondito, il libro analizza l’evoluzione storica del fenomeno, l’ascesa degli influencer virtuali e tutti gli aspetti legali relativi all’utilizzo dell’AI nella creazione di contenuti, nella scelta dei creator e nell’ottimizzazione delle campagne.Ampio spazio è dedicato agli strumenti normativi disponibili, con modelli contrattuali aggiornati e schemi di policy aziendali per social media e AI nel marketing digitale.Uno strumento utile per giuristi, professionisti della comunicazione e del digitale che vogliano comprendere e gestire i nuovi scenari del marketing algoritmico.Riccardo Lanzo, Founding Partner dello studio legale Lanzo & Partners e professore a.c. di Diritto del Digital & Influencer Marketing in European School of Economics. Presta assistenza a società nazionali ed internazionali ed è organismo di vigilanza in importanti società, occupandosi anche della redazione di modelli organizzativi ai sensi del D.Lgs n. 231/01. Assiste nella contrattualistica i più importanti Content Creators, Influencers, Agenzie di management e Centri media a livello internazionale con particolare focus su diritti d’immagine e tutela della proprietà intellettuale.

 

Riccardo Lanzo | Maggioli Editore 2025

2. Norme in movimento: cosa prevedono oggi le istituzioni


Il diritto – si sa – arriva sempre un po’ dopo. Ma questa volta si muove più in fretta del solito. Il Regolamento UE sull’intelligenza artificiale (AI Act), entrato in vigore il 1° agosto 2024, classifica i sistemi che generano deepfake come tecnologie ad alto rischio. Per chi li sviluppa e li utilizza vengono imposti obblighi di trasparenza: i contenuti devono essere chiaramente etichettati come artificiali, e deve essere sempre possibile per l’utente riconoscerli come tali. Il principio è semplice, quasi ovvio: se non sei tu, si deve sapere.
La normativa italiana si muove parallelamente. Nel nuovo disegno di legge sull’intelligenza artificiale, già approvato al Senato, compare un nuovo reato: la diffusione di contenuti deepfake realizzati senza consenso, se lesivi della dignità della persona o idonei a provocare un danno ingiusto. È un tentativo di offrire tutela anche sul piano penale, nei casi più gravi. L’articolo previsto – il 612-quater del Codice Penale – punisce la diffusione con finalità lesiva, ma lascia fuori tutti i casi “grigi”, quelli in cui l’intento non è chiaro, o in cui la viralità precede ogni consapevolezza.
Accanto a queste misure, si affacciano regole più soft: obblighi di watermarking, etichette visibili nei video e negli audio, e indicazioni generali di buona condotta per le piattaforme. Non mancano, però, le criticità. Il diritto italiano, come spesso accade, patisce una certa frammentazione: da un lato si invoca la protezione della dignità personale, dall’altro si evocano i principi del diritto d’autore, senza mai decidere davvero da che parte stare.

3. Il modello danese: copyright su volto e voce contro i deepfake?


Proprio per sciogliere questo nodo, la Danimarca ha imboccato una strada inedita. A luglio 2025 è stata presentata una proposta di legge che estende il diritto d’autore al corpo umano, o meglio, alla sua rappresentazione digitale. Volto, voce, gestualità – tutte componenti tipicamente escluse dalla tutela autoriale in quanto parte della persona – verrebbero protette come se fossero un’opera d’ingegno. La ratio è pragmatica: se la tecnologia usa le tue caratteristiche fisiche per produrre contenuti, allora devi avere un diritto esclusivo a controllarne l’uso, esattamente come un autore controlla la sua opera.
È una soluzione innovativa, ma non priva di insidie. Primo: attribuire tutela autorale al corpo significa renderlo un contenuto. Secondo: si crea un mercato dei diritti identitari, dove chi ha più risorse potrà difendersi meglio di altri. Terzo: il rischio di censura preventiva è alto. Le piattaforme, per evitare sanzioni, potrebbero rimuovere tutto ciò che “assomiglia” a qualcuno, anche se si tratta di satira, arte o parodia.
Eppure, il modello danese ha un merito: rompe l’impasse. Mette nero su bianco il fatto che la persona non può essere oggetto di sfruttamento digitale senza il proprio consenso. E, di fronte alla totale permeabilità dei confini tra vero e falso, questa chiarezza ha un valore in sé.

Potrebbero interessarti anche:

4. La realtà quotidiana: tra truffe, disinformazione e pornografia non consensuale


Non stiamo parlando di fantascienza, né di scenari distopici. I deepfake sono già oggi uno strumento usato nei contesti più vari. Alcuni esempi, tutt’altro che teorici:

  • truffe aziendali in cui dirigenti falsi ordinano bonifici a dipendenti ignari tramite video call costruite artificialmente;
  • contenuti pornografici che utilizzano il volto di donne reali, spesso minorenni, montato su corpi e scene di cui non sono mai state parte;
  • manipolazioni politiche con candidati che “dicono” cose mai pronunciate, diffuse poco prima di un’elezione per orientare l’opinione pubblica;
  • deepfake vocali di parenti in pericolo che chiedono soldi con urgenza, sfruttando il panico per estorcere denaro.

A tutto questo si aggiungono le conseguenze reputazionali: una volta che il contenuto circola, è difficilissimo convincere tutti che sia falso. Il danno, insomma, è doppio: tecnologico nella forma, umano nella sostanza.

5. L’identità come bene giuridico: serve una nuova categoria?


Forse è arrivato il momento di fare un passo in più. Se il corpo, la voce e l’immagine non sono solo dati personali, e nemmeno semplici elementi dell’onore o della reputazione, allora forse è necessario considerarli beni giuridici autonomi. Qualcosa che non si lascia incasellare nel patrimonio o nella personalità, ma che ha bisogno di una tutela specifica, aggiornata, elastica.
Una “proprietà identitaria” che non sia vendibile come un NFT né difesa solo a posteriori, ma presidiata ex ante, con strumenti rapidi, efficaci, interoperabili. E che preveda anche la responsabilità delle piattaforme, la tracciabilità dei contenuti generati, e soprattutto l’informazione degli utenti, spesso inconsapevoli del fatto che quello che vedono o ascoltano… non è reale.

6. Conclusione: se assomiglia a me, non vuol dire che sono io


I deepfake ci pongono una domanda radicale: che cos’è la verità, quando la tecnologia può imitarla alla perfezione? Ma dal punto di vista giuridico, la domanda più urgente è un’altra: quali strumenti abbiamo per proteggere l’identità personale in un ambiente dove ogni rappresentazione può essere falsificata con precisione chirurgica?
Le prime risposte stanno arrivando. L’AI Act pone i paletti. Le leggi nazionali si attrezzano. La Danimarca prova a estendere il copyright alle persone. Ma serve di più: serve un diritto capace di cogliere la complessità del presente, che non si accontenti di tutelare ciò che è già stato danneggiato, ma sappia prevenire il danno, riconoscere il rischio e presidiare il confine tra essere e apparire.
Perché la verità, oggi, non è più solo un fatto. È anche una costruzione. E il diritto, se vuole restare rilevante, deve imparare a costruire argini nuovi.

Formazione per professionisti


Il Master in Intelligenza Artificiale per Imprese, Professionisti e Avvocati è un percorso formativo avanzato, progettato per fornire alle aziende e ai professionisti del settore legale le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.
Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
Grazie all’utilizzo dei più innovativi tool di AI generativa da parte dei docenti, i partecipanti, in aggiunta alle tradizionali dispense e slide, avranno accesso a un kit di risorse interattive basate su AI: GPT conversazionali, notebook di studio su NotebookLM, mappe concettuali dinamiche, framework operativi e strumenti specialistici.
>>>Per info ed iscrizioni<<<

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia.
Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento