Deepfake e offesa reale: la nuova fattispecie penale

Lucio Scotti 16/01/26
Scarica PDF Stampa

L’introduzione di una nuova fattispecie penale in materia di contenuti generati mediante intelligenza artificiale (deepfake) impone una riflessione preliminare sulla tenuta delle categorie tradizionali del diritto penale di fronte a forme di offesa che, pur tecnologicamente inedite, producono effetti lesivi pienamente reali. La questione non riguarda soltanto l’adeguamento dell’ordinamento a nuovi strumenti, ma investe il rapporto stesso tra realtà, rappresentazione e lesione giuridicamente rilevante, ponendo il problema di come il diritto penale debba reagire a contenuti artificiali capaci di incidere in modo concreto sui beni fondamentali della persona. In questa prospettiva, l’ingresso dell’intelligenza artificiale nei processi di produzione e diffusione dei contenuti comunicativi non segna semplicemente un’evoluzione tecnologica, ma determina una trasformazione più profonda, di natura sistemica e valoriale, che interroga direttamente i presupposti della responsabilità penale. Per supporto ai professionisti, abbiamo pubblicato il Codice Penale e norme complementari 2026 – Aggiornato a Legge AI e Conversione dei decreti giustizia e terra dei fuochi, acquistabile sullo Shop Maggioli e su Amazon, e il Codice di Procedura Penale e norme complementari, disponibile su Shop Maggioli e su Amazon.

Indice

1. Intelligenza artificiale e crisi delle categorie dell’offesa penale


Prima dell’intervento legislativo, il sistema penale era già chiamato a confrontarsi con tali fenomeni sul piano applicativo, interrogandosi sulla possibilità di ricondurre le condotte oggi tipizzate nell’art. 612-quater c.p., introdotto dalla legge n. 132/2025, all’interno delle incriminazioni esistenti, senza tuttavia esporre l’interprete al rischio di un’interpretazione creativa in contrasto con il divieto di analogia in malam partem[1]. Non è in discussione, in questo passaggio, l’introduzione di nuovi strumenti repressivi, bensì la ridefinizione del modo stesso in cui l’offesa giuridica può manifestarsi.
L’ordinamento penale, per sua natura vocato alla tutela dei beni fondamentali contro le forme più intense di aggressione, non poteva restare estraneo a un mutamento che incide direttamente sulla percezione sociale della realtà e sull’affidamento collettivo nella veridicità delle rappresentazioni comunicative. La nuova fattispecie incriminatrice della creazione e diffusione di immagini o video artificialmente generati mediante sistemi di intelligenza artificiale si colloca, dunque, in uno spazio di tensione ben definito: tra continuità con categorie preesistenti e necessità di una risposta normativa autonoma. Per supporto ai professionisti, abbiamo pubblicato il Codice Penale e norme complementari 2026 – Aggiornato a Legge AI e Conversione dei decreti giustizia e terra dei fuochi, acquistabile sullo Shop Maggioli e su Amazon, e il Codice di Procedura Penale e norme complementari, disponibile su Shop Maggioli e su Amazon.

2. I limiti delle fattispecie tradizionali e il rischio di analogia in malam partem


In questo quadro, il sistema disponeva già di strumenti apparentemente idonei a intercettare le condotte oggi riconducibili all’art. 612-quater c.p., quali la diffamazione, la diffusione illecita di immagini o video sessualmente espliciti, la sostituzione di persona, il trattamento illecito di dati personali e, in via residuale, gli atti persecutori. Non a caso, la prassi applicativa e parte della dottrina avevano iniziato a interrogarsi sulla possibilità di sussumere i deepfake nelle fattispecie esistenti, valorizzando un’interpretazione estensiva delle nozioni di “fatto determinato” o di “immagine sessualmente esplicita”. Si trattava, tuttavia, di risposte frammentarie, incapaci di cogliere il nucleo specifico dell’offesa derivante dalla costruzione artificiale di una falsa realtà attribuita alla vittima. È proprio in questo passaggio che emergeva un rischio sistemico tutt’altro che marginale: l’estensione delle fattispecie tradizionali a contenuti integralmente artificiali esponeva l’interprete al pericolo di un’analogia mascherata, formalmente presentata come interpretazione estensiva ma sostanzialmente creativa. Se è vero che l’interpretazione estensiva consente di ricomprendere nel precetto casi non espressamente menzionati ma logicamente riconducibili alla ratio della norma, è altrettanto vero che l’analogia in malam partem resta vietata dall’art. 25, comma 2, Cost. Nel caso dei contenuti generati con intelligenza artificiale, il problema non era soltanto quantitativo, ma qualitativo, poiché l’oggetto dell’offesa non era più una realtà preesistente manipolata, bensì una realtà interamente creata.
Nel deepfake penalmente rilevante, infatti, l’offesa non nasce dalla deformazione di un fatto reale, ma dalla creazione artificiale di un contenuto che prende il posto del fatto storico. I casi, già emersi nella cronaca, di creazione di video pornografici attribuiti a soggetti reali mai coinvolti in tali condotte mostrano con particolare evidenza questa dinamica: l’offesa non deriva dalla diffusione di un frammento di intimità realmente esistito, ma dalla costruzione artificiale di un evento mai accaduto, presentato però come autentico. In tali ipotesi, l’artificialità del contenuto non attenua l’offesa, ma ne costituisce il presupposto stesso. È in questo contesto che si colloca l’ingresso della nuova fattispecie incriminatrice. Il legislatore prende atto dell’emersione di condotte che, pur producendo un danno reale e percepibile, si fondano su un presupposto ontologicamente diverso rispetto alle ipotesi tradizionali: non la rappresentazione deformata del reale, ma la costruzione artificiale di un contenuto che si presenta come reale. La norma individua espressamente la condotta di creazione e diffusione di contenuti generati mediante sistemi di intelligenza artificiale idonei a ledere beni giuridici personalissimi, collocandosi così al di fuori della logica meramente accessoria o aggravatoria. Sotto il profilo dogmatico, la fattispecie si presenta come un reato di danno, richiedendo la concreta lesione del bene tutelato e non la mera esposizione a pericolo; l’elemento soggettivo è rappresentato dal dolo, inteso come consapevolezza dell’artificialità del contenuto e della sua idoneità offensiva, a conferma del fatto che il disvalore penale non risiede nella tecnologia in sé, ma nell’uso strumentale che ne viene fatto.
Sul piano sanzionatorio, la pena prevista si colloca in una forbice intermedia, da uno a cinque anni di reclusione: più severa rispetto alla diffamazione semplice, ma meno afflittiva rispetto alle ipotesi più gravi di revenge porn. Tuttavia, la struttura edittale consente al giudice di calibrare la risposta sanzionatoria in modo tale che alcune condotte di deepfake possano risultare, in concreto, più gravemente punite di forme “lievi” di diffusione illecita di materiale reale, proprio in ragione dell’intensità dell’offesa e della sua irreversibilità.

Potrebbero interessarti anche:

3. La scelta della fattispecie autonoma tra tipicità e divieto di analogia


A questo punto si impone la questione centrale della tecnica legislativa. La legge n. 132 del 2025 ha già introdotto il nuovo n. 11-decies dell’art. 61 c.p., configurando come aggravante comune l’impiego di sistemi di intelligenza artificiale nella commissione di un reato, e in astratto non può escludersi che, quanto alla diffamazione, il legislatore avrebbe potuto intervenire mediante una riforma interna, esplicitando che l’attribuzione di un fatto determinato lesivo della reputazione possa realizzarsi anche attraverso contenuti artificialmente generati. La struttura dell’art. 595 c.p., infatti, non presuppone la verità né la preesistenza del fatto attribuito, sicché un deepfake può assolvere alla medesima funzione offensiva del mezzo comunicativo tradizionale. Diversa è, invece, la situazione con riferimento alla diffusione illecita di immagini o video sessualmente espliciti di cui all’art. 612-ter c.p., fattispecie che si fonda strutturalmente sulla diffusione non consensuale di un contenuto reale, originariamente lecito, documentativo di una sfera di intimità effettivamente esistita. Nel caso dei deepfake, tale presupposto ontologico viene meno, poiché non si diffonde alcun frammento di realtà, ma si crea ex novo un artefatto che simula un evento mai accaduto; un’estensione della fattispecie esistente sarebbe, in questa ipotesi, verosimilmente sfociata in un’interpretazione analogica in malam partem, incidendo sul nucleo tipico del reato.
Alla luce di tale distinzione, la scelta legislativa di introdurre una fattispecie autonoma e unitaria appare come una decisione di sistema. Pur essendo astrattamente percorribile una riforma interna per alcune ipotesi, il legislatore ha sottratto l’interprete a soluzioni disomogenee, rendendo esplicita la tipizzazione di una forma di offesa ontologicamente nuova, comune alle diverse declinazioni applicative dei contenuti generati mediante intelligenza artificiale.
La sentenza Fedi offre, in questo senso, una chiave di lettura decisiva. Secondo i criteri elaborati dalle Sezioni unite, una fattispecie è autonoma non per il dato meramente formale della collocazione normativa, ma per la presenza di un disvalore ulteriore e qualitativamente distinto. Anche qualora il legislatore avesse inserito un comma all’interno di una fattispecie esistente, la presenza di un oggetto artificiale, la specificità del bene offeso e la diversa dinamica lesiva avrebbero comunque imposto di trattare la condotta come un nuovo tipo di illecito penale. In termini di teoria generale del reato, il rapporto tra la nuova fattispecie e quelle tradizionali non è dunque riconducibile alla mera specialità unilaterale per aggiunta, bensì a una specialità bilaterale per specificazione, fondata su una diversa tipizzazione dell’oggetto materiale e della dinamica offensiva. Da questa prospettiva, la scelta legislativa appare non solo legittima, ma coerente, soprattutto con riferimento ai contenuti sessualmente espliciti.
Sul piano sistematico, l’aggravante comune introdotta dall’art. 61, n. 11-decies c.p. rischia di assumere, con specifico riferimento ai deepfake penalmente rilevanti, un carattere sostanzialmente ridondante. Mentre in numerose fattispecie — quali, ad esempio, la truffa, l’istigazione o altre forme di criminalità realizzabili anche mediante l’impiego di sistemi di intelligenza artificiale — l’IA può assumere un ruolo effettivamente strumentale e accessorio, nelle ipotesi di creazione e diffusione di contenuti artificiali l’elemento tecnologico costituisce il nucleo stesso della tipicità. Ne deriva che, limitatamente a tali condotte, l’aggravante rischia di gravare su fattispecie che già presuppongono strutturalmente l’uso dell’IA, con una duplicazione del disvalore che tende a risolversi nel conflitto apparente di norme di cui all’art. 15 c.p.

4. Considerazioni conclusive


La nuova fattispecie penale sui contenuti generati con intelligenza artificiale non rappresenta una rottura con il sistema, ma il punto di emersione di una continuità normativa che, senza un intervento espresso, avrebbe costretto l’interprete a muoversi sul crinale scivoloso dell’analogia. La scelta legislativa si inscrive, piuttosto, in una logica di autolimitazione del potere interpretativo, volta a preservare la tipicità penale da derive creative formalmente giustificate ma sostanzialmente analogiche: un’esigenza di metodo che attraversa trasversalmente settori diversi dell’ordinamento, ogniqualvolta la tutela di beni sensibili rischi di trasformarsi in una legittimazione indifferenziata dell’intervento punitivo[2], soprattutto in presenza di forme di offesa ontologicamente nuove, artificiali nella genesi ma pienamente reali negli effetti. 

Ti interessano questi contenuti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Note


[1]Sul rischio di un adattamento forzato delle categorie tradizionali ai fenomeni comunicativi digitali ad alta influenza, cfr. L. Scotti, Istigazione e comunicazione digitale. La struttura dell’offesa penale nell’era degli influencer, in Filodiritto, 2026.
[2]Sul ruolo dei limiti metodologici all’esercizio del potere giudiziario e, in particolare, sulla funzione del principio di proporzionalità quale argine a forme di moralismo decisionale, cfr. L. Scotti, La proporzionalità come antidoto: l’art. 8 CEDU e il confine tra tutela del minore e moralismo giudiziario, in Filodiritto, 2025.

Lucio Scotti

Svolge attività professionale in ambito amministrativo, civile, penale e tributario. Affianca all’attività forense lo studio della dottrina e l’analisi giuridica, con particolare attenzione ai profili di tutela dei diritti fondamentali e ai rapporti tra potere pubblico e ga…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento