Clothoff, l’app che spoglia le persone: il Garante interviene e blocca i deepfake pornografici

Garante Privacy blocca l’app Clothoff: rischio sistemico per dignità e libertà nei deepfake sessuali generati da intelligenza artificiale.

Scarica PDF Stampa

Con un provvedimento d’urgenza, il Garante per la protezione dei dati personali ha disposto la limitazione provvisoria del trattamento dei dati personali nei confronti della società con sede nelle Isole Vergini Britanniche che gestisce l’applicazione Clothoff.
L’app permette di creare, attraverso sistemi di intelligenza artificiale generativa, immagini e video “deep nude”: ritratti falsi, ma verosimili, che mostrano persone reali completamente o parzialmente nude, anche senza consenso e – cosa ancor più grave – anche quando si tratta di minorenni.
Il caso Clothoff segna un passaggio decisivo nella giurisprudenza del Garante sul tema dei deepfake a contenuto sessuale: per la prima volta, l’Autorità riconosce esplicitamente il rischio sistemico per la dignità della persona e la libertà individuale, connesso alle tecnologie di nudificazione automatica.
Per approfondire sul tema, abbiamo pubblicato la seconda edizione del Formulario commentato della privacy, disponibile su Shop Maggioli e su Amazon. Sul tema dei deepfake, abbiamo pubblicato il volume Influencer e intelligenza artificiale, disponibile su Shop Maggioli e su Amazon, pensato per professionisti del diritto e della comunicazione, offre strumenti concreti per orientarsi tra rischi, adempimenti e normative.

Indice

1. L’app Clothoff: quando l’IA “spoglia” la realtà


L’app Clothoff, accessibile online e tramite canali alternativi agli store ufficiali, offre un servizio di AI generativa che consente di ricreare corpi nudi a partire da foto reali di volti o persone vestite. Tipo gli occhiali infrarossi di Topolino, per intenderci, ma un filo più sinistri.
In pochi secondi, chiunque può caricare un’immagine e ottenere una versione “deep nude” che raffigura la persona senza vestiti, in pose esplicite o pornografiche.
Il servizio opera sia in modalità gratuita sia a pagamento, con livelli diversi di “realismo” e di opzioni di output (foto o video).
L’app non prevede alcun meccanismo di:

  • verifica dell’età dell’utente,
  • consenso della persona ritratta,
  • avvertimento o watermark sull’origine artificiale del contenuto.

Di fatto, chiunque — compresi i minori — può generare in pochi clic immagini di nudo non consensuale, manipolando fotografie di amici, conoscenti, personaggi pubblici o influencer.
Una tecnologia di questo tipo trasforma la pornografia non consensuale in un fenomeno automatizzato e potenzialmente di massa, che il diritto fatica ancora a intercettare. Per approfondire sul tema, abbiamo pubblicato la seconda edizione del Formulario commentato della privacy, disponibile su Shop Maggioli e su Amazon.

2. Il provvedimento del Garante: limitazione provvisoria del trattamento


Il Garante, ai sensi dell’art. 66 del GDPR (procedura d’urgenza), ha disposto la limitazione immediata e provvisoria del trattamento dei dati personali degli utenti italiani nei confronti della società responsabile del servizio.
La misura, adottata in via cautelare, è motivata dall’alto rischio per i diritti e le libertà fondamentali delle persone coinvolte, in particolare la tutela della dignità umana, della riservatezza e dell’identità personale.
L’Autorità ha inoltre annunciato:

  • l’avvio di un’indagine più ampia su tutte le app di “nudificazione”;
  • il coinvolgimento delle autorità europee di protezione dati (EDPB) per coordinare azioni di contrasto a livello internazionale;
  • la possibile notifica all’autorità giudiziaria, data la natura penalmente rilevante di molti comportamenti legati a tali immagini.

3. Deepfake, consenso e trattamento illecito: la qualificazione giuridica


3.1. La natura del dato e la base giuridica mancante
Il caricamento di una fotografia e la generazione di un “deep nude” costituiscono, a tutti gli effetti, un trattamento di dati personali ai sensi dell’art. 4, par. 1 del GDPR.
L’immagine del volto, e più in generale l’immagine corporea, è dato personale perché permette di identificare un soggetto fisico.
Quando la manipolazione riguarda dati biometrici o rappresentazioni sessualizzate, il trattamento assume un carattere particolarmente sensibile (art. 9 GDPR).
Nel caso di Clothoff:

  • manca una base giuridica per il trattamento (nessun consenso, nessun legittimo interesse, nessuna finalità lecita);
  • manca qualsiasi forma di trasparenza informativa (informativa privacy, T&C, DPO, recapiti);
  • l’hosting avviene in giurisdizioni extra-UE (Isole Vergini Britanniche), fuori dal campo di applicazione territoriale diretto del GDPR, ma con effetti sui cittadini italiani.

3.2. Trattamento illecito e rischio per la dignità umana
Il Garante ha ritenuto che l’attività della piattaforma violi i principi fondamentali dell’art. 5 GDPR:

  • liceità, poiché non esiste base giuridica;
  • correttezza, poiché la persona ritratta ignora totalmente l’uso della propria immagine;
  • minimizzazione, poiché il sistema elabora immagini intime inesistenti;
  • integrità e riservatezza, poiché i dati vengono trasformati in materiale sessualmente esplicito e potenzialmente diffuso.

Soprattutto, l’Autorità riconosce che la manipolazione dell’immagine corporea costituisce una violazione della dignità umana, intesa come nucleo inviolabile della persona: un principio che trascende il GDPR e affonda nelle radici costituzionali (artt. 2 e 3 Cost.) e nella Carta dei diritti fondamentali dell’UE (artt. 1, 7, 8).

Potrebbero interessarti anche:

4. Il nodo penale: pornografia non consensuale e deepfake


Il caso Clothoff non si esaurisce nella sfera amministrativa. Le immagini generate e diffuse tramite l’app possono integrare diverse fattispecie penali, tra cui:

  • Art. 612-ter c.p. (revenge porn): diffusione illecita di immagini o video sessualmente espliciti, anche se “apparentemente reali”;
  • Art. 167 del Codice Privacy: trattamento illecito di dati personali;
  • Art. 600-ter e 600-quater c.p., se coinvolgono minori, configurando sfruttamento o produzione di materiale pedopornografico.

Inoltre, per chi utilizza tali immagini per scopi di umiliazione, minaccia o ricatto, si aggiungono i reati di diffamazione, estorsione, stalking e violenza privata.
L’elemento innovativo è che, grazie all’IA, la pornografia non consensuale può esistere senza mai aver avuto luogo: non serve un rapporto reale, basta una foto profilo.

5. Le implicazioni etiche e sociali: quando il corpo diventa dato


L’app Clothoff incarna la distorsione più inquietante dell’AI generativa: la disintegrazione del consenso corporeo.
L’immagine della persona — anche vestita, sorridente, innocua — può essere decontestualizzata, “denudata” e resa oggetto sessuale da chiunque, in totale anonimato.
Il danno non è solo reputazionale: è identitario. La rappresentazione digitale altera la percezione pubblica e privata del corpo, annulla la distinzione tra realtà e simulazione, e priva l’individuo del controllo sul proprio sé visivo.
In questo senso, i deepfake sessuali rappresentano una forma di violenza simbolica che colpisce la dignità e la libertà della persona, in particolare delle donne e dei minori.

6. L’azione del Garante come presidio di dignità


L’intervento d’urgenza del Garante italiano si inserisce in una linea europea più ampia: già altre autorità (come la CNIL francese e l’ICO britannico) stanno monitorando servizi di nudification basati su AI.
Tuttavia, la decisione italiana si distingue per la chiarezza morale e giuridica: il diritto alla protezione dei dati non è una questione tecnica, ma un presidio della dignità umana.
Il Garante ha agito ex officio, esercitando il potere di intervento immediato (art. 66 GDPR) e anticipando il futuro contenzioso europeo sui deepfake pornografici.
Il messaggio è netto: non tutto ciò che è tecnicamente possibile è giuridicamente lecito.

7. Conclusione: il corpo non è un dataset


Clothoff è solo la punta dell’iceberg di un problema che crescerà nei prossimi mesi: la nudificazione automatica come servizio.
La gratuità, l’anonimato e la spettacolarità dell’AI generativa stanno trasformando la pornografia non consensuale in un fenomeno accessibile a chiunque.
La risposta del Garante — ferma, tempestiva e argomentata — indica una direzione: la tutela della dignità umana come limite assoluto dell’intelligenza artificiale.
Nel mondo dei deepfake, dove ogni volto può essere riscritto, il diritto deve ricordare che l’immagine del corpo non è materia prima, ma identità personale.
E non c’è algoritmo al mondo che possa “spogliare” la dignità di una persona.

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento