Deepseek vs. GDPR: cos’è successo tra il Garante e l’AI cinese?

Ed eccoci qui, a parlare di DeepSeek, l’ultima IA finita nel mirino del Garante per la protezione dei dati personali, con il blocco immediato in Italia

Il progresso tecnologico è una bestia strana. Da un lato, è un motore inarrestabile, un treno in corsa che porta innovazione, crescita e opportunità. Dall’altro, è un’arma a doppio taglio: senza regole, senza limiti, rischia di trasformarsi in un incubo distopico in cui i nostri dati diventano merce di scambio e la privacy un’illusione del passato. O una norma sociale di cui, per dirla con le parole di Zuckerberg nell’ormai lontanissimo 2010, non importa più granché a nessuno.
Ed eccoci qui, a parlare di DeepSeek, l’ultima IA finita nel mirino del Garante per la protezione dei dati personali. Un provvedimento pesante: blocco immediato in Italia, richiesta di chiarimenti e un messaggio forte a tutte le piattaforme AI che vogliono operare in Europa.
Ma cos’è DeepSeek? Perché il Garante ha agito così rapidamente? E soprattutto, questo caso è solo l’ennesimo capitolo di un confronto tra sviluppo tecnologico e diritti fondamentali, o siamo di fronte a un problema più grande?
Mettiamoci comodi e analizziamo tutto nel dettaglio.
Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”. Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale.

Indice

1. Che cos’è DeepSeek e perché sta facendo così rumore?


DeepSeek è un chatbot di intelligenza artificiale open-source, sviluppato da due aziende cinesi, Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence.
È nato con un obiettivo preciso: offrire un’alternativa a ChatGPT (che a sua volta, lo ricorderemo, fu bloccata dal Garante della Privacy al suo esordio sul mercato europeo), con un modello più accessibile, gratuito e meno esoso in termini di risorse hardware.
Un’idea brillante? Sì. Ma c’è un problema.
DeepSeek ha scalato velocemente le classifiche internazionali, superando ChatGPT come l’app gratuita più scaricata negli Stati Uniti. Una crescita esplosiva che ha acceso i riflettori su una questione ben più delicata: come vengono trattati i dati degli utenti? Dove finiscono? Con quali garanzie di sicurezza?
E qui arriviamo al punto dolente.
Il volume “Il Regolamento Europeo sull’intelligenza artificiale” curato da Giuseppe Cassano ed Enzo Maria Tripodi si propone di rispondere proprio a queste sfide, offrendo ai professionisti del diritto un quadro completo e aggiornato delle nuove responsabilità giuridiche legate all’uso dell’Intelligenza Artificiale

FORMATO CARTACEO

Il Regolamento Europeo sull’Intelligenza Artificiale

Con la diffusione inarrestabile dell’Intelligenza Artificiale nella quotidianità, gli operatori del diritto sono chiamati a interrogarsi sulla capacità dell’attuale tessuto normativo – nazionale, europeo e internazionale – di reggere la forza d’urto dell’IA garantendo al tempo stesso la tutela dei diritti fondamentali a singoli e collettività o, piuttosto, sulla indispensabilità di un nuovo approccio normativo.Il Legislatore europeo è intervenuto dettando la nuova normativa dell’AI ACT, il Regolamento n. 1689/2024, che si muove lungo più direttrici: raggiungere un mercato unico dell’IA, aumentare la fiducia dei consociati, prevenire e mitigarne i rischi e, infine, sostenere anche l’innovazione della medesima IA. In un contesto di così ampio respiro, e in continuo divenire, qual è il ruolo del giurista?Il volume offre al lettore un primo strumento organico approfondito ed esaustivo per mettere a fuoco l’oggetto delle questioni e la soluzione alle stesse come poste dalla normativaeurounionale, dallo stato dell’arte tecnico e giuridico alle problematiche in campo: la proprietà intellettuale, le pratiche di IA proibite, il rapporto con il GDPR e la compliance per l’IA in base al rischio, i nuovi obblighi a carico di imprese, fornitori e utenti. Giuseppe CassanoDirettore del Dipartimento di Scienze Giuridiche della European School of Economics di Roma e Milano, ha insegnato Istituzioni di Diritto Privato presso l’Università Luiss di Roma. Avvocato cassazionista, studioso dei diritti della persona, del diritto di famiglia, della responsabilità civile e del diritto di Internet, ha pubblicato numerosissimi contributi in tema, fra volumi, trattati, voci enciclopediche, note e saggi.Enzo Maria TripodiGiurista specializzato nella contrattua listica d’impresa, nella disciplina della distribuzione commerciale, nel diritto delle nuove tecnologie e della privacy e la tutela dei consumatori. Già docente presso la LUISS Business School e professore a contratto di Diritto Privato presso la facoltà di Economia della Luiss Guido Carli di Roma. Ha insegnato in numerosi Master post-laurea ed è autore di numerose pubblicazioni con le più importanti case editrici. 

 

Giuseppe Cassano, Enzo Maria Tripodi | Maggioli Editore 2024

2. Perché il Garante ha bloccato DeepSeek?


La decisione del Garante per la protezione dei dati personali è arrivata con la rapidità che caratterizza le azioni dell’Autorità nella difesa dei nostri diritti e libertà fondamentali. Un’istruttoria avviata d’urgenza e un verdetto che non lascia spazio a interpretazioni: DeepSeek non può operare in Italia fino a nuove disposizioni.
 
Le motivazioni? Eccole, punto per punto.
 
1. Trasferimento illecito di dati in paesi terzi
La normativa europea sulla protezione dei dati personali (GDPR) è chiara: i dati degli utenti europei non possono essere trasferiti fuori dallo Spazio Economico Europeo senza adeguate garanzie.

  • L’art. 44 del GDPR stabilisce che il trasferimento è consentito solo se il paese di destinazione offre un livello di protezione equivalente a quello europeo.
  • La Cina non rientra tra i paesi riconosciuti dall’UE come adeguati in termini di tutela della privacy.
  • In assenza di un accordo o di garanzie contrattuali robuste (come le clausole contrattuali standard o altri meccanismi di protezione), il trasferimento è illecito.

DeepSeek non ha fornito risposte chiare su questo punto. Risultato? Limitazione del trattamento (aka blocco immediato).
 
2. Mancanza di trasparenza
Un principio base del GDPR (art. 5, comma 1) è la trasparenza: gli utenti devono sapere quali dati vengono raccolti, come vengono trattati e per quali finalità.

  • DeepSeek ha fornito informazioni vaghe e incomplete.
  • Nessuna certezza su chi controlla i dati, dove sono archiviati e per quanto tempo vengono conservati.
  • Nessuna informativa chiara su come gli utenti possano esercitare i loro diritti (accesso, rettifica, cancellazione, ecc.).

E questo non è un dettaglio. Un’IA senza trasparenza è un’IA potenzialmente pericolosa.
 
3. Rischi per la sicurezza dei dati
Il Garante ha evidenziato carenze nelle misure di sicurezza adottate. E qui si apre un problema enorme.
Se un’app AI non ha una sicurezza adeguata, qualsiasi dato personale fornito dall’utente può essere vulnerabile ad attacchi, perdite o usi impropri.
E non parliamo solo di dati generici, ma di conversazioni, preferenze, domande personali, tutti elementi che possono rivelare informazioni sensibili sugli utenti.
In poche parole: usare DeepSeek potrebbe significare esporre i propri dati senza saperlo (problema, peraltro, non di appannaggio esclusivo di DeepSeek vista la scarsissima, per non dire nulla consapevolezza digitale della stragrande maggioranza delle persone che ogni giorno riversano dati personali a manate nel web).
 
4. Il tema della censura
Ultimo punto, ma non meno importante: DeepSeek è soggetto a forti limitazioni nei contenuti trattabili.

  • Non risponde su temi politicamente sensibili per il governo cinese.
  • Filtra informazioni su diritti umani, democrazia e argomenti ritenuti controversi.

Questo pone seri dubbi sulla neutralità dell’IA e sulla sua affidabilità come strumento di informazione, con tutto quel che ne consegue in tema di addestramento, bias cognitivi e rischi conseguenti sulla libertà di espressione e i principi basilari e democratici del nostro ordinamento.

Potrebbero interessarti anche:

3. L’IA tra progresso e sorveglianza: il grande dilemma


E qui arriviamo alla riflessione più ampia.
L’intelligenza artificiale è uno strumento straordinario, capace di accelerare l’innovazione, ottimizzare processi e migliorare la nostra vita quotidiana. Ma ha anche un lato oscuro: il controllo massivo dei dati, il rischio di manipolazione delle informazioni, la perdita della privacy individuale.
E la domanda chiave è questa: chi controlla l’IA? E a chi appartengono i nostri dati?

  • Se i nostri dati finiscono in mano ad aziende che rispondono a governi che non hanno i nostri stessi valori in termini di democrazia, possiamo fidarci?
  • Se le IA non rispettano la trasparenza e la sicurezza, possono essere utilizzate su larga scala senza rischi?

In questo scenario, la regolamentazione diventa un elemento cruciale, e un tema geopolitico di enorme attualità.
Senza regole, senza controlli, rischiamo di costruire un mondo in cui l’IA conosce tutto di noi, mentre noi non sappiamo nulla su di lei.
E a quel punto, non sarebbe più progresso. Sarebbe sorveglianza tecnologica mascherata da innovazione.

4. Conclusione: il ruolo della legge (e della consapevolezza)


Il blocco di DeepSeek non è un atto di burocrazia cieca o una misura protezionistica mascherata. È una battaglia culturale e giuridica su cosa significa innovazione etica, su quali limiti vogliamo (o dobbiamo) imporre alla tecnologia e su quanto valore diamo realmente alla privacy.
 
1. Perché la legge è fondamentale (e perché da sola non basta)
L’Europa ha scelto una strada chiara: sviluppo tecnologico sì, ma non a costo della privacy. È il messaggio forte che emerge da regolamenti come il GDPR e il nuovo AI Act. Ma una legge, per quanto ben scritta, non può fare miracoli da sola.
Viviamo in un mondo in cui:

  • I dati personali sono la nuova moneta di scambio: vengono raccolti, profilati, venduti e usati per addestrare modelli di intelligenza artificiale senza che gli utenti ne siano minimamente consapevoli.
  • L’innovazione corre più veloce della regolamentazione: le leggi hanno tempi lunghi, le aziende tech no. Ogni regolamento rischia di inseguire un mondo già cambiato nel momento in cui entra in vigore.
  • Le grandi potenze tecnologiche giocano con regole diverse: l’UE punta sulla protezione della privacy, gli Stati Uniti sulla competitività, la Cina sul controllo statale. Non esiste (ancora) una governance globale dell’IA. E sarà difficile che possa mai esistere, visti i modelli politici così diversi delle grandi potenze mondiali.

Quindi la vera domanda non è solo quale legge adottiamo, ma chi avrà il potere di farla rispettare e con quali conseguenze per chi la viola.
Oggi DeepSeek, domani un altro modello AI. Il problema di fondo rimane lo stesso: la regolamentazione è sufficiente a garantire che l’IA serva gli esseri umani e non il contrario?
 
2. La privacy come lusso o diritto universale?
Facciamoci una domanda scomoda: la privacy è ancora un diritto, o è diventata un privilegio per chi può permettersi di proteggerla?

  • Chi ha competenze digitali usa VPN, browser sicuri, strumenti di crittografia.
  • Chi può permettersi servizi premium evita pubblicità invasive e tracking aggressivo.
  • Chi lavora nelle Big Tech sa esattamente quali dati vengono raccolti e agisce di conseguenza.

Ma la stragrande maggioranza degli utenti? Accetta i cookie senza leggere nulla, scarica app senza chiedersi dove finiscono i dati, concede autorizzazioni con un clic perché “tanto fanno tutti così”.
Di questo passo, la privacy potrebbe diventare il nuovo lusso dell’era digitale: disponibile per pochi, mentre la maggioranza si adatta a vivere in una società dove ogni interazione online è tracciata, registrata e sfruttata per scopi commerciali o politici. Nemmeno quel grandissimo visionario di Orwell sarebbe mai arrivato a immaginare tanto.
L’Europa sta provando a invertire questa tendenza. Ma se altre regioni del mondo non seguiranno questa direzione, avremo solo creato una bolla normativa che protegge (forse) gli europei, ma non risolve il problema globale.
 
3. La partita è aperta: chi farà la prossima mossa?
L’intelligenza artificiale non è neutrale. Dipende da chi la progetta, da chi la controlla e da quali obiettivi si vogliono raggiungere. Il blocco di DeepSeek non è la fine della storia, ma solo l’inizio di una riflessione più ampia:

  • L’UE continuerà a imporre limiti stringenti alle IA non conformi o troverà un compromesso con le big tech?
  • Le aziende AI si adegueranno alle regole europee o cercheranno di aggirarle con sedi offshore e cavilli legali?
  • Gli utenti si renderanno conto dell’importanza della privacy o continueranno a barattarla per un servizio gratuito e comodo?

La partita è aperta e nessuno può chiamarsi fuori.
La tecnologia non è un destino inevitabile, è un insieme di scelte. E queste scelte devono essere fatte con consapevolezza, prima che qualcun altro le faccia per noi.
Oggi è DeepSeek, domani sarà qualcos’altro. Se non decidiamo noi le regole del gioco, qualcun altro, magari proprio una intelligenza artificiale, le scriverà al posto nostro.
E la cosa potrebbe non piacerci per niente.

Formazione in materia


Per approfondire i temi dell’intelligenza artificiale, abbiamo organizzato il “Master in Intelligenza artificiale per avvocati e imprese – Come utilizzare l’AI generativa per un vantaggio competitivo nel settore legale”
Il Master in Intelligenza Artificiale per Avvocati e Imprese è un percorso formativo avanzato, progettato per fornire a professionisti del settore legale e imprese le conoscenze e le competenze necessarie per orientarsi e utilizzare al meglio le potenzialità dell’AI generativa. Attraverso un approccio pratico, il corso illustrerà i principali tool di AI in uso e mostrerà ai partecipanti come integrare l’AI nei processi lavorativi, migliorando l’efficienza, riducendo i costi e innovando i servizi offerti.Il corso ha una durata totale di 21 ore, articolate in sette incontri da tre ore ciascuno, e include dimostrazioni pratiche in cui verranno illustrate tecniche per la creazione di Prompt efficaci e un framework per la creazione di un GPT personalizzato, focalizzato sulle esigenze del settore legale.
>>>Per info ed iscrizioni<<<
Prenotazione servizio di consulenza
Puoi prenotare un servizio di consulenza personalizzato sulle specifiche esigenze della tua impresa o professione con il docente Claudio Gionti, compilando il modulo disponibile al seguente link: https://docs.google.com/forms/d/e/1FAIpQLScnwEL4P3B76WZRaoW9FnpcwT9Uh570ZAQfisMgTaDVsOzEMg/viewform

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento