Meta e Google, la giurisprudenza USA apre all’addiction by design oggi

La giuria californiana apre alla responsabilità delle piattaforme: non i contenuti, ma il design può fondare il danno da dipendenza digitale minorile.

Scarica PDF Stampa

Nel marzo 2026 una giuria della Superior Court della California, nel caso K.G.M. v. Meta Platforms Inc. et al., ha riconosciuto la responsabilità civile di Meta e Google per i danni subiti da un minore in conseguenza dell’utilizzo di Instagram e YouTube. Non è la prima causa intentata contro le piattaforme digitali, né sarà l’ultima. Ciò che rende questa decisione giuridicamente rilevante non è l’esito risarcitorio, ma il modo in cui viene costruita la responsabilità.
La pronuncia si colloca all’interno di un contenzioso seriale che coinvolge centinaia di azioni promosse da famiglie di minori, ma introduce un elemento di discontinuità: il superamento del paradigma della neutralità della piattaforma attraverso la qualificazione del design come possibile fonte autonoma di responsabilità.
Non è il contenuto a essere giudicato, ma l’architettura.
In materia, abbiamo pubblicato la seconda edizione del Formulario commentato della privacy, disponibile su Shop Maggioli e su Amazon. Abbiamo anche organizzato il corso “Dal GDPR alla Legge AI – Policy, reporting e strumenti pratici per la governance dei dati”

Indice

1. Il fatto giuridico: dalla fruizione del contenuto alla struttura del prodotto


La ricostruzione operata in giudizio è lineare, ma incisiva. Il danno lamentato — depressione, ansia, dipendenza comportamentale — non viene imputato a specifici contenuti pubblicati dagli utenti, bensì al modo in cui la piattaforma organizza, seleziona e presenta tali contenuti.
Il cuore dell’accusa risiede nell’idea che Instagram e YouTube non siano meri contenitori, ma sistemi progettati per massimizzare il tempo di permanenza dell’utente, attraverso meccanismi di stimolazione continua e personalizzata.
La giuria accoglie questa impostazione e riconosce che alcune caratteristiche strutturali — lo scorrimento infinito, l’autoplay, le notifiche persistenti, i sistemi di raccomandazione algoritmica — non sono funzionalità neutre, ma strumenti orientati a mantenere l’utente in uno stato di coinvolgimento prolungato.
Il punto non è l’esistenza di tali strumenti, ma la loro finalità. In materia, abbiamo pubblicato la seconda edizione del Formulario commentato della privacy, disponibile su Shop Maggioli e su Amazon.

VOLUME

Formulario commentato della privacy

La nuova edizione dell’opera affronta con taglio pratico gli aspetti sostanziali e procedurali del trattamento dei dati personali alla luce delle nuove sfide poste dall’evoluzione normativa e tecnologica degli ultimi due anni. La disciplina di riferimento è commentata tenendo conto dei rilevanti interventi a livello europeo e nazionale (tra cui le Linee Guida EDPB, i regolamenti AI Act e DORA, l’attuazione della direttiva NIS 2), offrendo al Professionista una guida completa e aggiornata.Il libro è suddiviso in tredici sezioni, che coprono ogni aspetto della materia e tutti gli argomenti sono corredati da oltre 100 formule e modelli. Tra le novità più rilevanti:• Connessioni tra il nuovo AI Act e il GDPR, differenze tra FRIA e DPIA, valutazione dei rischi e incidenti• Gestione del personale: smart working, telelavoro e whistleblowing• Strumenti di monitoraggio: controlli a distanza dei lavoratori, cloud computing e gestione degli strumenti informatici in azienda• Tutela degli interessati: una guida completa su profilazione, processi decisionali automatizzati e sull’esercizio dei diritti• Strumenti di tutela: sanzioni, reclami, segnalazioni e ricorsi al Garante.Giuseppe CassanoDirettore del Dipartimento di Scienze Giuridiche della European School of Economics della sede di Roma e Milano, ha insegnato Istituzioni di Diritto Privato nell’Università Luiss di Roma. Avvocato cassazionista. Studioso dei diritti della persona, del diritto di famiglia, della responsabilità civile e del diritto di Internet, ha pubblicato oltre trecento contributi in tema, fra volumi, trattati, voci enciclopediche, note e saggi.Enzo Maria Tripodiattualmente all’Ufficio legale e al Servizio DPO di Unioncamere, è un giurista specializzato nella disciplina della distribuzione commerciale, nella contrattualistica d’impresa, nel diritto delle nuove tecnologie e della privacy, nonché nelle tematiche attinenti la tutela dei consumatori. È stato docente della LUISS Business School e Professore a contratto di Diritto Privato presso la facoltà di Economia della Luiss-Guido Carli. Ha insegnato in numerosi Master post laurea ed è autore di oltre quaranta monografie con le più importanti case editrici.Cristian ErcolanoPartner presso Theorema Srl – Consulenti di direzione, con sede a Roma; giurista con circa 20 anni di esperienza nell’applicazione della normativa in materia di protezione dei dati personali e più in generale sui temi della compliance e sostenibilità. Ricopre incarichi di Responsabile della Protezione dei Dati, Organismo di Vigilanza e Organismo Indipendente di Valutazione della performance presso realtà private e pubbliche. Autore di numerosi contributi per trattati, opere collettanee e riviste specialistiche sia tradizionali che digitali, svolge continuativamente attività didattica, di divulgazione ed orientamento nelle materie di competenza.

 

Giuseppe Cassano, Enzo Maria Tripodi, Cristian Ercolano | Maggioli Editore 2025

2. La qualificazione giuridica: defective design e failure to warn


La responsabilità viene costruita su due direttrici classiche del diritto statunitense della responsabilità civile: il difetto di progettazione (defective design) e l’omessa informazione sui rischi (failure to warn).
Secondo la giuria, le piattaforme:

  • hanno progettato sistemi idonei a generare comportamenti compulsivi;
  • erano consapevoli degli effetti potenzialmente dannosi, in particolare sui minori;
  • non hanno fornito informazioni adeguate sui rischi connessi all’utilizzo prolungato.

Si tratta di un passaggio cruciale, perché sposta il baricentro della responsabilità dal comportamento dell’utente alla struttura del prodotto.
Il danno non è più un effetto collaterale imprevedibile, ma una conseguenza che, in presenza di determinati presupposti, diventa giuridicamente rilevante.

3. Il nodo della consapevolezza: documenti interni e prevedibilità del rischio


Uno degli elementi decisivi nel giudizio è rappresentato dalla prova della conoscenza del rischio da parte delle aziende.
Nel corso del processo sono stati acquisiti documenti interni e studi condotti dalle stesse piattaforme, dai quali emergeva la consapevolezza degli effetti negativi dell’uso intensivo, soprattutto in relazione agli utenti più giovani.
Questo dato consente di superare una delle principali difese tradizionali: l’imprevedibilità del danno.
La responsabilità non si fonda su una presunzione astratta, ma su una ricostruzione concreta della prevedibilità e della evitabilità del rischio.

4. Il nesso causale: dal comportamento dell’utente al ruolo del sistema


Il profilo più delicato riguarda il nesso di causalità.
La giuria ha ritenuto che il design delle piattaforme costituisse un substantial factor nella produzione del danno. Non un elemento accessorio, ma una componente rilevante della catena causale.
Questo passaggio segna un’evoluzione significativa. Tradizionalmente, nelle controversie relative ai servizi digitali, la causalità veniva interrotta dal comportamento dell’utente o dalla natura dei contenuti. In questo caso, invece, il sistema viene considerato come parte attiva nella generazione del comportamento dannoso.
Non si afferma una causalità esclusiva, ma una causalità concorrente sufficiente a fondare la responsabilità.

5. Section 230 e limiti della neutralità: il design come via di fuga


Un aspetto di particolare interesse è il rapporto con la Section 230 del Communications Decency Act, che tradizionalmente esclude la responsabilità delle piattaforme per i contenuti pubblicati dagli utenti. La decisione non mette formalmente in discussione tale disposizione, ma ne circoscrive l’ambito applicativo.
La responsabilità non viene fondata sui contenuti, bensì sul design della piattaforma. In questo modo, il giudizio si colloca al di fuori del perimetro di protezione della Section 230.
Si tratta di una scelta strategica, destinata a influenzare il contenzioso futuro. Il terreno del confronto si sposta:

  • dai contenuti, difficilmente aggredibili;
  • alla progettazione, che diventa scrutinabile.

6. La costruzione implicita del modello “dipendenza”


Pur senza utilizzare formule esplicite, la decisione richiama un modello già noto nella giurisprudenza statunitense: quello sviluppato nei contenziosi contro l’industria del tabacco.
Il parallelismo emerge su tre piani:

  • la progettazione del prodotto in funzione del mantenimento dell’utente;
  • la conoscenza interna dei rischi;
  • la mancata comunicazione adeguata agli utilizzatori.

Il concetto di “addiction by design” si inserisce in questa tradizione, adattandola al contesto digitale.
Non si tratta di equiparare i social network a sostanze nocive, ma di riconoscere che la progettazione può incidere sui comportamenti in modo sistematico e prevedibile.

7. Prospettive e implicazioni: un contenzioso destinato a espandersi


La decisione interviene in un contesto caratterizzato da un elevato numero di cause pendenti e da una crescente attenzione politica e regolatoria al tema dell’impatto delle piattaforme digitali sui minori.
Le conseguenze sono immediate.
Da un lato, si rafforza la strategia processuale fondata sul design, che consente di aggirare le barriere tradizionali alla responsabilità delle piattaforme. Dall’altro, si apre un fronte che potrebbe avere riflessi anche al di fuori degli Stati Uniti, in particolare nei sistemi che già conoscono forme di responsabilità basate sul rischio e sull’organizzazione.
Il tema non è più soltanto quello della moderazione dei contenuti, ma quello della progettazione dei sistemi.

8. Considerazioni conclusive


La decisione della giuria californiana non introduce una categoria nuova, ma opera una ricollocazione della responsabilità all’interno di schemi già noti. Il punto non è attribuire alle piattaforme una responsabilità generalizzata per i comportamenti degli utenti, bensì riconoscere che la progettazione del sistema può diventare, in determinate condizioni, un fattore giuridicamente rilevante nella produzione del danno.
Ciò che viene meno non è la neutralità in senso astratto, ma la sua utilizzabilità come argomento difensivo quando l’architettura della piattaforma non si limita a ospitare contenuti, ma orienta in modo sistematico le modalità di fruizione. La distinzione tra contenuto e design, che per anni ha retto il sistema di immunità, mostra qui il suo limite operativo.
Il passaggio più significativo non riguarda l’esito risarcitorio, ma il criterio di imputazione: la responsabilità si costruisce sulla prevedibilità degli effetti e sulla possibilità di intervenire sulla struttura del prodotto. In questa prospettiva, il comportamento dell’utente non interrompe automaticamente il nesso causale, ma si inserisce in un contesto progettato per sollecitarlo.
Ne deriva una conseguenza difficilmente reversibile: la progettazione diventa oggetto di scrutinio giuridico. Non più soltanto le regole che governano i contenuti, ma le scelte che determinano visibilità, sequenza, continuità e intensità dell’esperienza.
Il terreno del diritto si sposta, quindi, dalla regolazione di ciò che circola alla valutazione di ciò che viene costruito. Ed è uno spostamento che incide direttamente sul modello economico delle piattaforme, perché investe i meccanismi attraverso cui si genera attenzione.
In questo scenario, la questione non è se le piattaforme “manipolino” gli utenti — formula giornalistica priva di utilità giuridica — ma se la loro architettura renda prevedibili e quindi imputabili determinati effetti. È su questa linea, molto più precisa e molto meno sloganistica, che si misureranno le prossime evoluzioni della responsabilità digitale.

Formazione in materia per professionisti


Dal GDPR alla Legge AI – Policy, reporting e strumenti pratici per la governance dei dati
Un ciclo di quattro incontri per tradurre le norme su AI e protezione dei dati in procedure operative concrete. Dalla definizione delle policy alla costruzione del reporting e delle linee guida interne, il webinar offre ai professionisti della compliance strumenti immediatamenti applicabili:
• Basi giuridiche e accountability documentale: principi applicabili ai trattamenti tipici dell’ufficio legale, distinzione fra esigenze legali, difensive e operative, mappatura end-to-end del flusso “revisione clausole contrattuali” ed errori frequenti con relative contromisure.
• Criteri e controllo dei risultati: accettazione dei risultati di analisi e AI, registrazione dei casi d’uso e delle verifiche, esempi pratici di analytics.
• KPI, reporting e governance del dato: definizione e monitoraggio degli indicatori, progettazione di dashboard efficaci e policy interne per garantire tracciabilità e qualità dei dati.
• Integrazione AI e workflow aziendale: collegamento dell’AI con l’ecosistema aziendale, flusso “review automatizzata delle clausole” e linee guida “Uso dati e AI nell’ufficio legale”.
>>>Per info ed iscrizioni<<<

Vuoi ricevere aggiornamenti costanti?


Salva questa pagina nella tua Area riservata di Diritto.it e riceverai le notifiche per tutte le pubblicazioni in materia. Inoltre, con le nostre Newsletter riceverai settimanalmente tutte le novità normative e giurisprudenziali!
Iscriviti!

Iscriviti alla newsletter
Iscrizione completata

Grazie per esserti iscritto alla newsletter.

Seguici sui social


Avv. Luisa Di Giacomo

Laureata in giurisprudenza a pieni voti nel 2001, avvocato dal 2005, ho studiato e lavorato nel Principato di Monaco e a New York.
Dal 2012 mi occupo di compliance e protezione dati, nel 2016 ho conseguito il Master come Consulente Privacy e nel 2020 ho conseguito il titolo…Continua a leggere

Scrivi un commento

Accedi per poter inserire un commento