Il 3 marzo 2025, l’Information Commissioner’s Office (ICO) del Regno Unito (l’equivalente del Garante della Privacy oltre Manica) ha avviato un’indagine formale su TikTok, Reddit e Imgur (una piattaforma per la condivisione delle immagini) con l’obiettivo di verificare la conformità delle loro pratiche di trattamento dei dati personali degli utenti minorenni. Al centro dell’indagine vi sono i sistemi di raccomandazione dei contenuti, le misure di verifica dell’età e le modalità con cui le piattaforme gestiscono i dati degli utenti di età compresa tra i 13 e i 17 anni. Questa iniziativa si inserisce in un contesto normativo sempre più attento alla protezione dei dati dei minori, dove le piattaforme digitali devono bilanciare l’esigenza di monetizzazione con il rispetto delle stringenti normative sulla privacy. Per approfondire il tema, ti consigliamo il volume “Educazione ai Social Media – Dai Boomer alla generazione Alfa”.
Indice
1. Il contesto normativo: tra Children’s Code e UK GDPR
Il quadro normativo britannico è particolarmente rigoroso nella protezione dei minori online. Il Children’s Code (o Age Appropriate Design Code), entrato in vigore nel Regno Unito il 2 settembre 2021, impone 15 standard di progettazione che le aziende tecnologiche devono rispettare per garantire la tutela dei dati dei minori. Tra questi standard, particolare attenzione è rivolta alla necessità di adottare un approccio di privacy by design e by default, che impone alle piattaforme di garantire il massimo livello di privacy possibile per i profili degli utenti minorenni.
Parallelamente, il Regolamento Generale sulla Protezione dei Dati (GDPR) continua a rappresentare un punto di riferimento anche per il Regno Unito tramite l’UK GDPR, adattato dopo la Brexit. L’art. 8 del GDPR stabilisce che il trattamento dei dati personali dei minori è lecito solo previo consenso del titolare della responsabilità genitoriale, se il minore ha meno di 16 anni (13 anni nel Regno Unito). Inoltre, il GDPR introduce principi fondamentali come la minimizzazione dei dati, la limitazione delle finalità e la trasparenza, che sono essenziali per garantire che le piattaforme digitali non raccolgano più dati del necessario e che informino adeguatamente gli utenti. Per approfondire il tema, ti consigliamo il volume “Educazione ai Social Media – Dai Boomer alla generazione Alfa”.
Educazione ai Social Media – Dai Boomer alla generazione Alfa
Ricordate quando i nostri genitori ci dicevano di non parlare con gli sconosciuti? Il concetto non è cambiato, si è “trasferito” anche in rete. Gli “sconosciuti” possono avere le facce più amichevoli del mondo, nascondendosi dietro uno schermo. Ecco perché dobbiamo imparare a navigare queste acque digitali con la stessa attenzione che usiamo per attraversare la strada. Ho avuto l’idea di scrivere questo libro molto tempo fa, per offrire una guida pratica a genitori che si trovano, come me, tutti i giorni ad affrontare il problema di dare ai figli alternative valide al magico potere esercitato su di loro – e su tutti noi – dallo smartphone. Essere genitori, oggi, e per gli anni a venire sempre di più, vuol dire anche questo: scontrarsi con le tematiche proprie dei nativi digitali, diventare un po’ esperti di informatica e di sicurezza, di internet e di tecnologia e provare a trasformarci da quei boomer che saremmo per diritto di nascita, a hacker in erba. Si tratta di una nuova competenza educativa da acquisire: quanto è sicuro il web, quali sono i rischi legati alla navigazione, le tematiche della privacy, che cosa si può postare e che cosa no, e poi ancora il cyberbullismo, il revenge porn, e così via in un universo parallelo in cui la nostra prole galleggia tra like, condivisioni e hashtag. Luisa Di GiacomoAvvocato, Data Protection Officer e consulente Data Protection e AI in numerose società nel nord Italia. Portavoce nazionale del Centro Nazionale Anti Cyberbullismo. È nel pool di consulenti esperti di Cyber Law istituito presso l’European Data Protection Board e ha conseguito il Master “Artificial Intelligence, implications for business strategy” presso il MIT. Autrice e docente di corsi di formazione, è presidente e co-founder di CyberAcademy.
Luisa Di Giacomo | Maggioli Editore 2024
23.75 €
2. Utilizzabilità in giudizio e responsabilità delle piattaforme digitali
L’indagine dell’ICO potrebbe portare all’acquisizione di prove utilizzabili sia in sede amministrativa che giudiziaria. Secondo il Data Protection Act 2018, l’ICO ha il potere di richiedere documenti, effettuare ispezioni e imporre misure correttive, incluse ingenti sanzioni economiche. Le piattaforme coinvolte potrebbero affrontare multe fino a 17,5 milioni di sterline o fino al 4% del fatturato globale annuo, in caso di violazioni gravi e sistematiche del GDPR.
Un precedente rilevante è rappresentato dalla multa di 12,7 milioni di sterline inflitta a TikTok nel 2023 per l’uso improprio dei dati dei minori. In quel caso, l’ICO aveva evidenziato la mancanza di adeguate misure di verifica dell’età e il trattamento dei dati di utenti di età inferiore ai 13 anni senza il consenso dei genitori. Questo scenario potrebbe ripetersi qualora l’indagine confermasse che le piattaforme non rispettano il Children’s Code o le disposizioni del GDPR.
3. Limiti e cautele: come le piattaforme possono conformarsi alle normative sui dati
Le piattaforme digitali devono adottare misure concrete e verificabili per garantire la protezione dei dati dei minori. Tra le pratiche consigliate vi sono:
- Sistemi robusti di verifica dell’età: le piattaforme dovrebbero implementare soluzioni tecnologiche avanzate, come l’analisi biometrica o l’uso di documenti d’identità digitali, per assicurarsi che i minori non accedano a contenuti inappropriati.
- Impostazioni di privacy predefinite elevate: i profili dei minori dovrebbero essere automaticamente impostati come privati, limitando la visibilità delle loro attività online e la possibilità di interazione con utenti sconosciuti.
- Limitazione della raccolta dei dati personali: le piattaforme dovrebbero garantire che vengano raccolti solo i dati strettamente necessari per la fornitura del servizio, evitando la profilazione commerciale o l’utilizzo dei dati per finalità non esplicitamente dichiarate.
- Trasparenza e accessibilità delle informative sulla privacy: le informazioni sul trattamento dei dati dovrebbero essere fornite in un linguaggio chiaro e comprensibile, adatto anche ai minori, che invece accettano qualsiasi cosa senza leggere (cosa che peraltro fanno anche gli adulti).
- Monitoraggio continuo delle pratiche di trattamento dei dati: è necessario implementare sistemi di auditing interno e di conformità per verificare che le politiche aziendali rispettino costantemente le normative vigenti.
Potrebbero interessarti anche:
4. Conclusioni: un tema cruciale per il futuro dei nativi digitali
Il tema della protezione dei minori sui social media torna alla ribalta con tutta la sua pregnanza, evidenziando l’importanza cruciale di tutelare i soggetti più deboli e di salvaguardare il futuro dei cosiddetti “nativi digitali”.
Questi giovani utenti, nati e cresciuti in un ambiente digitale, dimostrano frequentemente di non avere piena consapevolezza dei rischi connessi all’utilizzo dei social media. La mancanza di un’adeguata educazione digitale può portarli a esporre in modo incontrollato i propri dati personali, con conseguenze potenzialmente dannose per la loro privacy e sicurezza.
Le problematiche legate all’educazione digitale dei minori richiedono un approccio integrato, che coinvolga non solo le istituzioni scolastiche e le famiglie, ma anche le piattaforme digitali stesse. Queste ultime, adottando misure efficaci di protezione dei dati e promuovendo pratiche trasparenti, possono trasformare il rispetto della privacy in un vero e proprio vantaggio competitivo. In un mercato sempre più attento alla tutela dei diritti degli utenti, le aziende che scelgono di investire nella privacy by design e by default non solo evitano sanzioni, ma costruiscono un rapporto di fiducia duraturo con i loro utenti e con le autorità di regolamentazione.
L’indagine dell’ICO rappresenta non solo un banco di prova per TikTok, Reddit e Imgur, ma anche un’opportunità per il Regno Unito di consolidare il proprio ruolo di leader nella regolamentazione della protezione dei dati online, sottolineando come il rispetto delle normative sulla protezione dei dati non sia semplicemente un obbligo legale, ma un’opportunità strategica per le piattaforme digitali di distinguersi positivamente in un settore altamente competitivo. L’integrazione della tutela dei minori nelle politiche aziendali rappresenta non solo un gesto di responsabilità sociale, ma anche una scelta lungimirante per costruire un futuro digitale più sicuro, equo e sostenibile.
Scrivi un commento
Accedi per poter inserire un commento