C’è un momento, nella storia della tecnologia, in cui una novità smette di essere una “funzione” e diventa un fatto compiuto. Meta AI su WhatsApp è esattamente questo: non un aggiornamento, non un’opzione da attivare, ma una presenza silenziosa e persistente. È lì, nell’angolo in basso a destra della schermata. Ti guarda. Ti invita a scrivere. E – cosa ancor più interessante – impara da ciò che dici. Anche se sei un minore.
In queste settimane ho incontrato centinaia di studenti in aula, in tutta Italia, parlando di educazione digitale, privacy, consapevolezza tecnologica. Tutti – nessuno escluso – utilizzano i chatbot di intelligenza artificiale generativa, ma nessuna sa che, così facendo, sta potenzialmente consegnando a “loro” (entità astratta che spesso tendiamo a confondere con i poteri forti, ma che in realtà non è nulla di più delle società big tech che basano il proprio modello di business sul concetto di “gratuito”) i propri dati personali, linguistici, emozionali, contestuali. Nessuno è consapevole del fatto che, chiacchierando con questi magici assistenti, li addestrano a rispondere sempre meglio, sempre più umani. E nessuno, davvero nessuno, ha pensato che questa sia una questione “di privacy”.
Spoiler: lo è. Eccome. Per approfondire il tema, ti consigliamo il volume “Educazione ai Social Media – Dai Boomer alla generazione Alfa”.
Indice
- 1. Che cos’è Meta AI e perché ci riguarda tutti
- 2. Posso disinstallare Meta AI?
- 3. Il nodo della protezione dei minori e l’intervento del Garante
- 4. L’IA che si allena con le nostre parole. Anche quelle dei nostri figli.
- 5. Tecnologia irresistibile e consenso inconsapevole: il paradosso educativo
- 6. E quindi? Che cosa possiamo fare?
- 7. Conclusione: l’IA è inarrestabile. Ma la dignità umana non dovrebbe essere negoziabile.
1. Che cos’è Meta AI e perché ci riguarda tutti
Meta AI è l’assistente virtuale basato sul modello linguistico Llama 3.2, integrato direttamente all’interno di WhatsApp, Facebook, Instagram e Messenger. È stato lanciato a inizio aprile 2024 in Italia e in altri 12 paesi, senza troppi squilli di tromba, ma con una rapidità degna di miglior causa. Si presenta come una normale chat con un contatto, visibile nella schermata iniziale di WhatsApp, che invita l’utente a “fare una domanda”. L’illusione della neutralità è perfetta.
In realtà, Meta AI è un sistema capace di apprendere dalle interazioni con l’utente, migliorando nel tempo la qualità delle sue risposte. Esattamente come fanno ChatGPT o Copilot. Ma con una differenza sostanziale: Meta AI è integrato in un’app di messaggistica usata quotidianamente da oltre due miliardi di persone nel mondo. Tra cui milioni di minorenni, anche in Italia.
E qui iniziano i problemi. Per approfondire il tema, ti consigliamo il volume “Educazione ai Social Media – Dai Boomer alla generazione Alfa”.
Educazione ai Social Media – Dai Boomer alla generazione Alfa
Ricordate quando i nostri genitori ci dicevano di non parlare con gli sconosciuti? Il concetto non è cambiato, si è “trasferito” anche in rete. Gli “sconosciuti” possono avere le facce più amichevoli del mondo, nascondendosi dietro uno schermo. Ecco perché dobbiamo imparare a navigare queste acque digitali con la stessa attenzione che usiamo per attraversare la strada. Ho avuto l’idea di scrivere questo libro molto tempo fa, per offrire una guida pratica a genitori che si trovano, come me, tutti i giorni ad affrontare il problema di dare ai figli alternative valide al magico potere esercitato su di loro – e su tutti noi – dallo smartphone. Essere genitori, oggi, e per gli anni a venire sempre di più, vuol dire anche questo: scontrarsi con le tematiche proprie dei nativi digitali, diventare un po’ esperti di informatica e di sicurezza, di internet e di tecnologia e provare a trasformarci da quei boomer che saremmo per diritto di nascita, a hacker in erba. Si tratta di una nuova competenza educativa da acquisire: quanto è sicuro il web, quali sono i rischi legati alla navigazione, le tematiche della privacy, che cosa si può postare e che cosa no, e poi ancora il cyberbullismo, il revenge porn, e così via in un universo parallelo in cui la nostra prole galleggia tra like, condivisioni e hashtag. Luisa Di GiacomoAvvocato, Data Protection Officer e consulente Data Protection e AI in numerose società nel nord Italia. Portavoce nazionale del Centro Nazionale Anti Cyberbullismo. È nel pool di consulenti esperti di Cyber Law istituito presso l’European Data Protection Board e ha conseguito il Master “Artificial Intelligence, implications for business strategy” presso il MIT. Autrice e docente di corsi di formazione, è presidente e co-founder di CyberAcademy.
Luisa Di Giacomo | Maggioli Editore 2024
23.75 €
2. Posso disinstallare Meta AI?
L’illusione di poter disattivare Meta AI è una delle principali zone grigie di questa operazione. Da un lato, Meta afferma che nessuno è obbligato a usare l’assistente, e che se non si interagisce con esso, non si attiva alcuna raccolta dati. Ma è davvero così?
In realtà, non esiste alcuna opzione nelle impostazioni per disinstallare o nascondere il tasto di avvio dell’IA. È sempre lì. Si può solo scegliere di ignorarlo. E anche qualora si avviasse una chat, non esiste modo – ad oggi – di garantire che i dati condivisi vengano esclusi dal processo di addestramento del modello.
In effetti, nella mia prova pratica, ho chiesto direttamente alla chat: “Sai chi sono?” e lei (o lui?) mi ha risposto di no, ma quando ho domandato “La chat tra me e te viene usata per addestrarti?”, la risposta è stata “Purtroppo sì”. Purtroppo, l’ha detto lei (o lui), non io. “Anche le chat con i minori vengono usate per addestrare il modello?” Risposta: “Sì, le conversazioni con tutti gli utenti, compresi i minori, possono essere utilizzate per addestrare il modello”.
Ora, mi pare che quello che si chiede ai genitori stia diventando una vera e propria missione impossibile: abbiamo già il nostro bel da fare a convincere i figlioli a staccarsi per qualche secondo dagli odiosi device e fare qualcosa di diverso ed esotico, che ne so, leggere un libro, ma così, con l’AI che arriva su quello che fino a ieri ci sembrava il più innocuo dei social, la guerra diventa davvero impari.
3. Il nodo della protezione dei minori e l’intervento del Garante
Il Garante italiano per la protezione dei dati personali è stato tra i primi in Europa a sollevare preoccupazioni. Lo ha fatto con un comunicato del 5 aprile 2024, annunciando di aver chiesto chiarimenti immediati a Meta Platforms Ireland (la società responsabile per l’Europa), con particolare attenzione a:
- le modalità di attivazione dell’assistente;
- la base giuridica per il trattamento dei dati personali;
- le eventuali misure adottate per impedire l’uso del servizio da parte di minori;
- la trasparenza e completezza delle informazioni fornite agli utenti.
Parallelamente, anche il Data Protection Commission irlandese ha avviato una procedura di verifica, coordinandosi con le altre Autorità europee nel contesto del meccanismo di cooperazione previsto dal GDPR (artt. 60 e ss.).
E in effetti, ci sono molteplici profili critici:
- Art. 5 GDPR – Principio di liceità, correttezza e trasparenza: Meta non ha fornito informazioni chiare e accessibili sull’uso dei dati nelle interazioni con l’assistente.
- Art. 6 GDPR – Base giuridica del trattamento: qual è la legittimazione per trattare questi dati? Il consenso? L’interesse legittimo? L’adempimento contrattuale?
- Art. 8 GDPR – Condizioni applicabili al consenso dei minori: come garantisce Meta che un minore di 14 anni non stia interagendo con Meta AI senza adeguata supervisione?
- Art. 25 GDPR – Protezione dei dati fin dalla progettazione e per impostazione predefinita: perché l’assistente non è disattivabile? Perché è attivo per impostazione predefinita?
La sensazione – assai poco tecnica, ma perfettamente centrata – è che Meta stia sperimentando sul campo, cercando di capire fin dove può spingersi, a suon di notifiche informative ambigue e interfacce utente opache.
Potrebbero interessarti anche:
4. L’IA che si allena con le nostre parole. Anche quelle dei nostri figli.
Quando ho chiesto a Meta AI se utilizza le conversazioni per addestrarsi, la risposta è stata affermativa. Questo significa che ogni interazione può diventare parte del set di addestramento del modello linguistico. Certo, Meta precisa che i dati vengono “aggregati, anonimizzati, resi non riconducibili all’identità dell’utente”. Ma qui entra in gioco il punto cruciale: il contenuto semantico resta.
Anche se i dati vengono anonimizzati, l’informazione strutturale resta nel modello. Se un minore racconta a Meta AI di avere problemi a scuola, o chiede consigli su come affrontare l’ansia sociale, o parla del proprio orientamento sessuale, quelle conversazioni non vengono salvate come “nome + cognome + confessione”, ma possono alimentare un modello che sa che un ragazzo di 14 anni in Italia può provare certi disagi, usare certi termini, porsi certe domande.
Insomma, la macchina non “ricorda” chi sei, ma impara chi siamo.
5. Tecnologia irresistibile e consenso inconsapevole: il paradosso educativo
Qui arriva la parte più difficile da spiegare a genitori, insegnanti e persino a legislatori e colleghi avvocati: non si può più fare educazione digitale solo dicendo “non lo usare”. L’intelligenza artificiale generativa è un’infrastruttura cognitiva, non uno strumento accessorio.
Durante le mie lezioni con gli studenti, ho chiesto a ognuno: “Quanti di voi usano l’IA generativa almeno una volta alla settimana?”. Il 90% ha alzato la mano. Ho chiesto: “Quanti leggono l’informativa privacy quando usano ChatGPT o Meta AI?”. Nessuno (per amore di completezza, devo dire che nemmeno gli adulti la leggono mai).
La verità è che l’accesso alla tecnologia ha superato la capacità di comprenderne le implicazioni giuridiche.
È come mettere un’automobile in mano a qualcuno che non sa cosa sia un semaforo. E noi giuristi continuiamo a spiegare i limiti di velocità senza accorgerci che la macchina non ha freni.
6. E quindi? Che cosa possiamo fare?
Sul piano normativo, le strade sono due:
- Applicazione rigorosa del GDPR e del Digital Services Act, che obbliga le piattaforme a garantire un livello elevato di protezione per i minori (art. 28 DSA), con trasparenza algoritmica, controllo dei contenuti e protezione dei dati.
- Interventi tempestivi delle Autorità nazionali, con ispezioni, blocchi selettivi, limitazioni d’uso come già avvenuto con ChatGPT in Italia nel 2023.
Ma sul piano culturale, la strada è ancora più impegnativa: educare alla consapevolezza, spiegare cosa significa profilazione, cosa comporta l’addestramento, cosa rischiamo a normalizzare l’uso dell’IA nei contesti più personali della vita quotidiana.
E anche, magari, dire chiaramente che un minore non dovrebbe trovarsi a chattare con un modello linguistico addestrato per vendere meglio la pubblicità comportamentale.
7. Conclusione: l’IA è inarrestabile. Ma la dignità umana non dovrebbe essere negoziabile.
Meta AI non è il problema. È il sintomo.
Il problema è pensare che l’innovazione giustifichi tutto, purché sia utile, veloce, “cool”. È credere che un’interfaccia accattivante possa compensare la mancanza di trasparenza. È abituarsi all’idea che la privacy sia un ostacolo, non un diritto.
La verità è che l’intelligenza artificiale è qui per restare, ma la tutela dei dati personali non può diventare una fiction giuridica. Dobbiamo scegliere se essere utenti, consumatori o cittadini. E se i minori non sono ancora pronti a fare questa scelta, allora dobbiamo esserlo noi, come giuristi, educatori, legislatori. Genitori.
La verità è che l’intelligenza artificiale è qui per restare, ma la tutela dei dati personali non può diventare una fiction giuridica. Dobbiamo scegliere se essere utenti, consumatori o cittadini. E se i minori non sono ancora pronti a fare questa scelta, allora dobbiamo esserlo noi, come giuristi, educatori, legislatori. Genitori.
Ed è qui che cascano, non dico tutti gli asini del mondo, ma tutti quelli che pensavano che bastasse attivare il parental control per chiamarla educazione digitale.
Cascano quelli che hanno confuso il ruolo di genitore con quello di spettatore distratto della tecnologia che cresce i figli al posto loro.
Cascano quelli che pensano che dare uno smartphone in mano a un tredicenne equivalga a renderlo autonomo. E poi si stupiscono se parla più con un algoritmo che con la madre.
Cascano quelli che non si accorgono che, mentre noi parliamo di “futuro”, l’IA è già nella cameretta di nostro figlio. E sta ascoltando.
Ecco perché il nostro compito non è quello di temere l’intelligenza artificiale, ma di renderla trasparente, comprensibile, negoziabile. Perché se oggi non abbiamo il coraggio di porci domande difficili, domani sarà lei a farcele. E noi, forse, non sapremo più rispondere.
Scrivi un commento
Accedi per poter inserire un commento