ChatGPT, intervento di Guido Scorza e questioni di privacy

Scarica PDF Stampa

Abbiamo parlato in questo articolo del grande hype che sta generando nelle ultime settimane ChatGPT, l’intelligenza artificiale sviluppata da OpenAI (l’organizzazione senza scopo di lucro con sede a San Francisco, fondata da Elon Musk) in grado di elaborare testi sugli argomenti più disparati con competenza e proprietà di linguaggio che li rendono in tutto e per tutto simili agli umani. E in effetti, in queste settimane il web ed in particolare i social sono sommersi di screenshot che mostrano i risultati delle domande poste dagli utenti da ChatGPT.
Si tratta di un gioco, un gioco divertente, per ora senza applicazioni pratiche di grande utilità: abbiamo visto che ChatGPT per quanto del tutto credibile, non è affidabile. Possiamo chiedere al bot di scrivere un articolo su un argomento scientifico, ma se non siamo noi stessi competenti in quell’argomento, non possiamo essere sicuri che i concetti elaborati, per quanto accattivanti, scritti in italiano grammaticalmente corretto e di sicuro impatto, siano anche scientificamente, o giuridicamente corretti.
Tuttavia, non è sempre necessario essere competenti su un argomento per esprimere una propria opinione a riguardo: del resto nel Paese che ha creato la professione di opinionista, per quale motivo anche una macchina fondata su modelli avanzati di intelligenza artificiale non dovrebbe poter dire la sua?
A ChatGPT stiamo chiedendo di tutto e Chat GPT sta scrivendo per noi di tutto: consultiamo il bot come gli antichi Greci consultavano la Pizia, l’oracolo di Delfi, e i Romani leggevano gli aruspici, e come, molto più prosaicamente, in passato ci siamo rivolti a chiromanti, tarocchi, e santoni di varia specie e natura. Perché l’essere umano è così, ha bisogno di certezze, di risposte, di identità, e ne ha bisogno ancora di più in questi tempi di incertezze portati da pandemia, guerra, crisi economica. E così, come ormai socializziamo online, ci fidanziamo online, abbiamo amici online, possiamo benissimo chiacchierare online con un algoritmo di salute, amore, lavoro, faccende finanziarie, speranze di promozione, litigi tra sorelle, pareri giuridici, opinioni politiche.
ChatGPT risponde, sempre. E lo fa con buon senso, con quella vaghezza istituzionale che non può essere diversa, dal momento che stiamo pur sempre parlando con una macchina, ma intanto noi ci divertiamo, screenshottiamo le conversazioni e le postiamo sui social a caccia di like, di commenti, del nostro quarto d’ora di celebrità, reale quanto i soldi del Monopoli.
Ma c’è un’altra cosa che ChatGPT fa, senza che noi ce ne rendiamo conto, ed è la stessa cosa che fanno, da anni, i social, i motori di ricerca, tutti i giochi online che scansionano il nostro volto per mostrarci come saremo da anziani, che ci chiedono “dimmi in che posizione dormi e ti dirò chi sei”, che ci pongono quiz divertenti per rivelarci aspetti della nostra personalità, che prendono campioni della nostra voce per distorcerla e farci parlare come Paperino per scherzo: immagazzina i nostri dati. A centinaia di migliaia.
Così si è espresso Guido Scorza, avvocato specializzato in privacy e data protection e attualmente componente del Collegio dell’Autorità Garante per la Protezione dei dati personali: “Il chatbot immagazzina – o, almeno, può immagazzinare – una conoscenza globale su centinaia di milioni di persone in giro per il mondo, sul loro modo di pensare, sulle domande che si pongono, sulle loro ansie, paure e preoccupazioni”. (HuffPost, 7 gennaio 2023).
Non è e non vuole essere, per stessa dichiarazione del Garante, un tentativo di terrorismo psicologico o di allarmismo senza motivo. Semplicemente, nella fase di sperimentazione di una tecnologia nuova (e divertente) è bene che nessuno di noi dimentichi che dall’altra parte dello schermo c’è, per l’appunto, un robot, non una persona in carne ed ossa e certamente non un nostro amico.
Siccome a domanda risponde, ho chiesto al chatbot se raccoglie o meno dati personali, e la risposta è stata la seguente: “No, ChatGPT non raccoglie alcun dato personale. È solo un modello di linguaggio che utilizza i dati forniti durante la richiesta per generare una risposta. Tuttavia, l’utilizzo di ChatGPT potrebbe implicare la raccolta di dati da parte della piattaforma o del servizio che lo utilizza. Si consiglia di consultare la politica sulla privacy di tali servizi per maggiori informazioni.” Formalmente ineccepibile, indubbio, ma questa frase è la dimostrazione che, per quanto credibile, il robot non è affidabile.
Primo, per accedere al sito di OpenAI, dove risiede il software, è necessario registrarsi, fornendo e-mail e password. È fuori di dubbio che il sito raccolga, per lo meno, questi dati, il nostro nome e cognome, i dati relativi alla nostra posizione e il nostro IP, i dati forniti attraverso i cookie e gli altri sistemi di tracciamento, e se entriamo da un browser su cui siamo loggati con le nostre credenziali, è facile che possa incrociare anche dati non espressamente forniti.
Ma c’è di più: in ogni domanda che poniamo all’algoritmo e per la quale ChatGPT ci fornisce risposte così sensate e rassicuranti, ci sono informazioni personali su di noi: raccontiamo sogni e speranze, delusioni e preoccupazioni, ambizioni, desideri, frustrazioni e queste conversazioni inevitabilmente vengono archiviate da qualche parte, perché i sistemi come ChatGPT, che si basano sul modello Large Language Model (LLM) (machine learning) si sviluppano e si “nutrono” proprio di questo cioè di enormi quantità di testi che vengono letti, riassunti, tradotti, elaborati, in modo che poi l’intelligenza artificiale sia in grado di prevedere le parole future in una frase e generare frasi simili a quelle che sono state immagazzinate. Così come i programmi di riconoscimento facciale si basano su quegli innocui giochi che ci mostrano come saremo a ottant’anni e così come da un nostro “mi piace” su un social, qualcuno immagazzina informazioni che consentiranno di avere una conoscenza su di noi di gran lunga più approfondita di quella di nostra madre.
Quindi? Dobbiamo smettere di usare ChatGPT? Non c’è una risposta giusta o sbagliata a questa domanda, dipende da noi, così come dipende da noi quanto vogliamo far saper di noi stessi a Meta, a Google ed altri titani dell’economia che ci forniscono meravigliosi servizi gratis.
Ma quando si utilizza una tecnologia, specie se nuova, certe cose è bene saperle: la consapevolezza ci permette di scegliere con cognizione di causa, ricordandoci sempre che se qualcosa è gratis, soprattutto online, vuol dire che il prodotto siamo noi.

Avv. Luisa Di Giacomo

Scrivi un commento

Accedi per poter inserire un commento