Il prof. Avv. Stefano Aterno su Chat GPT ed il provvedimento del Garante per la protezione dei dati personali

di M.C. Calciano (intervista di)

 D. Avv. Stefano Aterno, oggi si parla molto di CHAT GPT. Cos’è e come funziona ?

R. Da dicembre, da quando si è presentata al grande pubblico, ho cercato di capire come funzionava CHAT GPT  e in che cosa consisteva. Ho cercato di comprendere leggendo anche articoli di esperti italiani e stranieri che scrivevano di Chat GPT già alcuni anni fa. E mi sono fatto un’idea suffragata dal confronto con professori ordinari ed sistemisti che programmano in python. E’ sostanzialmente un generatore di conversazioni chatbot basato su intelligenza artificiale e apprendimento automatico specializzato nella conversazione con un utente umano. Chat GPT (nelle sue diverse versioni) è sviluppato dalla società statunitense OPENAI.

ChatGPT è uno strumento potente di elaborazione del linguaggio naturale, che può essere utilizzato per la creazione di un numero elevato di applicazioni, dal costruire chatbot per il servizio clienti, le comunicazioni vendite di un’azienda o qualsiasi altro tipo di comunicazione personalizzata; completare e suggerire testo, generare testo, tradurre parole e brani, analizzare il sentiment del testo consentendo di determinare se un testo è positivo, negativo o neutro; riassumere brani; creare dei contenuti; costruire sistemi in grado di rispondere a domande e fornire informazioni su un’ampia gamma di argomenti.

Se la richiesta viene formulata in modo corretto, è in grado di fornire tutto quanto sopra in pochi secondi.

ChatGPT ha raggiunto i 100 milioni di utenti in soli due mesi. Si basa su dati che provengono in gran parte da Common Crawl che è un dataset pubblico che conserva più d 10 anni di web crawling, ossia estrae informazioni da siti internet pubblici e privati selezionati (es. Archive.org) ed anche da altri dataset pubblici (ebbene si, anche da Wikipedia).  Alcuni di questi sono creati da soggetti diversi da OpenAI attraverso la raccolta dei dati su Internet o direttamente dai loro creatori (tipo appunto Wikipedia). La raccolta, pertanto, non è svolta direttamente da OpenAI, ma da soggetti terzi che assemblano il contenuto che si trova pubblicamente online. Vengono utilizzati dataset per “tokenizzare” (questa la parola tecnica) le parole e addestrare il modello sulla base della vettorizzazione delle stesse, per calcolare le probabilità di vicinanza in un dato contesto. Il trattamento dei dati non è più diverso rispetto a quello di tanti altri sistemi, nel caso di GPT, potrebbe non essere più attuale rispetto al modello in produzione, nel senso che una volta addestrato quel dataset potrebbe, ad esempio, essere del tutto cancellato, perché GPT non conserva il dato personale, ma solo dei parametri che sono il risultato delle elaborazioni in termini di probabilità statistica. I dati personali sicuramente trattati sono quelli relativi alla registrazione e creazione di un proprio account e quelli resi manifestamente pubblici dall’interessato in quei data set di dati presenti nel web crawling di cui sopra. Tutti i grandi modelli linguistici (Large Language Models, LLM) sono addestrati con ciò che tutti gli utenti mettono online e il sistema non è stato progettato per restituire quei dati tali e quali, bensì per usarli come base per generare contenuti nuovi. Su queste basi porsi un problema di base giuridica come se fosse una banca dati comune a tante altre rischia di essere un esercizio di stile inutile.

Una cosa è sicura, Chat GPT non è un motore di ricerca come Google o Bing davanti al quale chiunque può fare richieste o cercare qualcosa. Occorre registrarsi con una email e una password.

Non è un motore di ricerca o un social network,  il suo funzionamento e le sue caratteristiche sono ben indicate nel sito web. Se lo si concepisce come un motore di ricerca o un social network si rischia, anche sotto il profilo giuridico, di sbagliare strada, di ritenere applicabili alcune norme ma chiedendo ad uno strumento di fare un lavoro diverso. Se un soggetto mette un gelato in un forno a microonde credendo sia un frigorifero, non può lamentarsi o demonizzare quella tecnologia perché il suo gelato si è squagliato. Si ha paura di una cosa che non si conosce. E si corre il rischio anche di fare l’inverso ovvero di osannare una tecnologia pensando di aver capito tutto di essa ma in realtà non conoscendola affatto o non conoscendo il punto di equilibro tra legittimo utilizzo e rispetto delle regole.

Ma è una questione culturale e non non solo tecnica. Dopo poche ore dal provvedimento del Garante su Chat GPT abbiamo assistito sui social, da parte di molti, all’equiparazione del nostro Paese alla Cina, alla Corea del Nord, all’Iran e alla Russia (anch’esse hanno bloccato chat GPT) non comprendendo che le finalità del blocco sono diverse visto che in Italia lo scopo dell’inibizione temporanea (a mio avviso esagerando vista l’assenza di urgenza e di motivazione, come dirò più avanti) è la tutela dei diritti, mentre in quei paesi la loro stessa negazione.

Purtroppo è un momento in cui ci si divide anche sul rapporto innovazione e diritti, o è bianco o è nero, o stai da una parte o stai dall’altra: il grigio non esiste o comunque non interessa a nessuno. Non si guadagnano consensi se non ti schieri sui social a favore di una o dell’altra tesi. Il fatto che non si conosca di cosa si parla e si parli a vanvera è secondario. Un approccio più maturo ai problemi aiuterebbe.

D. Quali sono i problemi sollevati dall’Autorità Garante per la protezione dei dati personali e quali sono state le reazioni al provvedimento inibitorio del 30 marzo scorso ?

R. In relazione al trattamento dei dati (personali) effettuato dalla piattaforma CHAT GPT di OPENAI L.L.C. (società statunitense), l’Autorità Garante italiana per la protezione dei dati personali ha aperto un’istruttoria al fine di accertare l’eventuale violazione di alcune norme del Regolamento Europeo e nella data del data 30 marzo 2023 ha emanato un provvedimento inibitorio (pubblicato il giorno successivo) disponendo, in via d’urgenza,  la limitazione provvisoria del trattamento dei dati personali degli interessati stabiliti nel territorio italiano.

Da quanto si è potuto apprendere dalla lettura del provvedimento e da articoli di giornale, OpenAI ha raccolto i dati personali di miliardi di persone per addestrare i propri algoritmi senza informarli di questa circostanza e della sorte di questi dati. Chat GPT genera contenuti, in risposta alle domande, che alcune volte attribuiscono alle persone fatti e circostanze inesatte e non veritiere proponendo così una rappresentazione distorta della loro identità personale (quello che in gergo si chiama “allucinare”). Chat GPT consente l’accesso anche ai minori ma poiché mancano verifiche sull’età sarebbe in violazione delle norme sul GDPR (nulla dice in realtà che il servizio sia pensato per chi ha meno di tredici anni). Vedremo anche come si difenderà la società che già sembra aver segnalato che un’informativa era presente almeno dal 14 marzo 2023 (seppur in un link di termini e condizioni) e di avere un Responsabile della protezione dei dati (https://openai.com/policies/privacy-policy )

L’apertura di un’istruttoria da parte del Garante italiano è una cosa condivisibile, che rientra pienamente nei suoi poteri e, vista la sua funzione di accertamento e di acquisizione delle informazioni forse anche necessaria a  chiarire il funzionamento di Chat GPT e l’adempimento della normativa in materia di protezione dei dati oltre che a fornire la giusta comunicazione agli utenti circa gli accertamenti in corso e una lente di ingrandimento dell’Autorità su tanto dibattuto tema del trattamento dei dati con AI.

Ma il punto sul quale sono esplose le polemiche non è l’apertura di un’istruttoria bensì un provvedimento inibitorio e quindi coercitivo basato sull’applicazione dell’art. 58 comma 2 lett. F) del Regolamento che conferisce il potere di “imporre una limitazione provvisoria o definitiva al trattamento, incluso il divieto di trattamento”.

A mio avviso il problema è stato proprio l’uso di tale strumento non sufficientemente motivato e l’ assenza di una reale urgenza e gravità della situazione. Per lo più con un’istruttoria iniziata da pochissimo tempo. Lo strumento legislativo in realtà è stato predisposto dal Legislatore al fine di consentire all’Autorità di bloccare situazioni di illecito trattamento dei dati che determinano un danno grave e attuale ai diritti degli interessati soprattutto nei casi chiari ed evidenti dove l’inibizione fa cessare una visione, un trattamento illecito evidente e serio. Ad esempio la pubblicazione di foto e filmati relativi a Revenge porn, minori vittime di violenze pubblicati in rete o su quotidiani, intercettazioni, video, audio illecitamente pubblicati on line anche da quotidiani o social network. In questi casi è chiara la gravità e l’urgenza di bloccare un illecito trattamento dei dati e ciò consente di giustificare un provvedimento coercitivo, durante un’istruttoria appena iniziata, che comunque va a limitare il diritto di altri cittadini e utenti fruitori del servizio. Ma nell’ipotesi di Chat GPT non si ravvedono proprio la gravità e l’urgenza del provvedimento di inibizione.  Nel caso di Tik Tok, come di altri, il fenomeno era già molto ben conosciuto e frutto di istruttorie più articolate e non così brevi. In un Regolamento europeo che fa della cooperazione tra le Autorità mi sono meravigliato anche di come non ci sia stato un coordinamento anche con gli altri garanti europei e con l’EDPB su questa questione di Chat GPT. Un documento congiunto o l’apertura di istruttorie contemporaneamente anche in altri Paesi avrebbe aiutato. Chissà, magari ora accadrà che altre Autorità seguiranno il nostro Garante privacy.

D. Quale sarà il futuro di Chat GPT e dell’AI ?

R. L’accelerazione della ricerca sull’intelligenza Artificiale sta aumentando e stiamo faticando a gestirla. Le regole che le nostre società si sono date, e che finora hanno funzionato abbastanza bene forse non sono più adatte a quello che sta per arrivare senza preavviso. Pensavamo di poter tastare il polso della situazione e di monitorare il problema. Siamo stati lenti. Lavoro, democrazia, sicurezza, produzione di ricchezza, interazione tra persone, tra aziende e istituzioni, intrattenimento, ricerca, sono tutti ambiti che stanno per essere rivoluzionati da tecnologie basate su tecniche di machine learning (quando anche di deep learning). I cambiamenti stanno avvenendo così rapidamente che se le governiamo con le regole vecchie dell’altro ieri, non saremo in grado di gestirli, né di prevederli.

Serve avere subito sistemi sicuri, trasparenti, governabili. L’entrata in vigore del Regolamento su AI è già troppo lontana, sarà già vecchio e in parte giuridicamente obsoleto quanto entrerà in vigore, esattamente come è oggi, a cinque anni il Regolamento europeo rispetto ai temi del trattamento dei dati con procedimenti automatizzati (art. 22). Si dovrebbero adottare sin da ora principi di security by design e di ethics by design per qualsiasi sistema AI si voglia mettere in produzione, grande o piccolo che sia.  Sono gli organismi mondiali ed europei ad avere il potere di decidere subito e con velocità con quali nuovi strumenti affrontare l’innovazione. Oggi, non domani. Il rischio è che il deficit di conoscenza ci spinge ad agire con strumenti vecchi e ripetere gli stessi vecchi errori di sempre.