
A dieci mesi dal primo stop, che ha fatto il giro del mondo, il Garante della privacy italiano contesta a OpenAI, lo sviluppatore di ChatGPT, la violazione delle regole europee in materia di protezione dei dati personali. La denuncia arriva a valle dell’indagine condotta dall’autorità dopo che alla fine di marzo 2023 aveva imposto una limitazione temporanea dell’uso dei dati, perché in contrasto con le previsioni del Gdpr, il regolamento europeo in materia. “È la prosecuzione naturale di quell’azione”, commenta a Wired Guido Scorza, componente del collegio dl Garante.
La home page di ChatGPT LEON NEAL/GETTY IMAGE - Fonte: Wired
Da allora il Garante ha chiesto a OpenAI di conformarsi a una serie di regole per adeguarsi al contesto legislativo del vecchio continente. E in parallelo ha avviato un’istruttoria, per verificare se la società di Sam Altman avesse compiuto altri illeciti rispetto a quanto stabilito dal Gdpr. Una ipotesi che, stando alle conclusioni dell’autorità di piazza Venezia, si è verificata. Al punto da spedire al quartier generale di OpenAI un “atto di contestazione per aver violato la normativa in materia di protezione dei dati personali”, fa sapere il Garante in una nota. A questo punto OpenAI ha 30 giorni per fornire le proprie contro-deduzioni e difendersi dalle accuse.
Il momento è molto delicato, perché in queste settimane Consiglio e Parlamento europeo devono votare l’AI Act, il pacchetto di regole comunitarie sull’intelligenza artificiale. E che mette nel mirino proprio il modello linguistico di grandi dimensioni (large language model, Llm) utilizzato per addestrare ChatGPT, imponendo paletti più stringenti per le intelligenze artificiali di uso generale che possono avere un grande impatto sulla popolazione. Proprio come il chatbot di OpenAI. Proprio per questo l’autorità italiana ha fatto sapere che si muoverà nell’ambito della task force sull’intelligenza artificiale che il Consiglio dei garanti europei ha istituito l’anno scorso per evitare fughe in avanti e approcci in ordine sparso nella regolamentazione di questi strumenti.
Che cosa contesta il garante
La denuncia dell’autorità si muove nell’alveo delle contestazioni del 2023. E quindi base giuridica del trattamento dei dati personali; questione “allucinazioni”, ossia le risposte inesatte prodotte dal chatbot che possono condurre a una gestione impropria delle informazioni; trasparenza e questione minori. La missiva è stata spedita in Irlanda, dove ha sede il legale rappresentante di OpenAI.
Se il provvedimento d’urgenza si è chiuso quando la società ha adottato le contromisure necessarie (compresa la breve campagna di informazione andata in onda con 2-3 passaggi sui canali Rai e qualche inserzione sui giornali prima dell’estate), non si è invece interrotta l’analisi degli uffici del Garante, che ora ha chiuso il suo esame e chiesto all’azienda di difendersi dalle contestazioni.
Il primo round
L’anno scorso l’azione del Garante italiano della privacy fece scalpore. ChatGPT aveva iniziato da pochi mesi a diventare l’argomento per eccellenza di conversazione, quando da piazza Venezia era scattato il blocco temporaneo. Azione a cui OpenAI aveva risposto sospendendo il servizio del suo potente chatbot in Italia. Dopo circa un mese, la situazione si era appianata.
OpenAI aveva risposto alle contestazioni introducendo una sorta di versione in “incognito” per gli utenti, che consente di “disattivare la cronologia delle chat su ChatGPT”. Poi si erano aggiunti gli abbonamenti business e semplificazioni per le modalità di esportazione dei propri dati. L’azienda non aveva fatto esplicito riferimento alla mossa del Garante italiano, ma i tempi e il domino di fascicoli di inchiesta aperti da altre autorità, dal Canada alla Spagna, facevano propendere per una mossa studiata per evitare il muro contro muro. Poi il 28 aprile era ripartito il servizio. OpenAI, d’altronde, rischiava una multa che poteva arrivare fino a 20 milioni di euro o fino al 4% del fatturato globale annuo. Bazzecole, rispetto ai 29 miliardi di valutazione raggiunti dopo l’ultima iniezione di capitale da parte di Microsoft. Wired ha richiesto un commento a OpenAI in merito, che ha fatto sapere in una nota: “Crediamo che le nostre pratiche siano allineate con il Gdpr e altre leggi sulla privacy e adottiamo ulteriori misure per proteggere i dati e la privacy delle persone. Vogliamo che la nostra AI impari a conoscere il mondo, non gli individui privati. Lavoriamo attivamente per ridurre i dati personali nella formazione dei nostri sistemi come ChatGPT, che rifiuta anche le richieste di informazioni private o sensibili sulle persone. Abbiamo in programma di continuare a lavorare in modo costruttivo con il garante”.
[Articolo aggiornato alle ore 23.50 del 29 gennaio 2024 con la posizione di OpenAI]
Fonte: Wired