
Per fare fronte alle preoccupazioni degli utenti riguardo l’uso che i modelli linguistici fanno dei loro dati personali, Meta sta aggiungendo nuove opzioni di controllo che permetteranno loro di scegliere di non includere le proprie informazioni nell’addestramento della sua intelligenza artificiale. Attraverso la compilazione di un modulo, infatti, a partire da ora sarà possibile “segnalare problemi o inviare opposizioni" riguardo il trattamento di dati “in possesso di terzi” utilizzati per la formazione “dei modelli di AI generativa”. Questo significa che, se temete che le vostre informazioni possano essere in pericolo, ora avete finalmente una soluzione per metterle al sicuro.
Il logo di Meta (Foto: ARTUR WIDAK/GETTY IMAGES) Fonte: Wired
In ogni caso, nel tentativo di arginare le preoccupazioni dei suoi utenti, Meta ha aggiunto nel suo Centro sulla privacy una panoramica alquanto dettagliata delle modalità con cui vengono addestrati i modelli di intelligenza artificiale generativa e del ruolo che i metadati possono svolgere in tale processo. In modo puntuale e preciso, la società rivela di utilizzare “una combinazione di fonti”, incluse “informazioni disponibili pubblicamente online e informazioni autorizzate, nonché informazioni relative ai prodotti e servizi Meta”, per addestrare i suoi modelli linguistici di grandi dimensioni. Informazioni sensibili, che la società mette al sicuro grazie a “un solido processo interno di revisione della privacy”.
Ma se le rassicurazioni di Meta non dovessero bastare per convincere gli utenti a dare i propri dati “in pasto” all’intelligenza artificiale, ora c’è finalmente la possibilità di evitare che questo accada. Un aggiornamento importante per la compagnia, in linea con le regole europee prevista dal Digital services Act (Dsa), che impongono di fornire agli utenti un maggiore controllo sui dati personali e sul modo in cui questi vengono utilizzati dalle piattaforme online.
Fonte: Wired