Google può creare un’AI che pensa come te dopo solo due ore che ti conosce

I ricercatori dell’Università di Standord e quelli di Google Deepmind sono convinti di poter sviluppare un’intelligenza artificiale in grado di replicare il comportamento di una persona con un’accuratezza pari all’85%, dopo averla ascoltata raccontare la storia della sua vita. A dimostrarlo è lo studio Generative Agent Simulations of 1000 People, che spiega che lo sviluppo di modelli AI basati su persone reali possa aiutare i politici e gli imprenditori a comprendere meglio il pubblico, senza la necessità di dover ricorrere a sondaggi o simili, ma semplicemente interrogando i bot - “Questo lavoro fornisce le basi per nuovi strumenti che possono aiutare a studiare il comportamento individuale e collettivo”, si legge nell’abstract del documento -.

Eugene Mymrin; Getty Images - Fonte: Wired

Per riuscire a mettere a punto un modello simile, sono state coinvolte 1052 persone che, dopo aver creato un avatar 2D, sono state intervistate da un’intelligenza artificiale che ha cercato di conoscerle il più possibile. Quello che risulta divertente è che ogni intervista, durata circa due ore, è cominciata con la lettura delle prime due righe de Il Grande Gatsby, così da poterne calibrare l’audio. Una volta superata questa prima fase, i partecipanti si sono trovati a rispondere a domande su razza, sesso, politica, reddito, uso dei social media, stress sul lavoro e composizione della famiglia. Insomma, tutte le informazioni di cui i ricercatori hanno avuto bisogno per chiedere a un modello linguistico di grandi dimensioni di sviluppare un’intelligenza artificiale simile agli intervistati.

Poi, una volta che i modelli erano pronti, i ricercatori li hanno messi a confronto con le persone intervistate, così da portare alla luce i dati più interessanti di questo studio: come anticipato, l’AI ha risposto alle domande che le sono state fatte con una percentuale di accuratezza pari all’85%, ma non è stata in grado di partecipare ad altre attività come quiz a risposta multipla e giochi a premi. Insomma, i ricercatori dell’Università di Standford hanno dimostrato che, sì, i grandi modelli linguistici possono sostituire i gruppi di ricerca per sondaggi e simili, ma che questi non possono certo agire in toto come un essere umano, soprattutto solo averlo conosciuto solo per due ore.

Fonte: Wired

  • Condividi:

Altri articoli di Redazione TheLiquidJournal

Un clone di Minecraft sta infettando milioni di dispositivi Android

Oltre 30 milioni di utenti hanno scaricato da Google Play un app clone del gioco che contiene un adware malevolo

Il futuro dell’Italia in Europa, la parola al premier Conte.

Fiducia e prospettive di recupero, Europa coesa. Mantenere alta l’ambizione.

Twitter è pronta a condividere i dati degli utenti con Elon Musk, ma basterà?

Pesa la minaccia dell’ad di Tesla di abbandonare l’accordo da 44 miliardi in mancanza di informazioni rilevanti in tempo utile. Tuttavia, potrebbe non essere abbastanza per chiarire la questione

Must Read

Ultimi articoli di Innovazione

Intellimech in partnership con l’Istituto Italiano di Tecnologia(IiT) e l’Università di Bergamo

Nascerà un nuovo laboratorio congiunto sull’Intelligenza Artificiale e la robotica.

La startup Legendary Vish metterà in commercio filetti di salmone vegani stampati in 3D

Legendary Vish la startup di frutti di mare a base vegetale, metterà in commercio filetti di salmone stampati in 3D e a base vegetale per fornire un’alternativa più sana ai sostituti del pesce

LOVO : la piattaforma di voiceover per tutti i creatori di contenuti

Lovo è una piattaforma di voiceover e clonazione AI, nata dopo aver iniziato ad analizzare le emozioni delle voci