Salta al contenuto

Le voci finte scatenano le risposte del cervello

Inganno della realtà indotto dall'intelligenza artificiale

Il cervello cerca di correggere le voci generate dal computer. Tuttavia, ciò avviene al di sotto...
Il cervello cerca di correggere le voci generate dal computer. Tuttavia, ciò avviene al di sotto della soglia di percezione.

Le voci finte scatenano le risposte del cervello

Artificial voice cloni, creati con tecnologia deepfake, stanno causando un notevole turbamento, soprattutto per tentativi di truffa telefonica. Questi cloni vocali generati dall'AI ingannano le vittime facendogli credere di parlare con una persona reale, e le ultime ricerche rivelano alcuni sorprendenti risultati su come il cervello reagisce a loro.

Oro ingannoso? Distinguere tra una voce umana reale e una sintetizzata dall'AI può essere difficile. Sebbene possa essere inconscio, il cervello reagisce diversamente a voci deepfake rispetto a quelle naturali, come riportato da un team di ricerca nel Journal "Communications Biology". Ascoltare una voce falsa sembra produrre meno piacere, appare.

Algoritmi di sintesi vocale sono ormai abbastanza sofisticati per far sì che i segnali d'identificazione dei cloni vocali artificiali siano quasi simili a quelli di parlanti autentici. Questi falsi cloni, creati con tecnologia deepfake, potrebbero essere utilizzati per truffare telefonicamente o per mascherare assistenti vocali come celebrità preferite.

Un team guidato da Claudia Roswandowitz dell'Università di Zurigo ha valutato in quante misura l'identità umana è preservata nei cloni vocali attraverso il registrazione di quattro voci maschili tedeschi nel 2020 e la creazione di voci Deepfake per ciascun parlante utilizzando algoritmi informatici.

Voci Deepfake sono quasi perfette inganni

Poi hanno testato la convincentezza dell'imitazione chiedendo a 25 partecipanti se le identità di due voci presentate erano identiche o no. In circa due terzi dei tentativi, le voci Deepfake sono state corretamente assegnate al rispettivo parlante, indicando che le voci Deepfake attuali non sono ancora perfette inganni, ma hanno il potenziale di ingannare le persone.

La squadra ha utilizzato la tomografia magnetica funzionale (fMRT) per esaminare come le aree individuali del cervello reagiscono a voci false e reali. Hanno scoperto differenze in due aree chiave - il Nucleus Accumbens e il cortex acustico. Entrambe le regioni, come la squadra spiega, giocano un ruolo cruciale in determinare se una persona riconosca una voce Deepfake come una falsificazione o meno.

"Il Nucleus Accumbens è un elemento essenziale del sistema di ricompensa nel cervello," ha chiarito Roswandowitz. Fu meno attivo quando si confrontarono una voce Deepfake e una voce naturale rispetto a quando si confrontarono due voci reali. In altre parole, ascoltare una voce falsa attiva meno il sistema di ricompensa.

Il cervello tenta di adattarsi

C'è stato anche un distinto in analisi dell'auditory cortex, responsabile per l'analisi dei suoni. L'area è stata più impegnata quando era venuto a mano di riconoscere l'identità di voci Deepfake. "Supponiamo che questa area reagisca alla stillicidio non perfetto di imitazione acustica di voci Deepfake e tenti di compensare per il segnale acustico mancante," ha detto Roswandowitz.

La cortex ha compensato per questa discrepanza in modo segreto. "Qualcosa segnala alla coscienza che qualcosa è differente e più difficile, ma questo spesso rimane al di sotto del limite di percezione."

Le tecnologie AI continuano a svilupparsi

La squadra ha anche indagato in che misura il cervello possa riconoscere video Deepfake. Hanno scoperto che il cervello reagisce diversamente a video Deepfake rispetto a video reali, soprattutto nel cortex visivo e nel sistema limbico. La squadra suppone che il cervello tenga presente di compensare le inconsistenze nei video Deepfake, ma questa compensazione non è ancora perfetta. La squadra presume che la capacità del cervello di riconoscere media Deepfake aumenterà insieme all'avanzamento delle tecnologie AI.

Con la crescente velocità dello sviluppo delle tecnologie Artificial Intelligence, la creazione e la distribuzione di Deepfakes sono diventate sempre più diffuse, secondo i ricercatori della ricerca. Le Deepfakes attuali, create quattro anni fa, potrebbero del tutto ingannare i listener? O i risultati sarebbero simili? "Questa è una domanda interessante," dice Roswandowitz. Le nuove voci AI probabilmente hanno una qualità sonora leggermente migliore, che potrebbe portare a differenze di attività minori nell'auditory cortex quando la ricerca è stata condotta. Tuttavia, lei aspettava risultati simili nel Nucleus Accumbens. "Sarebbe molto interessante sperimentare questo."

Leggi anche:

Commenti

Più recente

In questa foto illustrativa scattata il 15 settembre 2017, il simbolo dell'app Telegram appears on...

Telegram serve come piattaforma per operazioni commerciali clandestine per le organizzazioni criminali in tutto il Sud-Est asiatico, secondo l'affermazione dell'ONU.

I sindacati criminali del SudEst Asiatico utilizzano in modo significativo l'applicazione di messaggistica Telegram, ciò ha determinato un significativo cambiamento in come gestiscono operazioni illecite su larga scala, come si legge in una nota delle Nazioni Unite del lunedì.

Iscritti Pubblico