Le voci finte scatenano le risposte del cervello
Artificial voice cloni, creati con tecnologia deepfake, stanno causando un notevole turbamento, soprattutto per tentativi di truffa telefonica. Questi cloni vocali generati dall'AI ingannano le vittime facendogli credere di parlare con una persona reale, e le ultime ricerche rivelano alcuni sorprendenti risultati su come il cervello reagisce a loro.
Oro ingannoso? Distinguere tra una voce umana reale e una sintetizzata dall'AI può essere difficile. Sebbene possa essere inconscio, il cervello reagisce diversamente a voci deepfake rispetto a quelle naturali, come riportato da un team di ricerca nel Journal "Communications Biology". Ascoltare una voce falsa sembra produrre meno piacere, appare.
Algoritmi di sintesi vocale sono ormai abbastanza sofisticati per far sì che i segnali d'identificazione dei cloni vocali artificiali siano quasi simili a quelli di parlanti autentici. Questi falsi cloni, creati con tecnologia deepfake, potrebbero essere utilizzati per truffare telefonicamente o per mascherare assistenti vocali come celebrità preferite.
Un team guidato da Claudia Roswandowitz dell'Università di Zurigo ha valutato in quante misura l'identità umana è preservata nei cloni vocali attraverso il registrazione di quattro voci maschili tedeschi nel 2020 e la creazione di voci Deepfake per ciascun parlante utilizzando algoritmi informatici.
Voci Deepfake sono quasi perfette inganni
Poi hanno testato la convincentezza dell'imitazione chiedendo a 25 partecipanti se le identità di due voci presentate erano identiche o no. In circa due terzi dei tentativi, le voci Deepfake sono state corretamente assegnate al rispettivo parlante, indicando che le voci Deepfake attuali non sono ancora perfette inganni, ma hanno il potenziale di ingannare le persone.
La squadra ha utilizzato la tomografia magnetica funzionale (fMRT) per esaminare come le aree individuali del cervello reagiscono a voci false e reali. Hanno scoperto differenze in due aree chiave - il Nucleus Accumbens e il cortex acustico. Entrambe le regioni, come la squadra spiega, giocano un ruolo cruciale in determinare se una persona riconosca una voce Deepfake come una falsificazione o meno.
"Il Nucleus Accumbens è un elemento essenziale del sistema di ricompensa nel cervello," ha chiarito Roswandowitz. Fu meno attivo quando si confrontarono una voce Deepfake e una voce naturale rispetto a quando si confrontarono due voci reali. In altre parole, ascoltare una voce falsa attiva meno il sistema di ricompensa.
Il cervello tenta di adattarsi
C'è stato anche un distinto in analisi dell'auditory cortex, responsabile per l'analisi dei suoni. L'area è stata più impegnata quando era venuto a mano di riconoscere l'identità di voci Deepfake. "Supponiamo che questa area reagisca alla stillicidio non perfetto di imitazione acustica di voci Deepfake e tenti di compensare per il segnale acustico mancante," ha detto Roswandowitz.
La cortex ha compensato per questa discrepanza in modo segreto. "Qualcosa segnala alla coscienza che qualcosa è differente e più difficile, ma questo spesso rimane al di sotto del limite di percezione."
Le tecnologie AI continuano a svilupparsi
La squadra ha anche indagato in che misura il cervello possa riconoscere video Deepfake. Hanno scoperto che il cervello reagisce diversamente a video Deepfake rispetto a video reali, soprattutto nel cortex visivo e nel sistema limbico. La squadra suppone che il cervello tenga presente di compensare le inconsistenze nei video Deepfake, ma questa compensazione non è ancora perfetta. La squadra presume che la capacità del cervello di riconoscere media Deepfake aumenterà insieme all'avanzamento delle tecnologie AI.
Con la crescente velocità dello sviluppo delle tecnologie Artificial Intelligence, la creazione e la distribuzione di Deepfakes sono diventate sempre più diffuse, secondo i ricercatori della ricerca. Le Deepfakes attuali, create quattro anni fa, potrebbero del tutto ingannare i listener? O i risultati sarebbero simili? "Questa è una domanda interessante," dice Roswandowitz. Le nuove voci AI probabilmente hanno una qualità sonora leggermente migliore, che potrebbe portare a differenze di attività minori nell'auditory cortex quando la ricerca è stata condotta. Tuttavia, lei aspettava risultati simili nel Nucleus Accumbens. "Sarebbe molto interessante sperimentare questo."