Aller au contenu

Les fausses voix déclenchent des réactions cérébrales

La tromperie de la réalité induite par l'IA

Le cerveau tente de corriger les voix générées par l'ordinateur. Cependant, cela se produit en...
Le cerveau tente de corriger les voix générées par l'ordinateur. Cependant, cela se produit en dessous du seuil de perception.

Les fausses voix déclenchent des réactions cérébrales

Voix artificielles fabriquées grâce à la technologie deepfake ont causé une vraie agitation, particulièrement en matière de tentatives de escroquerie par téléphone. Ces voix synthétisées par l'IA trompent les victimes en les faisant croire qu'elles parlent à une personne réelle, et les dernières recherches révèlent des découvertes surprenantes concernant la réaction du cerveau à elles.

Or du fool's gold ? Il peut être difficile de distinguer une voix humaine réelle de celle qui a été synthétisée par l'IA, bien que cela soit inconscient. Selon une équipe de recherche dans la revue "Communications Biology", la voix synthétisée par les algorithmes de synthèse de parole est maintenant assez sophistiquée pour faire ressembler les marqueurs d'identité des voix clones artificielles à ceux des locuteurs réels. Ces voix fausses, créées par la technologie deepfake, peuvent potentiellement être utilisées dans des escroqueries par téléphone ou pour dissimuler des assistants vocaux comme des célébrités préférées.

Claudia Roswandowitz et ses collaborateurs de l'Université de Zurich ont évalué comment bien la personnalité humaine est conservée dans les voix clones en enregistrant les voix de quatre hommes allemands en 2020 et en créant des voix Deepfake pour chaque locuteur à l'aide de algorithms informatiques.

Voix Deepfake sont des déceptions presque parfaites

Ils ont ensuite évalué la crédibilité de l'imitation en demandant à 25 participants de déterminer si les identités de deux voix présentées étaient identiques ou non. Dans environ deux tiers des essais, les voix Deepfake ont été correctement attribuées au locuteur respectif, indiquant que les voix Deepfake actuelles ne sont pas des déceptions parfaites mais qu'elles ont le potentiel de tromper les gens.

La équipe a utilisé la tomographie magnétique fonctionnelle (fMRT) pour examiner comment des régions individuelles du cerveau réagissent à des voix falsifiées et réelles. Ils ont découvert des différences dans deux régions clés - le Noyau Accumbens et le cortex auditoire. Les deux régions, explique Roswandowitz, jouent un rôle crucial dans le cas où une personne reconnaît une voix Deepfake comme une contrefaçon ou non.

"Le Noyau Accumbens est un élément essentiel du système récompense dans le cerveau," a clarifié Roswandowitz. Il était moins actif lorsqu'une voix Deepfake et une voix naturelle étaient comparées qu'avec deux voix réelles. D'autres mots, écouter une voix falsifiée active le système récompense moins.

Le cerveau tente de s'adapter

Il y a également eu une distinction dans l'analyse du cortex auditoire, responsable d'analyser les sons. La zone était plus engagée lorsqu'il s'agissait de reconnaître l'identité de voix Deepfake. "Nous supposons que cette zone réagit aux imitations d'acoustique Deepfake encore pas parfaites et tente de compenser pour le signal sonore manquant", a déclaré Roswandowitz.

Le cortex a compensé cet écart secrètement. "Quelque chose signale à la conscience que quelque chose est différent et plus difficile, mais cela reste généralement sous le seuil de perception".

Les technologies AI continuent de se développer

La équipe a également enquêté sur la capacité du cerveau à reconnaître des vidéos Deepfake. Ils ont constaté que le cerveau réagit différemment aux vidéos Deepfake que aux vidéos réelles, particulièrement dans le cortex visuel et le système limbique. La équipe suppose que le cerveau tente de compenser les inconsistences dans les vidéos Deepfake, mais cette compensation n'est pas encore parfaite. Ils supposent que la capacité du cerveau à reconnaître les médias Deepfake continuerait à améliorer avec l'avancement des technologies AI.

Selon les chercheurs de l'étude, les Deepfakes actuels, créés quatre ans auparavant, auraient-ils entièrement trompé les auditeurs ? Ou les résultats auraient-ils été similaires ? "C'est une question intéressante", dit Roswandowitz. Les voix Deepfake actuelles ont probablement une qualité sonore un peu meilleure, ce qui pourrait entraîner des différences d'activité plus faibles dans le cortex auditoire lorsque l'étude a été effectuée. Cependant, elle attend des résultats similaires dans le Noyau Accumbens. "C' serait très intéressant d'enquêter expérimentalement cela".

Lire aussi:

commentaires

Dernier

Sur cette photo illustrative prise le 15 septembre 2017, l'icône de l'application Telegram est...

Telegram sert de plateforme pour les opérations commerciales clandestines des syndicats criminels à travers l'Asie du Sud-Est, selon l'affirmation de l'ONU.

Les syndicats du crime organisé en Asie du Sud-Est utilisent étroitement l'application de messagerie Telegram, ce qui a entraîné un glissement important dans la manière dont ils opèrent dans des activités illicites à grande échelle, selon un communiqué émis par les Nations unies le...

Membres Publique
Rodrigo Duterte, le président des Philippines, prononce un discours lors d'une réunion organisée à...

L'ancien président philippin Duterte a l'intention de se présenter à la présidence de la ville, en ignorant son passé controversé de campagne contre la drogue.

Dans un coup de théâtre inattendu, l'ancien président philippin Rodrigo Duterte a annoncé son intention de briguer le poste de maire dans le district sud de sa ville natale, malgré l'enquête en cours de la Cour pénale internationale concernant sa célèbre campagne contre la drogue, que certains...

Membres Publique