zum Inhalt

Gefälschte Stimmen lösen Gehirnreaktionen aus

AI-induzierte Täuschung der Realität

Das Gehirn versucht, computergenerierte Stimmen zu korrigieren. Dies geschieht jedoch unterhalb der...
Das Gehirn versucht, computergenerierte Stimmen zu korrigieren. Dies geschieht jedoch unterhalb der Wahrnehmungsschwelle.

Gefälschte Stimmen lösen Gehirnreaktionen aus

Künstliche Stimmenklone, erstellt mittels Deepfake-Technologie, haben in jüngster Vergangenheit eine große Aufmerksamkeit erregt, insbesondere bei Betrugversuchen über den Telefon. Diese künstlich erzeugten Stimmen täuschen Opfer darin aus, echten Menschen zu sein, und die neuesten Forschungsergebnisse offenbaren überraschende Befunde über die Reaktion unseres Gehirns auf sie.

Falsches Gold? Es kann schwierig sein, zwischen einem echten menschlichen Ton und einem von AI erzeugten Ton unterscheiden. Obwohl es bewusstlos geschieht, reagiert das Gehirn unterschiedlich auf Deepfake-Stimmen im Vergleich zu natürlichen Stimmen, wie von einer Forschergruppe im Fachzeitschrift "Communications Biology" berichtet. Anhören eines gefälschten Tons scheint weniger Vergnügen auszulösen.

Stimmen-Synthesealgorithmen sind nun ausreichend sophisticiert, um die Identitätsmerkmale künstlicher Stimmenklone nahezu den echten Sprechern ähnlich zu machen. Diese gefälschten Stimmen, hergestellt mit Deepfake-Technologie, könnten potenziell in Betrugsversuchen über den Telefon oder zur Tarnung von Voice Assistants als bevorzugte Prominenten verwendet werden.

Führt eine Forschergruppe unter der Leitung von Claudia Roswandowitz an der Universität Zürich eine Untersuchung durch, wie gut die menschliche Identität in Stimmenklone übertragen wird. Sie nahmen 2020 die Stimmen von vier deutschen Sprechern auf und schufen Deepfake-Stimmen für jeden Sprecher mithilfe von Computeralgorithmen.

Deepfake-Stimmen sind fast perfekte Täuschungen

Sie testeten dann die Überzeugungskraft der Imitation, indem sie 25 Teilnehmer fragten, ob die Identitäten von zwei vorgestellten Stimmen identisch sind oder nicht. In etwa zwei Dritteln der Versuche wurden die Deepfake-Stimmen richtig den jeweiligen Sprecher zugewiesen, was bedeutet, dass aktuelle Deepfake-Stimmen noch nicht perfekte Täuschungen sind, aber sie sicherlich Menschen täuschen können.

Die Forscher nutzten funktionelle magnetresonanztomographische Aufnahmen (fMRT), um zu untersuchen, wie individuelle Gehirnbereiche auf gefälschte und echte Stimmen reagieren. Sie fanden Unterschiede in zwei wesentlichen Bereichen - dem Nucleus Accumbens und dem hörneren Cortex. Beide Regionen, wie die Forscher erklären, spielen eine entscheidende Rolle darin, ob eine Person einen Deepfake-Ton als Fälschung erkennt oder nicht.

"Der Nucleus Accumbens ist ein wesentliches Element des Belohnungssystems im Gehirn," erklärte Roswandowitz. Es war weniger aktiv, wenn man einen Deepfake-Ton und einen natürlichen Ton verglich als wenn man zwei echte Stimmen verglich. In anderen Worten: Das Hören eines gefälschten Tons aktiviert das Belohnungssystem weniger.

Das Gehirn versucht sich anzupassen

Es gab auch Unterschiede in der Analyse des hörneren Cortex, der für die Analyse von Geräuschen zuständig ist. Der Bereich war aktiver, wenn es um die Identität von Deepfake-Stimmen ging. "Wir vermuten, dass diese Area auf die noch nicht vollkommen perfekte akustische Imitation von Deepfake-Stimmen reagiert und versucht, den fehlenden akustischen Signal auszugleichen," sagte Roswandowitz.

Der Cortex kompensierte diesen Defizit geheim. "Etwas signalisiert dem Bewusstsein, dass etwas anders und anspruchsvoller ist, aber das meistens bleibt unter dem Wahrnehmungsschwellenpunkt."

AI-Technologien fortschreiten

Die Forscher untersuchten auch, wie gut das Gehirn Deepfake-Videos erkennen kann. Sie fanden, dass das Gehirn unterschiedlich auf Deepfake-Videos reagiert als auf echte Videos, insbesondere im visuellen Cortex und im limbischen System. Das Team vermutet, dass das Gehirn versucht, die Ungleichheiten in den Deepfake-Videos auszugleichen, aber diese Kompensation noch nicht perfekt ist. Sie vermuten, dass die Fähigkeit des Gehirns, Deepfake-Medien zu erkennen, auch mit fortschreitenden AI-Technologien weiterentwickeln wird.

Mit dem rasanten Wachstum künstlicher Intelligenz-Technologien sind die Schaffung und Verbreitung von Deepfakes in jüngster Vergangenheit zunehmend verbreitet, wie es Forscher in der Studie berichten. Hätten die Deepfakes aus vier Jahren zurück, die heute erstellt wurden, die Gescheitheiten tatsächlich vollständig getäuscht? Oder hätten die Ergebnisse ähnlich gewesen? "Das ist eine faszinierende Frage," sagt Roswandowitz. Neue AI-generierte Stimmen könnten leicht bessere Tonqualität aufweisen, was zu kleineren Aktivitätsunterschieden im hörneren Cortex führen könnte, wenn die Studie durchgeführt wurde. Sie erwartet jedoch ähnliche Ergebnisse im Nucleus Accumbens. "Es wäre sehr interessant, dies experimentell zu überprüfen."

Lesen Sie auch:

Kommentare

Aktuelles