De nombreuses personnes pourraient tomber victimes de trompeuses imitations de voix générées par l'IA perpétrées par cette institution financière.
Fournisseur de services bancaires numériques Starling Bank met en garde contre la menace croissante des arnaques par clonage vocal pilotées par l'IA. Les fraudeurs peuvent créer des répliques convaincantes de la voix en utilisant seulement trois secondes d'audio, souvent obtenues à partir de vidéos publiques. Ces voix générées par l'IA peuvent ensuite être utilisées pour imiter la personne et contacter ses amis ou sa famille, en demandant de l'argent sous prétexte d'une urgence.
Starling Bank estime que ces arnaques pourraient piéger des millions d'individus non avertis. Selon une enquête menée avec Mortar Research auprès de plus de 3 000 adultes, plus d'un quart ont déjà été victimes de telles arnaques par clonage vocal de l'IA au cours de l'année dernière.
L'enquête a également révélé que 46 % des répondants ignoraient l'existence de telles arnaques, et, de manière préoccupante, 8 % enverraient la totalité de la somme demandée par unsupposé ami ou membre de la famille, même si l'appel semblait suspect.
Lisa Grahame, directrice de la sécurité de l'information de Starling Bank, a mis en évidence ce problème dans un communiqué de presse, déclarant : "Les gens partagent souvent du contenu en ligne avec des enregistrements vocaux, se rendant ainsi plus vulnérables aux fraudeurs sans le savoir."
Starling Bank recommande d'établir une "phrase sécurisée" avec ses proches - une phrase simple, facile à retenir et distincte des autres mots de passe qui peut servir d'outil de vérification lors d'appels téléphoniques. Cependant, cette phrase sécurisée ne doit pas être partagée par message texte, car cela pourrait faciliter l'interception par les escrocs. Si elle est partagée par message texte, le message doit être supprimé une fois que le destinataire l'a vu.
À mesure que l'imitation vocale de l'IA devient plus sophistiquée, les préoccupations augmentent quant au préjudice potentiel qu'elle pourrait causer, comme l'aide aux criminels pour accéder à des comptes bancaires et propager de fausses informations.
Plus tôt cette année, OpenAI, le créateur du chatbot génératif ChatGPT, a développé un outil de reproduction de la voix, Voice Engine. Malgré son potentiel de mauvaise utilisation, OpenAI a choisi de ne pas le rendre disponible au public à l'époque, invoquant le "risque d'une mauvaise utilisation de la voix synthétique".
Les avancées technologiques, comme Voice Engine d'OpenAI, ont suscité des préoccupations dans le monde des affaires quant à l'augmentation de la sophistication de l'imitation vocale de l'IA. Starling Bank, prenant conscience de cela, recommande à ses clients d'utiliser une pratique commerciale sécurisée consistant à établir des phrases uniques avec leurs proches pour vérifier l'identité lors d'appels téléphoniques.