Numerosos individuos podrían caer presa de engañosos AI-generado voz imitación de estafa perpetrada por esta institución financiera.
Servicio bancario digital Starling Bank advierte sobre el creciente peligro de estafas de clonación de voz impulsadas por IA. Los estafadores pueden crear réplicas de voz convincentes utilizando solo tres segundos de audio, a menudo obtenidos de videos públicos. Estas voces generadas por IA luego pueden usarse para imitar a la persona y contactar a sus amigos o familiares, solicitando dinero bajo el pretexto de una emergencia.
Starling Bank estima que estas estafas podrían engañar a millones de personas desprevenidas. Según una encuesta realizada con Mortar Research que involucró a más de 3.000 adultos, más de un cuarto ya ha caído víctima de tales estafas de clonación de voz de IA en el último año.
La encuesta también reveló que el 46% de los encuestados no tenía conocimiento de la existencia de tales estafas, y un preocupante 8% enviaría la cantidad completa solicitada por un supuesto amigo o familiar, incluso si la llamada parecía sospechosa.
Lisa Grahame, jefa de seguridad de la información de Starling Bank, destacó el problema en un comunicado de prensa, stating, "La gente a menudo comparte contenido en línea con grabaciones de voz, sin saber que así se hace más vulnerable a los estafadores".
Starling Bank aconseja establecer una "frase segura" con los seres queridos - una frase simple, fácil de recordar y distinta de otras contraseñas que puede servir como herramienta de verificación en llamadas telefónicas. Sin embargo, esta frase segura no debe compartirse por mensaje de texto, ya que esto podría facilitar que los estafadores lo intercepten. Si se comparte por mensaje de texto, el mensaje debe eliminarse una vez que el destinatario lo haya visto.
A medida que la imitación de voz de IA se vuelve más sofisticada, crecen las preocupaciones sobre el posible daño que podría causar, como ayudar a los delincuentes a acceder a cuentas bancarias y propagar información errónea.
A principios de este año, OpenAI, creador del popular chatbot generativo ChatGPT, desarrolló una herramienta de réplica de voz, Voice Engine. A pesar de su potencial para mal uso, OpenAI decidió no poner la herramienta a disposición del público en ese momento, citando el "riesgo de mal uso de voces sintéticas".
Los avances tecnológicos, como el Voice Engine de OpenAI, han suscitado preocupaciones en el mundo empresarial sobre el aumento de la sofisticación de la imitación de voz de IA. Starling Bank, reconociendo esto, aconseja a sus clientes que utilicen una práctica empresarial segura de establecer frases únicas con los seres queridos para verificar la identidad durante las llamadas telefónicas.