Numerosos indivíduos podem cair em vítimas de enganos de imitação de voz gerados pela IA perpetrados por esta instituição financeira.
Fornecedora de serviços bancários digitais Starling Bank alerta para a ameaça crescente de golpes de clonagem de voz por AI. Fraudadores podem criar réplicas convincentes de vozes usando apenas três segundos de áudio, frequentemente obtidos de vídeos públicos. Essas vozes geradas por AI podem então ser usadas para imitar a pessoa e contatar amigos ou familiares, pedindo dinheiro sob o pretexto de uma emergência.
A Starling Bank estima que esses golpes podem atrair milhões de indivíduos desprevenidos. De acordo com uma pesquisa realizada com a Mortar Research envolvendo mais de 3.000 adultos, mais de um quarto já caiu vítima desses golpes de clonagem de voz por AI nos últimos 12 meses.
A pesquisa também revelou que 46% dos respondentes não tinham conhecimento da existência desses golpes, e um preocupante 8% enviaria a quantia total solicitada por um suposto amigo ou familiar, mesmo que a ligação parecesse suspeita.
Lisa Grahame, chefe de segurança da informação da Starling Bank, destacou o problema em um comunicado à imprensa, declarando: "As pessoas costumam compartilhar conteúdo online com gravações de voz, tornando-se assim mais vulneráveis aos fraudadores."
A Starling Bank aconselha a estabelecer uma "frase segura" com entes queridos – uma frase simples, fácil de lembrar e distinta de outras senhas que pode servir como uma ferramenta de verificação em ligações telefônicas. No entanto, essa frase segura não deve ser compartilhada por mensagem de texto, pois isso poderia facilitar a interceptação por parte de golpistas. Se compartilhada por mensagem de texto, a mensagem deve ser excluída após ser vista pelo destinatário.
À medida que a imitação de voz por AI se torna mais sofisticada, crescem as preocupações sobre o potencial dano que ela pode causar, como ajudar criminosos a acessar contas bancárias e disseminar desinformação.
No início deste ano, a OpenAI, criadora do popular chatbot de AI gerativa ChatGPT, desenvolveu uma ferramenta de replicação de voz, Voice Engine. Apesar de seu potencial para mau uso, a OpenAI optou por não disponibilizar a ferramenta ao público na época, citando o "risco de mau uso de voz sintética".
Os avanços da indústria tecnológica, como a Voice Engine da OpenAI, têm levantado preocupações no mundo dos negócios sobre o aumento da sofisticação da imitação de voz por AI. A Starling Bank, reconhecendo isso, aconselha seus clientes a adotar a prática comercial segura de estabelecer frases únicas com entes queridos para verificar a identidade durante ligações telefônicas.
Leia também:
- A Telefónica pretende lançar no mercado a telefonia por holograma
- vzbv: As empresas de Internet continuam a fazer batota apesar da proibição
- A Telefónica prevê o lançamento no mercado da telefonia por holograma em 2026
- Quase nenhuma melhoria no equilíbrio ecológico dos sistemas informáticos do governo federal