Ir para o conteúdo

Numerosos indivíduos podem cair em vítimas de enganos de imitação de voz gerados pela IA perpetrados por esta instituição financeira.

Muitos indivíduos podem tornar-se alvo de artimanhas, já que golpistasusesmFebrartificial intelligence para replicar suas vozes, como concebido por uma instituição bancária britânica.

Farsantes podem supostamente usar Inteligência Artificial para imitar a voz de uma pessoa,...
Farsantes podem supostamente usar Inteligência Artificial para imitar a voz de uma pessoa, produzindo imitações convincentes até mesmo a partir de trechos de áudio de três segundos obtidos de fontes como vidéos compartilhados online, de acordo com a declaração do Starling Bank.

Numerosos indivíduos podem cair em vítimas de enganos de imitação de voz gerados pela IA perpetrados por esta instituição financeira.

Fornecedora de serviços bancários digitais Starling Bank alerta para a ameaça crescente de golpes de clonagem de voz por AI. Fraudadores podem criar réplicas convincentes de vozes usando apenas três segundos de áudio, frequentemente obtidos de vídeos públicos. Essas vozes geradas por AI podem então ser usadas para imitar a pessoa e contatar amigos ou familiares, pedindo dinheiro sob o pretexto de uma emergência.

A Starling Bank estima que esses golpes podem atrair milhões de indivíduos desprevenidos. De acordo com uma pesquisa realizada com a Mortar Research envolvendo mais de 3.000 adultos, mais de um quarto já caiu vítima desses golpes de clonagem de voz por AI nos últimos 12 meses.

A pesquisa também revelou que 46% dos respondentes não tinham conhecimento da existência desses golpes, e um preocupante 8% enviaria a quantia total solicitada por um suposto amigo ou familiar, mesmo que a ligação parecesse suspeita.

Lisa Grahame, chefe de segurança da informação da Starling Bank, destacou o problema em um comunicado à imprensa, declarando: "As pessoas costumam compartilhar conteúdo online com gravações de voz, tornando-se assim mais vulneráveis aos fraudadores."

A Starling Bank aconselha a estabelecer uma "frase segura" com entes queridos – uma frase simples, fácil de lembrar e distinta de outras senhas que pode servir como uma ferramenta de verificação em ligações telefônicas. No entanto, essa frase segura não deve ser compartilhada por mensagem de texto, pois isso poderia facilitar a interceptação por parte de golpistas. Se compartilhada por mensagem de texto, a mensagem deve ser excluída após ser vista pelo destinatário.

À medida que a imitação de voz por AI se torna mais sofisticada, crescem as preocupações sobre o potencial dano que ela pode causar, como ajudar criminosos a acessar contas bancárias e disseminar desinformação.

No início deste ano, a OpenAI, criadora do popular chatbot de AI gerativa ChatGPT, desenvolveu uma ferramenta de replicação de voz, Voice Engine. Apesar de seu potencial para mau uso, a OpenAI optou por não disponibilizar a ferramenta ao público na época, citando o "risco de mau uso de voz sintética".

Os avanços da indústria tecnológica, como a Voice Engine da OpenAI, têm levantado preocupações no mundo dos negócios sobre o aumento da sofisticação da imitação de voz por AI. A Starling Bank, reconhecendo isso, aconselha seus clientes a adotar a prática comercial segura de estabelecer frases únicas com entes queridos para verificar a identidade durante ligações telefônicas.

Leia também:

Comentários

Mais recente

Multidões se reúnem perto doCentro Médico da Universidade Americana do Beirute depois que mais de...

As autoridades israelenses alertaram os Estados Unidos antes de executarem suas operações no Líbano na terça-feira, mas optaram por não divulgar os detalhes de sua estratégia, de acordo com fontes confiáveis.

Autoridades dos EUA foram informadas por autoridades israelenses que uma operação era iminente no Líbano na terça-feira, mas nenhum detalhe sobre a operação foi revelado, de acordo com informações de três fontes a par do assunto. Essas informações foram compartilhadas durante uma ligação pela...

Membros Pública