Salta al contenuto

Numerosi individui potrebbero cadere vittime di ingannevoli imitazioni vocali generate dall'IA perpetrate da questa istituzione finanziaria.

Numerosi individui potrebbero diventate obiettivi di inganno, poiché i truffatori utilizzano l'intelligenza artificiale per riprodurre le loro voci, come concepito da un'istituzione bancaria britannica.

I truffatori possono apparentemente utilizzare l'AI per imitare la voce di un individuo, producendo...
I truffatori possono apparentemente utilizzare l'AI per imitare la voce di un individuo, producendo imitazioni convincenti anche da brevi clip audio di soli tre secondi ottenute da fonti come video condivisi online, secondo la dichiarazione della Starling Bank.

Numerosi individui potrebbero cadere vittime di ingannevoli imitazioni vocali generate dall'IA perpetrate da questa istituzione finanziaria.

Servizio bancario digitale Starling Bank avverte del crescente pericolo delle truffe basate sull'imitazione vocale AI. I truffatori possono creare repliche vocali convincenti utilizzando solo tre secondi di audio, spesso ottenuti da video pubblici. Queste voci generate da AI possono quindi essere utilizzate per imitare la persona e contattare i loro amici o familiari, chiedendo denaro sotto il pretesto di un'emergenza.

Starling Bank stima che queste truffe potrebbero ingannare milioni di persone ignare. Secondo un sondaggio condotto con Mortar Research su oltre 3.000 adulti, più di un quarto ha già subito questo tipo di truffe basate sull'imitazione vocale AI nell'ultimo anno.

Il sondaggio ha anche rivelato che il 46% dei partecipanti non era a conoscenza dell'esistenza di queste truffe e, cosa preoccupante, l'8% avrebbe inviato l'intera somma richiesta da un supposto amico o familiare, anche se la chiamata sembrava sospetta.

Lisa Grahame, chief information security officer di Starling Bank, ha evidenziato il problema in un comunicato stampa, dichiarando: "Le persone spesso condividono online contenuti con registrazioni vocali, rendendosi inconsapevolmente più vulnerabili ai truffatori".

Starling Bank consiglia di stabilire una "frase sicura" con i propri cari - una frase semplice, facile da ricordare e distinta dalle altre password che può servire come strumento di verifica durante le chiamate. Tuttavia, questa frase sicura non dovrebbe essere condivisa tramite messaggi di testo, poiché questo potrebbe rendere più facile per i truffatori intercettarla. Se condivisa via testo, il messaggio dovrebbe essere eliminato una volta che il destinatario l'ha visto.

Mentre l'imitazione vocale AI diventa sempre più sofisticata, crescono le preoccupazioni sul potenziale danno che potrebbe causare, come l'accesso illegale ai conti bancari e la diffusione di informazioni fuorvianti.

Inizi dell'anno, OpenAI, il creatore del popolare chatbot generativo AI ChatGPT, ha sviluppato uno strumento di replica vocale, Voice Engine. Nonostante il suo potenziale per l'uso improprio, OpenAI ha scelto di non renderlo disponibile al pubblico al momento, a causa del "rischio di abuso della voce sintetica".

I progressi tecnologici, come l'OpenAI Voice Engine, hanno sollevato preoccupazioni nel mondo degli affari riguardo all'aumento della sofisticatezza dell'imitazione vocale AI. Starling Bank, riconoscendo questo, consiglia ai propri clienti di utilizzare una pratica commerciale sicura di stabilire frasi uniche con i propri cari per verificare l'identità durante le chiamate.

Leggi anche:

Commenti

Più recente

In questa foto illustrativa scattata il 15 settembre 2017, il simbolo dell'app Telegram appears on...

Telegram serve come piattaforma per operazioni commerciali clandestine per le organizzazioni criminali in tutto il Sud-Est asiatico, secondo l'affermazione dell'ONU.

I sindacati criminali del SudEst Asiatico utilizzano in modo significativo l'applicazione di messaggistica Telegram, ciò ha determinato un significativo cambiamento in come gestiscono operazioni illecite su larga scala, come si legge in una nota delle Nazioni Unite del lunedì.

Iscritti Pubblico