Salta al contenuto

Numerosi individui potrebbero cadere vittime di ingannevoli imitazioni vocali generate dall'IA perpetrate da questa istituzione finanziaria.

Numerosi individui potrebbero diventate obiettivi di inganno, poiché i truffatori utilizzano l'intelligenza artificiale per riprodurre le loro voci, come concepito da un'istituzione bancaria britannica.

I truffatori possono apparentemente utilizzare l'AI per imitare la voce di un individuo, producendo...
I truffatori possono apparentemente utilizzare l'AI per imitare la voce di un individuo, producendo imitazioni convincenti anche da brevi clip audio di soli tre secondi ottenute da fonti come video condivisi online, secondo la dichiarazione della Starling Bank.

Numerosi individui potrebbero cadere vittime di ingannevoli imitazioni vocali generate dall'IA perpetrate da questa istituzione finanziaria.

Servizio bancario digitale Starling Bank avverte del crescente pericolo delle truffe basate sull'imitazione vocale AI. I truffatori possono creare repliche vocali convincenti utilizzando solo tre secondi di audio, spesso ottenuti da video pubblici. Queste voci generate da AI possono quindi essere utilizzate per imitare la persona e contattare i loro amici o familiari, chiedendo denaro sotto il pretesto di un'emergenza.

Starling Bank stima che queste truffe potrebbero ingannare milioni di persone ignare. Secondo un sondaggio condotto con Mortar Research su oltre 3.000 adulti, più di un quarto ha già subito questo tipo di truffe basate sull'imitazione vocale AI nell'ultimo anno.

Il sondaggio ha anche rivelato che il 46% dei partecipanti non era a conoscenza dell'esistenza di queste truffe e, cosa preoccupante, l'8% avrebbe inviato l'intera somma richiesta da un supposto amico o familiare, anche se la chiamata sembrava sospetta.

Lisa Grahame, chief information security officer di Starling Bank, ha evidenziato il problema in un comunicato stampa, dichiarando: "Le persone spesso condividono online contenuti con registrazioni vocali, rendendosi inconsapevolmente più vulnerabili ai truffatori".

Starling Bank consiglia di stabilire una "frase sicura" con i propri cari - una frase semplice, facile da ricordare e distinta dalle altre password che può servire come strumento di verifica durante le chiamate. Tuttavia, questa frase sicura non dovrebbe essere condivisa tramite messaggi di testo, poiché questo potrebbe rendere più facile per i truffatori intercettarla. Se condivisa via testo, il messaggio dovrebbe essere eliminato una volta che il destinatario l'ha visto.

Mentre l'imitazione vocale AI diventa sempre più sofisticata, crescono le preoccupazioni sul potenziale danno che potrebbe causare, come l'accesso illegale ai conti bancari e la diffusione di informazioni fuorvianti.

Inizi dell'anno, OpenAI, il creatore del popolare chatbot generativo AI ChatGPT, ha sviluppato uno strumento di replica vocale, Voice Engine. Nonostante il suo potenziale per l'uso improprio, OpenAI ha scelto di non renderlo disponibile al pubblico al momento, a causa del "rischio di abuso della voce sintetica".

I progressi tecnologici, come l'OpenAI Voice Engine, hanno sollevato preoccupazioni nel mondo degli affari riguardo all'aumento della sofisticatezza dell'imitazione vocale AI. Starling Bank, riconoscendo questo, consiglia ai propri clienti di utilizzare una pratica commerciale sicura di stabilire frasi uniche con i propri cari per verificare l'identità durante le chiamate.

Leggi anche:

Commenti

Più recente

Folle si radunano vicino al Centro Medico dell'Università Americana di Beirut dopo che oltre 1.000...

Le autorità israeliane hanno avvertito gli Stati Uniti prima di eseguire le loro operazioni in Libano martedì, ma hanno scelto di non rivelare i dettagli della loro strategia, secondo fonti affidabili.

Le autorità statunitensi sono state informate dalle autorità israeliane che un'operazione era imminente in Libano il martedì, ma non sono state fornite specifiche sull'operazione, secondo informazioni di tre fonti vicine alla situazione. Le informazioni sono state condivise durante una...

Iscritti Pubblico
L'assalto con i cercapersone è collegato agli eventi del "7 ottobre di Hezbollah".

L'assalto con i cercapersone è collegato agli eventi del "7 ottobre di Hezbollah".

L'assalto con i cercapersone è collegato agli eventi del "7 ottobre di Hezbollah". Esperti dei media israeliani concordano generalmente: le esplosioni simultanee di numerosi cercapersone in Libano servono come dimostrazione convincente delle capacità di Israele. Tuttavia, questo episodio è fonte di imbarazzo per Hezbollah, in quanto

Iscritti Pubblico