Многие люди могут стать жертвами обманчивых имитаций голоса, сделанных этим финансовым учреждением.
Цифровой провайдер банковских услуг Starling Bank предупреждает о растущей угрозе мошенничества с использованием AI для клонирования голоса. Мошенники могут создавать убедительные голосовые реплики всего за три секунды аудио, часто полученные из общедоступных видео. Эти AI-генеративные голоса затем могут использоваться для имитации человека и связывания с его друзьями или семьей, прося деньги под предлогом чрезвычайной ситуации.
Starling Bank оценивает, что такие мошенничества могут обмануть миллионы неосведомленных людей. Согласно опросу, проведенному с Mortar Research среди более чем 3000 взрослых, более четверти уже стали жертвами таких мошенничеств с AI-клонированием голоса за последний год.
Опрос также показал, что 46% респондентов не знали о существовании таких мошенничеств, и тревожные 8% отправят полную запрошенную сумму якобы другу или члену семьи, даже если звонок кажется подозрительным.
Лиза Грейм, главный информационный sécurité-офицер Starling Bank, подчеркнула проблему в пресс-релизе, заявив: "Люди часто делятся контентом в Интернете с голосовыми записями, не осознавая, что делают себя более уязвимыми для мошенников".
Starling Bank рекомендует установить "безопасную фразу" с близкими – простую, легко запоминающуюся и отличную от других паролей фразу, которая может служить инструментом верификации во время звонков. Однако эту безопасную фразу не следует condividere via SMS, так как это может облегчить мошенникам перехват. Если она будет отправлена по SMS, сообщение следует удалить, как только получатель его увидит.
По мере того как AI-голосовое подражание становится все более продвинутым, растут опасения по поводу возможного ущерба, такого как помощь преступникам в доступе к банковским счетам и распространение дезинформации.
Ранее в этом году OpenAI, создатель популярного генеративного AI-чатбота ChatGPT, разработала инструмент репликации голоса, Voice Engine. Несмотря на его потенциал для злоупотребления, OpenAI решила не делать инструмент доступным для общественности на тот момент, сославшись на "риск неправомерного использования синтетического голоса".
Продвижения в технологической отрасли, такие как Voice Engine от OpenAI, вызвали озабоченность в деловом мире по поводу растущей sophistication AI-голосового подражания. Starling Bank, признавая это, советует своим клиентам использовать безопасную деловую практику установления уникальных фраз с близкими для верификации личности во время звонков.