Ir para o conteúdo
Espera-se que um chatbot criminoso com a qualidade do ChatGPT continue a ser apenas um sonho dos....aussiedlerbote.de
Espera-se que um chatbot criminoso com a qualidade do ChatGPT continue a ser apenas um sonho dos cibercriminosos..aussiedlerbote.de

Os cibercriminosos não pensam muito no ChatGPT

Os fornecedores de serviços de segurança estão a investigar a forma como os cibercriminosos utilizam o ChatGPT & Co. Verifica-se que, embora utilizem grandes modelos linguísticos, consideram as suas capacidades sobrevalorizadas e supérfluas. No entanto, a combinação de criminosos e ChatGPT é perigosa.

Há exatamente um ano, o chatbot ChatGPT foi lançado e causou uma grande agitação praticamente de imediato. As possibilidades do modelo de linguagem grande (LLM) são de facto enormes, em parte devido à sua versatilidade. O ChatGPT também pode escrever ou melhorar código. Por isso, temeu-se desde o início que a IA também pudesse ser utilizada para gerar malware.

No entanto, os hackers criminosos quase nunca utilizaram o ChatGPT para este fim, como duas empresas de segurança descobriram em investigações separadas. Os peritos criminais consideraram mesmo que o modelo era sobrevalorizado ou mesmo supérfluo, escreve a Sophos num relatório recente. A Trend Micro já tinha chegado a uma conclusão semelhante num estudo.

Para obter uma visão geral da utilização criminosa da IA, os fornecedores de serviços de segurança analisaram chats em fóruns da darknet, nos quais os cibercriminosos discutem o ChatGPT & Co. A Sophos constatou que a IA não é um tema quente nesses fóruns. Em dois fóruns, os especialistas da empresa encontraram apenas cerca de 100 mensagens sobre o assunto, enquanto havia quase 1.000 sobre criptomoedas.

Os profissionais estão preocupados

Entre outras coisas, suspeitam que muitos cibercriminosos ainda consideram a IA generativa como estando na sua infância. As discussões sobre o assunto em fóruns da darknet também não são tão lucrativas quanto nas redes sociais, onde podem atrair muita atenção.

De acordo com a Sophos, muitos criminosos também receiam que a utilização da IA possa deixar vestígios que possam ser detectados por programas antivírus. O software que monitoriza os dispositivos finais nas redes em tempo real (Endpoint Detection and Response: EDR) também os pode apanhar.

As objecções à IA são bem fundamentadas. Os membros do fórum são frequentemente criminosos, mas entre eles há hackers muito capazes que sabem como avaliar a nova e complicada tecnologia. Como a Trend Micro e a Sophos descobriram, eles quase nunca usam o ChatGPT & Co. para gerar malware.

Melhorar o código e a engenharia social

Em vez disso, tal como outros programadores, utilizam principalmente modelos de linguagem de grande dimensão para melhorar o seu código. Os criminosos também gostam de utilizar o ChatGPT para engenharia social, de modo a tornar as suas campanhas de spam e phishing mais bem sucedidas. Entre outras coisas, precisam de e-mails enganosamente genuínos que induzam os utilizadores a abrir anexos infectados ou a clicar em ligações perigosas.

Cameron Camp, da empresa de segurança ESET, escreveu na primavera que não se deve esperar reconhecer um e-mail de phishing com base em erros de linguagem. Especialista. A IA provavelmente conhece uma língua nativa melhor do que os utilizadores.

Os Jailbreaks são um grande problema

Vários filtros foram concebidos para evitar que o ChatGPT responda a perguntas prejudiciais, ilegais ou inadequadas, que são, naturalmente, de particular interesse para os criminosos. Isto também pode envolver o planeamento de um crime no mundo real.

Por isso, um dos grandes temas dos fóruns da Darknet é a forma de ultrapassar estas barreiras. Há uma procura particular dos chamados jailbreaks, que permitem um acesso praticamente livre. O DAN, que significa "Do Anything Now" (faça qualquer coisa agora), é conhecido desde os primeiros dias do ChatGPT. O código está constantemente a ser adaptado, é uma espécie de jogo do gato e do rato entre os criadores do ChatGPT e os jailbreakers.

Ainda mais frequentemente, as contas ChatGPT pirateadas são postas à venda nos fóruns da Darknet, escreve a Sophos. Isto não é surpreendente. No entanto, não é claro a que grupo-alvo estas contas se destinam e o que os compradores podem fazer com elas. Os especialistas especulam que podem estar a aceder a consultas anteriores para obter informações confidenciais. Os compradores poderiam também utilizar o acesso para efetuar as suas próprias consultas ou verificar a reutilização de palavras-passe.

Até à data, os LLMs criminais são apenas ar quente

Os especialistas em segurança consideram particularmente interessante o facto de modelos criminosos também terem sido e continuarem a ser oferecidos nos fóruns. Os mais conhecidos são o WormGPT e o FraudGPT.

O WormGPT foi publicado em junho deste ano e foi alegadamente baseado no modelo GPTJ. O chatbot custava 100 euros por mês ou 550 euros por ano. No entanto, o programador descontinuou-o em agosto - alegadamente devido à enorme atenção dos meios de comunicação social.

No entanto, também escreveu: "Em última análise, o WormGPT não é mais do que um ChatGPT sem restrições. Qualquer pessoa na Internet pode usar uma técnica de jailbreak conhecida e obter os mesmos resultados, se não melhores". Vários membros do fórum suspeitaram de fraude, escreve a Sophos.

A situação é semelhante com o FraudGPT. Há também dúvidas sobre as capacidades do modelo. Um membro perguntou no chat se o modelo poderia realmente gerar malware que o software antivírus não consegue detetar. Recebeu uma resposta clara.

Todo o malware é reconhecido uma vez

Não, isso é impossível, disse. Os LLM simplesmente não são capazes de o fazer. Não podem traduzir código nem "compreendê-lo" para além da língua em que foi escrito. Da mesma forma, não existe malware que não possa ser detectado, segundo o autor. Mais cedo ou mais tarde, todos os códigos maliciosos são descobertos.

Também existem dúvidas sobre a autenticidade e/ou o desempenho de todos os outros chatbots criminosos que vieram à luz até à data. A Trend Micro escreve que, apesar de toda a controvérsia, acredita que o WormGPT foi muito provavelmente o único exemplo de um LLM personalizado real.

Os criminosos experientes esperam e vêem, os putos de script celebram

Para os cibercriminosos experientes, "não há necessidade de desenvolver um LLM separado como o ChatGPT, uma vez que o ChatGPT já funciona suficientemente bem para as suas necessidades", conclui a Trend Micro. Eles usaram a IA da mesma forma que os programadores legítimos. A Sophos também não encontrou praticamente nenhuma evidência de que eles usassem IA para gerar malware. Ela é usada apenas para ferramentas de ataque individuais. No entanto, isso pode mudar no futuro.

Um bónus para os cibercriminosos experientes é que agora podem melhorar o seu código sem grande esforço e também escrever malware em linguagens informáticas em que não são tão proficientes. A Sophos também referiu que os cibercriminosos podem utilizar a ajuda da IA para realizar tarefas de programação quotidianas ou melhorar os seus fóruns.

Ambas as empresas de segurança vêem o problema de a utilização da IA ter reduzido a barreira de entrada para se tornar um hacker criminoso. De acordo com a Trend Micro, qualquer pessoa com uma bússola moral quebrada pode agora começar a desenvolver malware sem qualquer conhecimento de programação.

Fonte: www.ntv.de

Comentários

Mais recente