I criminali informatici non pensano molto a ChatGPT
I fornitori di servizi di sicurezza stanno studiando come i criminali informatici utilizzano ChatGPT & Co. È emerso che, sebbene utilizzino modelli linguistici di grandi dimensioni, considerano le loro capacità sopravvalutate e superflue. Tuttavia, la combinazione di criminali e ChatGPT è pericolosa.
Esattamente un anno fa, il chatbot ChatGPT è stato rilasciato e ha suscitato grande scalpore praticamente all'istante. Le possibilità del modello linguistico di grandi dimensioni (LLM) sono davvero enormi, in parte grazie alla sua versatilità. ChatGPT può anche scrivere o migliorare il codice. Si è quindi temuto fin dall'inizio che l'IA potesse essere utilizzata anche per generare malware.
Tuttavia, gli hacker criminali non hanno quasi mai utilizzato ChatGPT a questo scopo, come hanno scoperto due società di sicurezza in indagini separate. Gli esperti di criminalità hanno addirittura ritenuto il modello sopravvalutato o addirittura superfluo, scrive Sophos in un recente rapporto. Trend Micro era già giunto a una conclusione simile in uno studio.
Per ottenere una panoramica sull'uso criminale dell'IA, i fornitori di servizi di sicurezza hanno analizzato le chat dei forum darknet in cui i criminali informatici discutono di ChatGPT & Co. Sophos ha scoperto che l'IA non è un argomento caldo. In due forum, gli esperti dell'azienda hanno trovato appena un centinaio di post sull'argomento, mentre ce n'erano quasi 1.000 sulle criptovalute.
I professionisti sono preoccupati
Tra le altre cose, si sospetta che molti criminali informatici considerino l'IA generativa ancora agli inizi. Inoltre, le discussioni sui forum della darknet non sono così redditizie come quelle sui social network, dove possono attirare molta attenzione.
Secondo Sophos, molti criminali temono anche che l'uso dell'IA possa lasciare tracce che potrebbero essere rilevate dai programmi antivirus. Anche il software che monitora in tempo reale i dispositivi finali nelle reti (Endpoint Detection and Response: EDR) potrebbe individuarli.
Le obiezioni all'IA sono fondate. I membri del forum sono spesso criminali, ma tra loro ci sono anche hacker molto capaci che sanno come valutare la nuova complicata tecnologia. Come hanno scoperto Trend Micro e Sophos, difficilmente utilizzano ChatGPT & Co. per generare malware.
Miglioramento del codice e ingegneria sociale
Invece, come altri sviluppatori, utilizzano principalmente modelli linguistici di grandi dimensioni per migliorare il loro codice. I criminali amano utilizzare ChatGPT anche per l'ingegneria sociale, per aumentare il successo delle loro campagne di spam e phishing. Tra l'altro, hanno bisogno di e-mail ingannevolmente genuine che invoglino gli utenti ad aprire allegati infetti o a cliccare su link pericolosi.
Cameron Camp della società di sicurezza ESET ha scritto in primavera che non bisogna sperare di riconoscere un'e-mail di phishing sulla base di errori linguistici. Esperto. L'intelligenza artificiale probabilmente conosce la lingua madre meglio degli utenti.
I Jailbreak sono un grosso problema
Diversi filtri sono stati progettati per impedire a ChatGPT di rispondere a domande dannose, illegali o inappropriate, che sono ovviamente di particolare interesse per i criminali. Questo potrebbe anche comportare la pianificazione di un crimine nel mondo reale.
Pertanto, un grande argomento nei forum della Darknet è come superare queste barriere. C'è una particolare richiesta di cosiddetti jailbreak, che garantiscono un accesso praticamente gratuito. DAN, che sta per "Do Anything Now", è noto fin dai primi giorni di ChatGPT. Il codice viene costantemente adattato, è una sorta di gioco del gatto e del topo tra gli sviluppatori di ChatGPT e i jailbreaker.
Ancora più spesso, gli account ChatGPT violati vengono messi in vendita nei forum della Darknet, scrive Sophos. Questo non sorprende. Tuttavia, non è chiaro a quale gruppo di destinatari siano rivolti questi account e cosa gli acquirenti possano fare con essi. Gli esperti ipotizzano che possano accedere a query precedenti per ottenere informazioni riservate. Gli acquirenti potrebbero anche utilizzare l'accesso per effettuare le proprie ricerche o verificare il riutilizzo delle password.
I LLM criminali sono stati finora soprattutto aria fritta
Gli esperti di sicurezza trovano particolarmente interessante il fatto che nei forum siano stati e continuino a essere offerti anche modelli criminali. I più noti sono WormGPT e FraudGPT.
WormGPT è stato pubblicato nel giugno di quest'anno e si basava presumibilmente sul modello GPTJ. Il chatbot costava 100 euro al mese o 550 euro all'anno. Tuttavia, lo sviluppatore lo ha interrotto ad agosto, presumibilmente a causa dell'enorme attenzione dei media.
Tuttavia, ha anche scritto: "In definitiva, WormGPT non è altro che un ChatGPT senza restrizioni. Chiunque su Internet può utilizzare una tecnica di jailbreak nota e ottenere gli stessi risultati, se non migliori". Diversi membri del forum hanno sospettato una frode, scrive Sophos.
La situazione è simile con FraudGPT. Ci sono anche dubbi sulle capacità del modello. Un membro ha chiesto in chat se potesse effettivamente generare malware che il software antivirus non è in grado di rilevare. Ha ricevuto una risposta chiara.
Tutto il malware viene riconosciuto una volta sola
No, è impossibile, ha risposto. I LLM non sono semplicemente in grado di farlo. Non possono né tradurre il codice né "capirlo" al di là della lingua in cui è stato scritto. Allo stesso modo, secondo l'autore, non esiste malware che non possa essere rilevato. Prima o poi, ogni codice maligno viene scoperto.
Ci sono anche dubbi sull'autenticità e/o sulle prestazioni di tutti gli altri chatbot criminali che sono venuti alla luce finora. Trend Micro scrive che, nonostante tutte le controversie, ritiene che WormGPT sia stato molto probabilmente l'unico esempio di un vero e proprio LLM personalizzato.
I criminali esperti aspettano e vedono, gli script kiddies festeggiano
Per i criminali informatici esperti, "non è necessario sviluppare un LLM separato come ChatGPT, poiché ChatGPT funziona già abbastanza bene per le loro esigenze", conclude Trend Micro. Hanno usato l'intelligenza artificiale allo stesso modo dei programmatori legittimi". Anche Sophos non ha trovato quasi nessuna prova dell'utilizzo dell'IA per generare malware. Viene utilizzata solo per singoli strumenti di attacco. Tuttavia, la situazione potrebbe cambiare in futuro.
Un vantaggio per i criminali informatici esperti è che ora possono migliorare il loro codice senza grandi sforzi e scrivere malware anche in linguaggi informatici in cui non sono così esperti. Sophos ha anche notato che possono utilizzare l'aiuto dell'IA per completare le attività di programmazione quotidiane o migliorare i loro forum.
Entrambe le società di sicurezza ritengono che l'uso dell'IA abbia abbassato la barriera d'ingresso per diventare un hacker criminale. Secondo Trend Micro, chiunque abbia una bussola morale rotta può ora iniziare a sviluppare malware senza alcuna conoscenza di programmazione.
Fonte: www.ntv.de