Infractorii cibernetici nu se gândesc prea mult la ChatGPT
Furnizorii de servicii de securitate investighează modul în care infractorii cibernetici folosesc ChatGPT & Co. Se pare că, deși folosesc modele lingvistice mari, aceștia consideră că capacitățile lor sunt supraevaluate și superflue. Cu toate acestea, combinația dintre infractori și ChatGPT este periculoasă.
În urmă cu exact un an, chatbotul ChatGPT a fost lansat și a provocat o mare agitație, practic din senin. Posibilitățile modelului lingvistic mare (LLM) sunt într-adevăr enorme, în parte datorită versatilității sale. ChatGPT poate, de asemenea, să scrie sau să îmbunătățească codul. Prin urmare, s-a temut de la bun început că inteligența artificială ar putea fi folosită și pentru a genera programe malware.
Cu toate acestea, hackerii criminali nu au folosit aproape niciodată ChatGPT în acest scop, după cum au descoperit două companii de securitate în cadrul unor investigații separate. Experții criminaliști au considerat chiar că modelul este supraevaluat sau chiar superfluu, scrie Sophos într-un raport recent. Trend Micro ajunsese anterior la o concluzie similară într-un studiu.
Pentru a obține o imagine de ansamblu asupra utilizării criminale a inteligenței artificiale, furnizorii de servicii de securitate au analizat discuțiile din forumurile darknet în care infractorii cibernetici discută despre ChatGPT & Co. Sophos a constatat că AI nu este un subiect fierbinte acolo. În două forumuri, experții companiei au găsit doar aproximativ 100 de postări pe această temă, în timp ce au existat aproape 1.000 de mesaje pe tema criptomonedelor.
Profesioniștii sunt îngrijorați
Printre altele, ei suspectează că mulți infractori cibernetici consideră că AI generativă este încă la început. De asemenea, discuțiile despre aceasta pe forumurile darknet nu sunt la fel de profitabile ca pe rețelele sociale, unde pot atrage multă atenție.
Potrivit Sophos, mulți infractori se tem, de asemenea, că utilizarea AI ar putea lăsa urme care ar putea fi detectate de programele antivirus. Programele care monitorizează în timp real dispozitivele finale din rețele (Endpoint Detection and Response: EDR) ar putea, de asemenea, să-i prindă din urmă.
Obiecțiile față de inteligența artificială sunt bine întemeiate. Membrii forumului sunt adesea infractori, dar printre aceștia se numără și hackeri foarte capabili care știu cum să evalueze noua tehnologie complicată. După cum au descoperit Trend Micro și Sophos, aceștia nu folosesc aproape niciodată ChatGPT & Co. pentru a genera programe malware.
Îmbunătățirea codului și a ingineriei sociale
În schimb, ca și alți dezvoltatori, aceștia folosesc în principal modele lingvistice mari pentru a-și îmbunătăți codul. Infractorilor le place, de asemenea, să folosească ChatGPT pentru inginerie socială, pentru ca campaniile lor de spam și phishing să aibă mai mult succes. Printre altele, aceștia au nevoie de e-mailuri înșelător de autentice, care îi determină pe utilizatori să deschidă atașamente infectate sau să facă clic pe linkuri periculoase.
Cameron Camp de la compania de securitate ESET a scris în primăvară că nu trebuie să sperați să recunoașteți un e-mail de phishing pe baza unor erori de limbă. Expert. Probabil că AI-ul cunoaște o limbă nativă mai bine decât utilizatorii.
Jailbreaks reprezintă o problemă importantă
Diferite filtre sunt concepute pentru a împiedica ChatGPT să răspundă la întrebări dăunătoare, ilegale sau nepotrivite, care, desigur, prezintă un interes deosebit pentru infractori. Aceasta ar putea implica, de asemenea, planificarea unei infracțiuni în lumea reală.
Prin urmare, un subiect important pe forumurile Darknet este cum să se depășească aceste bariere. Există o cerere deosebită pentru așa-numitele jailbreaks, care oferă acces practic gratuit. DAN, care înseamnă "Do Anything Now" (fă orice acum), a fost cunoscut încă din primele zile ale ChatGPT. Codul este adaptat în mod constant, este un fel de joc de-a șoarecele și pisica între dezvoltatorii ChatGPT și jailbreakeri.
Chiar mai frecvent, conturile ChatGPT piratate sunt oferite spre vânzare pe forumurile Darknet, scrie Sophos. Acest lucru nu este deloc surprinzător. Cu toate acestea, nu este clar ce grup țintă vizează aceste conturi și ce pot face cumpărătorii cu ele. Experții speculează că aceștia ar putea accesa interogările anterioare pentru a obține informații confidențiale. De asemenea, cumpărătorii ar putea folosi accesul pentru a-și efectua propriile interogări sau pentru a verifica reutilizarea parolelor.
Deocamdată, studiile de masterat în drept penal au fost în mare parte o himeră
Experții în securitate consideră că este deosebit de interesant faptul că în forumuri au fost și continuă să fie oferite și modele penale. Cele mai cunoscute sunt WormGPT și FraudGPT.
WormGPT a fost publicat în luna iunie a acestui an și se presupune că se bazează pe modelul GPTJ. Chatbotul costa 100 de euro pe lună sau 550 de euro pe an. Cu toate acestea, dezvoltatorul l-a întrerupt în august - se presupune că din cauza atenției uriașe din partea presei.
Cu toate acestea, el a mai scris: "În cele din urmă, WormGPT nu este nimic mai mult decât un ChatGPT fără restricții. Oricine de pe internet poate folosi o tehnică cunoscută de jailbreak și poate obține aceleași rezultate, dacă nu chiar mai bune". Mai mulți membri ai forumului au suspectat o fraudă, scrie Sophos.
Situația este similară cu FraudGPT. Există, de asemenea, îndoieli cu privire la capacitățile modelului. Un membru a întrebat pe chat dacă acesta ar putea genera efectiv programe malware pe care software-ul antivirus nu le poate detecta. El a primit un răspuns clar.
Toate programele malware sunt recunoscute o dată
Nu, acest lucru este imposibil, a spus acesta. LLM-urile pur și simplu nu sunt capabile să facă acest lucru. Ei nu pot nici să traducă codul, nici să îl "înțeleagă" dincolo de limba în care a fost scris. În mod similar, nu există malware care să nu poată fi detectat, potrivit autorului. Mai devreme sau mai târziu, orice cod malițios este descoperit.
Există, de asemenea, îndoieli cu privire la autenticitatea și/sau performanța tuturor celorlalte chatbots criminale care au ieșit la iveală până în prezent. Trend Micro scrie că, în ciuda tuturor controverselor, consideră că WormGPT a fost, cel mai probabil, singurul exemplu de LLM personalizat real.
Infractorii experimentați așteaptă și văd ce se va întâmpla, script kiddies sărbătoresc
Pentru infractorii cibernetici experimentați, "nu este nevoie să dezvolte un LLM separat precum ChatGPT, deoarece ChatGPT funcționează deja suficient de bine pentru nevoile lor", conchide Trend Micro. Aceștia au folosit AI în același mod ca și programatorii legitimi. De asemenea, Sophos nu a găsit aproape nicio dovadă că aceștia au folosit AI pentru a genera programe malware. Aceasta este utilizată doar pentru instrumente de atac individuale. Totuși, acest lucru s-ar putea schimba în viitor.
Un bonus pentru infractorii cibernetici experimentați este faptul că acum își pot îmbunătăți codul fără prea mult efort și, de asemenea, pot scrie programe malware în limbaje informatice pe care nu le stăpânesc atât de bine. Sophos a mai precizat că aceștia pot folosi ajutorul AI pentru a finaliza sarcinile de programare zilnice sau pentru a-și îmbunătăți forumurile.
Ambele companii de securitate consideră că problema este că utilizarea inteligenței artificiale a redus bariera de intrare pentru a deveni un hacker criminalist. Potrivit Trend Micro, oricine cu o busolă morală stricată poate începe acum să dezvolte programe malware fără a avea cunoștințe de programare.
Sursa: www.ntv.de