Cyberkriminelle sind hinsichtlich ChatGPT nicht optimistisch
Sicherheitsdienstleister untersuchen, wie Cyberkriminelle ChatGPT & Co. nutzen. Es stellt sich heraus, dass sie große Sprachmodelle verwenden, aber glauben, dass ihre Möglichkeiten überschätzt und redundant sind. Doch die Kombination aus Kriminellen und ChatGPT ist immer noch gefährlich.
Erst vor einem Jahr startete der Chatbot ChatGPT und sorgte quasi aus dem Stegreif für großes Aufsehen. Aufgrund ihrer Vielseitigkeit sind die Möglichkeiten von Large Language Models (LLMs) tatsächlich enorm. ChatGPT kann auch Code schreiben oder verbessern. Von Anfang an gab es Bedenken, dass KI auch zur Generierung von Schadsoftware genutzt werden könnte.
Wie jedoch zwei Sicherheitsfirmen in getrennten Untersuchungen herausfanden, nutzen kriminelle Hacker ChatGPT selten für diesen Zweck. Sophos schreibt in einem aktuellen Bericht, Kriminalexperten halten das Modell sogar für überbewertet oder sogar unnötig. Zu einem ähnlichen Ergebnis kam Trend Micro zuvor in einer Umfrage.
Um ein umfassendes Verständnis der kriminellen Nutzung künstlicher Intelligenz zu gewinnen, wertete der Sicherheitsdienstleister Chatprotokolle in Darknet-Foren aus, in denen Cyberkriminelle über ChatGPT & Co. diskutierten. Sophos weist darauf hin, dass künstliche Intelligenz kein heißes Thema sei. In beiden Foren fanden die Experten des Unternehmens nur etwa 100 Beiträge zu diesem Thema, verglichen mit fast 1.000 Beiträgen zu Kryptowährungen.
Profis haben Bedenken
Darüber hinaus vermuten sie, dass viele Cyberkriminelle glauben, dass generative KI noch in den Kinderschuhen steckt. Auch Diskussionen zu diesem Thema in Dark-Web-Foren sind nicht so gewinnbringend wie in sozialen Netzwerken, wo sie viel Aufmerksamkeit erregen können.
Viele Kriminelle befürchten zudem, dass der Einsatz von KI Spuren hinterlasse, die von Antivirenprogrammen erkannt werden könnten, so Sophos. Möglicherweise stoßen sie auch auf Software, die Endgeräte im Netzwerk in Echtzeit überwacht (Endpoint Detection and Response: EDR).
Der Widerstand gegen künstliche Intelligenz ist weit verbreitet. Während Forenmitglieder in der Regel Kriminelle sind, gibt es auch erfahrene Hacker, die ausgefeilte neue Technologien zu schätzen wissen. Wie Trend Micro und Sophos herausgefunden haben, verwenden sie ChatGPT & Co. fast nie zur Generierung von Malware.
Code und Social Engineering verbessern
Stattdessen nutzen sie wie andere Entwickler vor allem große Sprachmodelle, um ihren Code zu verbessern. Kriminelle nutzen ChatGPT auch gerne für sogenanntes Social Engineering, um ihre Spam- und Phishing-Kampagnen erfolgreicher zu machen. Dazu benötigen sie täuschend echte E-Mails, die Benutzer dazu verleiten, infizierte Anhänge zu öffnen oder auf gefährliche Links zu klicken.
Cameron Camp von der Sicherheitsfirma ESET schrieb im Frühjahr, dass man nicht damit rechnen dürfe, Phishing-E-Mails anhand von Sprachfehlern zu erkennen. Experte. Künstliche Intelligenz versteht die Muttersprache möglicherweise besser als der Benutzer.
Jailbreaking ist ein großes Thema
Verschiedene Filter sollen verhindern, dass ChatGPT schädliche, illegale oder unangemessene Fragen beantwortet, die natürlich besonders für Kriminelle interessant sind. Dabei kann es sich auch um die Planung von Verbrechen in der realen Welt handeln.
Ein großes Thema in Darknet-Foren ist daher die Überwindung dieser Hindernisse. Besonders beliebt sind sogenannte Jailbreaks, die einen nahezu kostenlosen Zugang bieten. DAN steht für „Do Anything Now“ und ist seit den Anfängen von ChatGPT berüchtigt. Der Code wird ständig optimiert und es ist ein Katz-und-Maus-Spiel zwischen ChatGPT-Entwicklern und Jailbreakern.
Sophos schreibt, dass gehackte ChatGPT-Konten häufiger in Dark-Web-Foren verkauft werden. Das ist nicht überraschend. Allerdings ist unklar, an welche Zielgruppe sich diese Konten richten und was Käufer damit machen können. Experten vermuten, dass sie auf frühere Anfragen zurückgegriffen haben könnten, um an vertrauliche Informationen zu gelangen. Käufer können diesen Zugang auch nutzen, um eigene Anfragen zu stellen oder die Wiederverwendung von Passwörtern zu überprüfen.
Bisher war „Master of Criminal Law“ größtenteils leeres Gerede
Besonders interessant finden Sicherheitsexperten, dass Kriminalitätsmodelle in Foren zugänglich gemacht wurden und werden. Die bekanntesten sind WormGPT und FraudGPT.
WormGPT wurde im Juni dieses Jahres veröffentlicht und soll auf dem GPTJ-Modell basieren. Der Chatbot kostet 100 € pro Monat und 550 € pro Jahr. Der Entwickler stellte ihn jedoch im August wieder ein – angeblich wegen der breiten Medienaufmerksamkeit.
Er schrieb aber auch: „Letztendlich ist WormGPT nichts anderes als ein uneingeschränktes ChatGPT. Jeder im Internet kann bekannte Jailbreak-Techniken nutzen und die gleichen, wenn nicht bessere Ergebnisse erzielen“, schrieb Sophos, einige Forumsmitglieder vermuteten Betrug.
Ähnlich verhält es sich mit FraudGPT. Andere äußerten Zweifel an den Fähigkeiten des Modells. Ein Mitglied fragte im Chat, ob es ihnen wirklich möglich sei, Schadsoftware zu erstellen, die Antivirensoftware nicht erkennen könne. Er bekam eine klare Antwort.
Jede Malware wird einmal erkannt
Nein, das sei nicht möglich, hieß es. LLM kann das einfach nicht leisten. Sie werden nicht in der Lage sein, Code zu übersetzen oder Code zu „verstehen“, der über die Sprache hinausgeht, in der er geschrieben wurde. Ebenso gibt es laut den Autoren keine nicht erkennbare Schadsoftware. Jeder bösartige Code wird früher oder später offengelegt.
Es wurden auch Zweifel an der Echtheit und/oder Leistung aller anderen bisher aufgedeckten kriminellen Chatbots geäußert. Trend Micro schreibt, dass sie trotz aller Kontroversen davon ausgehen, dass WormGPT wahrscheinlich das einzige Beispiel für ein tatsächlich benutzerdefiniertes LLM ist.
Erfahrene Kriminelle warten, Drehbuchkinder feiern
Für erfahrene Cyberkriminelle besteht keine Notwendigkeit, „ein separates LLM wie ChatGPT zu entwickeln, da ChatGPT für ihre Bedürfnisse ausreicht“, so Trend Micro abschließend. Sie nutzen künstliche Intelligenz auf die gleiche Weise wie legitime Programmierer. Sophos fand auch kaum Hinweise auf den Einsatz künstlicher Intelligenz zur Generierung von Malware. Es wird nur als persönliches Angriffstool verwendet. Dies kann sich jedoch in Zukunft ändern. Ein Vorteil für erfahrene Cyberkriminelle besteht darin, dass sie jetzt mühelos Code verbessern und Malware in Computersprachen schreiben können, über die sie nicht viel wissen. Auch Sophos nutzte KI, um tägliche Programmieraufgaben zu erledigen oder seine Foren zu verbessern.
Beide Sicherheitsunternehmen sehen Probleme darin, dass der Einsatz künstlicher Intelligenz die Eintrittsbarriere für kriminelle Hacker senkt. Trend Micro sagt, dass jeder mit einem gebrochenen Moralkodex jetzt ohne Programmierkenntnisse mit der Entwicklung von Malware beginnen kann.
Quelle: www.ntv.de