WatchGuard Blog

GhostGPT: Der neue bösartige Chatbot und seine Auswirkungen auf die IT-Sicherheit

Es ist es nicht überraschend, dass Cyberkriminelle das Potenzial der generativen künstlichen Intelligenz nutzen, um ihre Angriffe zu verstärken. Das Aufkommen neuer Modelle, die speziell der raschen Generierung von Bedrohungen dienen, macht es böswilligen Akteuren noch einfacher.

Ende 2024 entdeckten Forscher einen neuen KI-Chatbot, der für cyberkriminelle Zwecke entwickelt wurde. Dieses Modell namens GhostGPT stattet Angreifer mit beispiellosen Fähigkeiten aus, die es ihnen ermöglichen, ausgefeilte Phishing-E-Mails und Malware mit einer Leichtigkeit und Geschwindigkeit auf den Weg zu bringen, die noch vor wenigen Jahren undenkbar gewesen wäre.

Dies ist möglich, weil hier keine Einschränkungen wie bei anderen Modellen – beispielsweise ChatGPT – gelten, die entlang ethischer Richtlinien und mithilfe von Sicherheitsfiltern bösartige Anfragen blockieren. Wahrscheinlich handelt es sich bei GhostGPT um einen Wrapper, also eine Schnittstelle oder eine zusätzliche Schicht, die auf ein bestehendes KI-Modell gelegt wird. Diese ist mit einer Jailbroken-Version von ChatGPT oder einem Open-Source-LLM verbunden, wodurch sich ethische Schutzmaßnahmen aus der Gleichung entfernen lassen.

4 Hauptrisiken dieses Chatbots für Unternehmen

GhostGPT protokolliert keine Benutzeraktivitäten und legt Wert auf Anonymität. Dies ist besonders attraktiv für böswillige Akteure, die bei der Nutzung des Chatbots unter dem Radar bleiben wollen. Die Zugänglichkeit und das Fehlen von Kontrollen machen ihn zu einem äußerst gefährlichen Werkzeug, das in der Lage ist, illegale Aufgaben zu automatisieren und zu beschleunigen, für die zuvor deutlich mehr Know-how oder Zeit erforderlich waren. Cyberkriminelle können GhostGPT für folgende Zwecke nutzen:

  1. Personalisiertes Phishing und Massen-Phishing: GhostGPT ist in der Lage, überzeugende und personalisierte E-Mails zu erstellen, die je nach Kontext des Opfers den passenden Ton und Stil imitieren. Darüber hinaus ist ein Angreifer in der Lage, innerhalb weniger Minuten Hunderte von angepassten Varianten zu generieren und so die Reichweite und Geschwindigkeit seiner Angriffe zu erhöhen. Um dem entgegenzuwirken, können Unternehmen – sofern sie über die entsprechenden Ressourcen verfügen – ihren Mitarbeitenden Schulungen zur Sensibilisierung für Phishing anbieten. Entsprechende Trainings helfen den Mitarbeitern, Phishing-Versuche zu erkennen und darauf zu reagieren, wodurch sich die Wahrscheinlichkeit erfolgreicher Angriffe verringert.
  2. Diebstahl von Zugangsdaten und unberechtigter Zugriff: GhostGPT erleichtert auch den Diebstahl von Zugangsdaten. Mit einer einfachen Eingabeaufforderung können gefälschte Anmeldeseiten erstellt werden, die von den echten Seiten kaum zu unterscheiden sind. Diese Fälschungen lassen sich dann gezielt in Phishing-Kampagnen einsetzen.
  3. Polymorphe Malware und Schadcode: Die Fähigkeit dieses Tools, bei Bedarf bösartigen Code zu schreiben, ermöglicht es ungeschulten Cyberkriminellen, einfache Malware und sogar funktionsfähige Ransomware zu erstellen. Besonders besorgniserregend ist die Gefahr, die von KI-generierter polymorpher Malware ausgeht, die ihren Code ständig ändert, um der Erkennung durch Antivirenprogramme zu entgehen.
  4. Optimierung der Angriffsstrategie und Anleitung: Der Chatbot steht Hackern zugleich beratend zur Seite und gibt ihnen detaillierte Anweisungen, wie sie Angriffe noch effektiver durchführen können. Dies umfasst beispielsweise Anleitungen zur Einrichtung von Command-and-Control-Servern für Malware-Kampagnen, zur Umgehung von Sicherheitslösungen oder zur Ausnutzung bestimmter Schwachstellen.

Wie kann man sich vor solchen Angriffen schützen?

Angesichts dieses Szenarios scheint alles verloren. Es gibt jedoch Maßnahmen, die Unternehmen ergreifen können, um die Risiken zu mindern und zu verhindern, dass ein Chatbot wie GhostGPT zu einer Bedrohung für die Cybersicherheit wird. Dabei gilt es, gute Sicherheitspraktiken mit fortschrittlichen technologischen Lösungen zu kombinieren.

Zunächst ist es wichtig, die Systeme auf dem neuesten Stand zu halten und Zero-Trust-Prinzipien anzuwenden, um die Angriffsfläche zu verringern. Aus technologischer Sicht erhöht die Implementierung von Multifaktor-Authentifizierung (MFA) den Zugriffsschutz, während der Einsatz von DNS-Filtern hilft, Phishing-Angriffe zu verhindern.

Der Einsatz von KI-basierten Erkennungswerkzeugen wie Endpoint Detection and Response (EDR) oder Extended Detection and Response (XDR) verbessert die Fähigkeit, Anomalien zu erkennen, die durch automatisierte Angriffe verursacht werden. Ebenso helfen Threat Intelligence-Lösungen dabei, neue Taktiken zu antizipieren und den Schutz in Echtzeit zu aktualisieren.

Kurzum: Durch die Implementierung eines mehrschichtigen Sicherheitsansatzes und die Integration von defensiver KI können Unternehmen Angriffe durch GhostGPT und andere bösartige KI-Systeme effektiver abwehren.

Wenn Sie mehr über den Einsatz von KI zur Stärkung der Abwehr erfahren möchten, sollten Sie die folgenden Beiträge in unserem Blog nicht verpassen: