Die rasante Entwicklung von künstlicher Intelligenz (KI) hat innovative Anwendungen wie ChatGPT hervorgebracht, die im täglichen Leben eine immer größere Rolle spielen. Doch die gleiche Technologie, die nützliche Dienste bietet, kann auch missbraucht werden. Ein besorgniserregendes Beispiel ist WormGPT, eine Abwandlung von ChatGPT, die mit dem Ziel entwickelt wurde, schädliche Aktivitäten durchzuführen.
Dieses Programm, das als „bösartiger Zwilling“ von ChatGPT beschrieben werden könnte, ist darauf ausgerichtet, Sicherheitssysteme zu untergraben und für kriminelle Zwecke genutzt zu werden. Es hat bereits Anwendung in der Erstellung von Phishing-Mails gefunden, die darauf abzielen, ahnungslose Nutzer zu betrügen und sensible Informationen zu stehlen.
WormGPT: Mehrsprachiger KI-Chatbot für Cyberkriminelle
WormGPT ist eine bösartige Variante eines KI-Chatbots, entwickelt auf Basis des quelloffenen Großsprachenmodells GPT-J. Dieser Bot kann Texte in mehreren Sprachen wie Englisch, Französisch, Chinesisch, Russisch, Italienisch und Spanisch interpretieren und generieren.
Im Gegensatz zu herkömmlichen Modellen wurde WormGPT speziell mit Daten trainiert, die auf Malware bezogen sind. Er unterliegt keinerlei Moderationsrichtlinien, was ihn besonders gefährlich macht, da er zur Erstellung von Phishing-Mails und anderen schädlichen Codes eingesetzt werden kann.
Ein beunruhigendes Beispiel für seine Fähigkeiten wurde auf sozialen Medien von den Entwicklern selbst präsentiert, als sie demonstrierten, wie WormGPT ein Python-Skript erzeugte, das darauf abzielte, den Betreiber einer Handynummer zu identifizieren. Diese Fähigkeit zeigt, wie leicht WormGPT für hinterhältige Zwecke missbraucht werden kann.
Grundlegende Unterschiede zwischen ChatGPT und WormGPT
ChatGPT, ein von OpenAI entwickeltes legitimes großes Sprachmodell, wurde im November 2022 eingeführt und arbeitet streng nach Richtlinien zur Inhaltsmoderation. Diese Vorschriften sind dazu gedacht, den Missbrauch der Technologie zu verhindern, indem sie die Verbreitung von Hassrede und Fehlinformationen einschränken und den Einsatz für die Erstellung schädlicher Inhalte unterbinden.
Im Gegensatz dazu steht WormGPT, ein für kriminelle Zwecke modifiziertes Modell, das ohne solche Sicherheitsvorkehrungen konzipiert wurde. WormGPT wird vornehmlich zur Erzeugung von BEC- und Phishing-Angriffen eingesetzt und weist keinerlei Inhaltsmoderationsrichtlinien auf, obwohl behauptet wird, dass es auch zur Erkennung solcher Angriffe genutzt werden könnte. Diese Freiheit macht es zu einem Werkzeug, das leicht für böswillige Zwecke adaptiert werden kann.
Zwar bemüht sich OpenAI darum, durch Inhaltsmoderation die missbräuchliche Nutzung von ChatGPT zu begrenzen, doch haben findige Cyberkriminelle Wege gefunden, diese Einschränkungen zu umgehen. Sie nutzen kreatives Prompt Engineering und sogenannte Jailbreaks, um die Richtlinien zu umschiffen und dennoch bösartigen Content zu erstellen. Ein Beispiel hierfür ist die auf Reddit entwickelte Do Anything Now (DAN) Methode, die es ermöglicht, den Assistenten für unzulässige Inhalte einzusetzen.
Diese unterschiedlichen Ansätze verdeutlichen, dass großsprachige Modelle wie WormGPT von Cyberkriminellen als ein einfaches Mittel angesehen werden, um ohne spezifische Vorkenntnisse komplexe Cyberangriffe durchzuführen. Organisationen wie Europol haben bereits auf die wachsenden Gefahren solcher manipulierten KI-Systeme hingewiesen und vor ihrer potenziellen Rolle in künftigen kriminellen Unternehmungen gewarnt.
Die Rolle von WormGPT bei der Erstellung überzeugender Phishing-Mails
WormGPT hebt das Niveau von Phishing-Mails signifikant. Bisherige Phishing-Versuche waren häufig durch Rechtschreibfehler oder sprachliche Unstimmigkeiten erkennbar, was nun mit der Verwendung von WormGPT fast gänzlich entfällt. Dieses Sprachmodell imitiert die menschliche Schreibweise so präzise, dass die E-Mails täuschend echt wirken und kaum noch von offiziellen Kommunikationen zu unterscheiden sind.
Die Herausforderung, solche E-Mails zu identifizieren, ist damit erheblich gestiegen, wie auch Erfahrungen aus Phishing-Simulationen und Live Hacking Shows belegen. In Sicherheitstrainings wird nun verstärkt auf die Merkmale von KI-gestützten Phishing-Angriffen eingegangen, um effektive Erkennungsstrategien zu vermitteln.
Ein weiteres Problem stellt die psychologische Dimension dar, die WormGPT in die Formulierungen einfließen lässt. Tests von Sicherheitsforschern haben gezeigt, dass die von der KI generierten Texte gezielt Druck auf die Empfänger ausüben, indem sie besonders durchdachte und wirkungsvolle Formulierungen wählen. Dies erhöht den Zwang und die Überzeugungskraft der Nachrichten, wodurch die Unterscheidung von echten E-Mails zunehmend schwieriger wird.
Risiken durch Phishing-Mails reduzieren
Angesichts der kontinuierlichen Entwicklung von WormGPT und ähnlichen Technologien ist mit einer Zunahme von KI-generierten Phishing-Angriffen und Malware zu rechnen. Wie finanznewsonline.de berichtet, nehmen die finanziellen Schäden durch entsprechende Angriffe somit kontinuierlich zu. Organisationen stehen daher vor der Herausforderung, ihre Abwehrmaßnahmen entsprechend zu verstärken.
Um sich gegen solche Bedrohungen zu wappnen, können Unternehmen mehrere präventive Schritte unternehmen. Dazu gehören unter anderem regelmäßige Schulungen und Phishing-Simulationen, die Mitarbeitern die Fähigkeiten vermitteln, betrügerische E-Mails zu erkennen. Es ist ebenso wichtig, die Belegschaft anzuhalten, keine Links oder Anhänge aus Nachrichten unbekannter Herkunft zu öffnen.
Die Implementierung von Multi-Faktor-Authentifizierung (MFA) ist eine weitere effektive Methode, um das Risiko von Identitätsdiebstahl zu verringern. Ein festgelegtes Meldeverfahren für verdächtige Kommunikation hilft dem Sicherheitsteam, schnell zu reagieren. Die Konfiguration von DMARC-Protokollen schützt zusätzlich vor Domain-Spoofing. Schließlich ist die Installation von Spam-Filtern und Anti-Malware-Software auf Endgeräten unerlässlich, um die Wahrscheinlichkeit zu minimieren, dass Phishing-Mails die Mitarbeiter erreichen und Schäden anrichten.
Keine Kommentare bisher