WormGPT, benannt nach dem beliebten Chatbot von OpenAI, wurde entwickelt, um Hackern bei der Durchführung von Phishing-Angriffen im großen Stil zu helfen.
Ein Tool im Stil von ChatGPT, das entwickelt wurde, um Cyberkriminellen zu helfen, wird Hackern ermöglichen, deutlich ausgefeiltere Angriffe in größerem Maßstab zu entwickeln, warnen Forscher.
Die Schöpfer von WormGPT haben es als eine Art Äquivalent zum beliebten KI-Chatbot von OpenAI bezeichnet, der menschenähnliche Antworten auf Fragen generieren kann. Doch im Gegensatz zu ChatGPT verfügt es nicht über eingebaute Schutzmechanismen, um den Missbrauch der Technologie zu verhindern.
Der Chatbot wurde von der Cybersecurity-Firma Slash Next und dem ehemaligen Hacker Daniel Kelley entdeckt, der Anzeigen für die Malware auf Cybercrime-Foren gefunden hat.
Während KI erhebliche Fortschritte im Gesundheitswesen und in der Wissenschaft ermöglicht, können große KI-Modelle aufgrund ihrer Fähigkeit, riesige Datenmengen sehr schnell zu verarbeiten, auch Hackern dabei helfen, immer ausgefeiltere Angriffe zu entwickeln.
ChatGPT hatte in den ersten beiden Monaten nach seiner Einführung im letzten November 100 Millionen Nutzer verzeichnet. Der Erfolg des Chatbots veranlasste andere große Technologieunternehmen, ihre eigenen großen Sprachmodelle wie Googles Bard oder Metas LLaMA 2 öffentlich zu machen.
Wie WormGPT funktioniert
Hacker nutzen WormGPT, indem sie ein Abonnement im Dark Web abschließen. Daraufhin erhalten sie Zugang zu einer Webseite, auf der sie Eingabeaufforderungen eingeben und menschenähnliche Antworten erhalten können. Die Malware ist hauptsächlich für Phishing-E-Mails und Business-E-Mail-Kompromittierungsangriffe entwickelt worden.
Hierbei handelt es sich um eine Form von Phishing-Angriff, bei der ein Hacker versucht, Mitarbeiter dazu zu bringen, Geld zu überweisen oder sensible Informationen preiszugeben.
Tests, die von Forschern durchgeführt wurden, ergaben, dass der Chatbot eine überzeugende E-Mail von einem Vorstandsvorsitzenden eines Unternehmens schreiben konnte, in der ein Mitarbeiter aufgefordert wurde, eine betrügerische Rechnung zu bezahlen.
Er greift auf eine breite Palette von von Menschen verfassten Texten zurück, was bedeutet, dass der von ihm erstellte Text glaubwürdiger ist und dazu verwendet werden kann, eine vertrauenswürdige Person im Geschäftssystem zu imitieren.
Herr Kelley sagte, dass es keine direkte Gefahr für persönliche Daten gebe, fügte jedoch hinzu: „WormGPT stellt eine indirekte Gefahr für persönliche Daten dar, da es verwendet werden kann, um Angriffe zu erleichtern, die Angreifer starten möchten, die auf persönliche Daten abzielen, wie Phishing- oder Business-E-Mail-Kompromittierungsangriffe.“
Die Forscher empfehlen Unternehmen, ihre E-Mail-Verifizierungssysteme zu verbessern, indem sie nach Wörtern wie „dringend“ oder „Überweisung“ suchen, die oft in diesen Angriffen verwendet werden.
Eine Verbesserung der Schulung der Mitarbeiter, um zu verstehen, wie KI von Hackern eingesetzt werden kann, könnte helfen, Angriffe zu erkennen, fügten sie hinzu.