KIs wie ChatGPT sind in der Lage, brauchbare Texte zu generieren. Doch Filter und andere Sicherheitsvorkehrungen sollen die Nutzung für kriminelle Zwecke verhindern. Bei WormGPT ist das anders, erläutern die Experten der 8com GmbH & Co. KG.
Künstliche Intelligenzen (KI) haben in den letzten Jahren enorm dazugelernt. Klangen KI-generierte Texte noch bis vor kurzem im besten Fall hölzern und im schlimmsten Fall unverständlich, sind KI wie ChatGPT jetzt in der Lage, Texte zu erstellen, die kaum noch von denen eines menschlichen Autors zu unterscheiden sind. Das lockt auch Kriminelle auf den Plan, die ihre Phishing-Mails mit Hilfe der KI verbessern und Schadsoftware in Auftrag geben wollen, oder die KI nach Fehlern im Code von Webseiten suchen lassen, die sich für Hackerangriffe ausnutzen lassen.
Doch dabei gibt es ein Problem: KI sind immer nur so gut wie das eingespeiste Trainingsmaterial – und natürlich wollen die Entwickler von ChatGPT und Co. nicht, dass ihre Technik für Hackerangriffe genutzt wird. Auf den Einsatz von Hacking-spezifischen Daten wird daher beim Training der KI verzichtet und es werden Sicherheitsmaßnahmen ergriffen und Filter eingebaut, die verhindern sollen, dass Cyberkriminelle von der Technologie profitieren.
Es war jedoch nur eine Frage der Zeit, bis findige Geschäftsmänner eine eigene KI für Cyberkriminelle im Darknet anbieten – und genau das ist mit WormGPT nun auch geschehen. WormGPT ist ein KI-Modell, das auf GPT-J basiert, einem großen Sprachmodell, das von EleutherAI im Jahr 2021 entwickelt wurde. Es verfügt über unbegrenzte Zeichenunterstützung, Chat-Speicher und Code-Formatierungsfunktionen. Durch die Nutzung ohne entsprechende Sicherheitsfilter ist ein KI-Service entstanden, der ein beträchtliches Sicherheitsrisiko darstellt.
So kann WormGPT beispielsweise für sogenannte Business-E-Mail-Compromise-Angriffe (BEC) eigensetzt werden. Bei dieser Phishing-Variante sollen Mitarbeiter von Unternehmen unter diversen Vorwänden dazu verleitet werden, den Kriminellen große Summen an Geld auszuhändigen oder vertrauliche Unternehmensdaten preiszugeben – und genau darauf wurde WormGPT von seinen Entwicklern trainiert. Darüber hinaus kann die KI auch den Inhalt der Phishing-Mails mit Hilfe von Data Scraping und Social-Engineering-Techniken auf das angegebene Ziel personalisieren. Beim Data Scraping werden Informationen aus Websites oder Datenbanken extrahiert. Dazu können beispielsweise Informationen von der Website eines Unternehmens oder aus sozialen Medien gesammelt werden.
Hacker werben in cyberkriminellen Foren für WormGPT und nutzen es, um ausgeklügelte und personalisierte Phishing-Angriffe zu starten. So wird beispielsweise dazu geraten, Phishing-Mails in der eigenen Muttersprache zu verfassen, diese dann maschinell in die Zielsprache zu übersetzen und im Anschluss die KI zu nutzen, um Verbesserungen vorzunehmen und die E-Mail glaubhafter zu gestalten. So ließen sich perfekte E-Mails für Phishing-Kampagnen erstellen, ohne dass man einer Fremdsprache mächtig sein müsse.
Im Gegensatz zu legitimen KI-Systemen wie ChatGPT ist WormGPT nicht im „normalen“ Internet verfügbar. Wer die Hacker-KI nutzen will, muss sich im Darkweb auf der Seite der Hintermänner registrieren und eine Gebühr in einer Kryptowährung zahlen, um Zugang zu erhalten. Das sollte man jedoch tunlichst vermeiden, denn fast überall auf der Welt ist es verboten, KI für kriminelle Zwecke einzusetzen. Wer dabei erwischt wird, sollte sich auf Geld- oder gar Freiheitsstrafen einstellen.
Kommentare