Technik

WormGPT, der „böse Zwilling“ von ChatGPT, der für Cyberkriminalität eingesetzt wird

WormGPT, il "gemello cattivo" di ChatGPT usato per il cybercrimine thumbnail

Die Welt der künstlichen Intelligenz ist ein faszinierendes Terrain voller Potenzial, aber auch voller Fallstricke. Wir sprechen nicht über die möglichen Auswirkungen der Technologie auf die Arbeit der Zukunft, sondern über immer raffiniertere Cyber-Bedrohungen – und bereits vorhandene. Eine solche Bedrohung ist WurmGPTder „böse Zwilling“ von ChatGPT, der mithilfe von KI Hackerangriffe verschiedener Art durchführt.

WormGPT, wenn KI bei der Cyberkriminalität hilft

WurmGPT ist Gegenstand eines aktuellen Berichts der Sicherheitsforscher von SlashNext. Es handelt sich um eine „Black-Hat“-Alternative zum bekannten Dienst von OpenAI: Entwickelt von Cyberkriminellen, um ihre Untaten zu begehen. Basierend auf dem Sprachmodell GPT-JWormGPT wurde speziell für illegale Zwecke trainiert.

Die Modalitäten ähneln im Großen und Ganzen denen anderer generativer KIs. WormGPT bietet einen natürlichen Dialog, der dem menschlichen folgt. Dies dient insbesondere der Vereinfachung Erstellung von Phishing-Aktivitäten per E-Mail und Nachrichten auf Ihrem Smartphone. Der Bot kann Opfer mit Text- und Medieninhalten dazu verleiten, sie anzulocken infizierte Dateidownloads oder Ad-hoc-Fake-Websites. Oder es kann eine E-Mail Ihrer Bank oder eines Strom-, Gas- oder Internetanbieters simulieren, um Ihre Zugangsdaten zu stehlen.

Russische Hacker

Darüber hinaus fbietet Hackern Tipps und Ratschläge zum Betrug weniger computeraffine Benutzer. Kurz gesagt: Es macht alles, was wir von ChatGPT gewohnt sind, allerdings auf kriminelle Weise.

Kreative und kriminelle KI

Sogar legitime Tools wie ChatGPT von OpenAI und Bard von Google haben auf dem Papier das Potenzial, diese gefährlichen Texte zu erstellen. Tatsächlich haben sie dies in der Vergangenheit getan und dabei Schwachstellen in den Schutzsystemen der Unternehmen ausgenutzt. Doch die Entwickler blockierten diese Funktionen, sodass Cyberkriminelle ein alternatives Modell entwickeln mussten, mit dem das Problem umgangen werden konnte.

Auf diese Weise können Cyberkriminelle für das Wechselgeld von 60 Euro pro Monat oder 550 Euro für ein ganzes Jahr auf diesen Dienst zugreifen, wie Wired berichtet. Bescheidene Zahlen, zumal Hacker sie letztendlich mit dem Geld der Betrüger bezahlen.

Während Forscher versuchen, Lösungen für zu finden WormGPT stellt eine gefährliche Innovation dar, da es die potenzielle böswillige Nutzung von KI-Tools wie ChatGPT eindämmt. Der Zugriff aus einigen Foren für Hacker ist recht einfach und erfordert keine besonderen Computerkenntnisse.

generatives KI-Meta cm3leon min

WormGPT, der „böse Zwilling“ von ChatGPT, stellt im Jahr 2023 eine schnell wachsende Bedrohung für die Online-Sicherheit dar. Dieses Tool wurde speziell für böswillige Zwecke entwickelt und schürt Bedenken über den Missbrauch künstlicher Intelligenz. Cybersicherheitsunternehmen werden versuchen, darauf zu reagieren – vielleicht auch indem sie das Potenzial von KI nutzen.

In der Zwischenzeit müssen wir die gleiche Aufmerksamkeit schenken: Öffnen Sie keine verdächtigen E-Mails, laden Sie keine Anhänge herunter, bei denen Sie sich nicht sicher sind, und klicken Sie nicht auf Links, von denen wir nicht wissen, wohin sie führen. Um auf künstliche Intelligenz zu reagieren, braucht man einen gesunden Menschenverstand.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert