Bösartiges KI-Tool FraudGPT wird im Dark Web verkauft und weckt Bedenken hinsichtlich der Cybersicherheit

Die Bedrohungslandschaft hat sich mit dem Aufkommen von generativen KI-Modellen dramatisch verändert. Nun hat ein weiterer Hacker ein bösartiges KI-Tool namens FraudGPT entwickelt, das speziell für Angriffszwecke wie die Erstellung von Speer-Phishing-E-Mails, Cracking-Tools, Grooming und mehr konzipiert ist. Das Tool, das derzeit auf verschiedenen Dark-Web-Marktplätzen und Telegram-Plattformen verkauft wird, ist angeblich "in der Lage, eine breite Palette von Cyberangriffs-Codes zu generieren" und wurde "in weniger als einer Woche bereits von mehr als 3.000 Käufern bestellt".

Die Bedrohungslandschaft, mit der wir konfrontiert sind, verändert sich mit der Popularität generativer KI-Modelle dramatisch. Ein aktueller Bericht enthüllt die Existenz einer neuen Art von KI namens FraudGPT Das neue Tool, das seit dem 22. Juli 2023 im Telegram-Kanal und auf derDarknetWeitverbreitet im Forum.

Das Bedrohungsforschungsteam von Netenrich hat dieses mögliche KI-Tool namens "FraudGPT" entdeckt. Dabei handelt es sich um einen KI-Bot, der speziell für Angriffe auf Ziele wie die Erstellung von hochmodernen Phishing-E-Mails, die Entwicklung von Cracking-Tools, das Durchkämmen und vieles mehr angepasst wurde. Das Tool wird derzeit auf Dark-Web-Marktplätzen und Telegram-Plattformen verkauft.

Bösartiges KI-Tool FraudGPT wird im Dark Web verkauft und weckt Bedenken hinsichtlich der Cybersicherheit

Bösartiges KI-Tool FraudGPT wird im Dark Web verkauft und weckt Bedenken hinsichtlich der Cybersicherheit

Das Tool ermöglicht es, eine E-Mail so zu verfassen, dass sie sehr glaubwürdig wirkt und den Empfänger dazu verleitet, auf den angegebenen bösartigen Link zu klicken. Diese raffinierte Taktik wird bei Phishing-Kampagnen, die auf Unternehmen abzielen, eine wichtige Rolle spielen (Business Email Compromise, BEC).

Bösartiges KI-Tool FraudGPT wird im Dark Web verkauft und weckt Bedenken hinsichtlich der Cybersicherheit

Dies hilft den Angreifern auch, sehr verlockende und bösartige E-Mails an ihre Ziele zu senden.

Bösartiges KI-Tool FraudGPT wird im Dark Web verkauft und weckt Bedenken hinsichtlich der Cybersicherheit

Wie Sie in der obigen Abbildung sehen können, ist es klar, dass das Tool auch dabei hilft, die gezieltesten Dienste/Websites zu finden, die das Opfer weiter täuschen können.

Bösartiges KI-Tool FraudGPT wird im Dark Web verkauft und weckt Bedenken hinsichtlich der Cybersicherheit

Die Abonnements beginnen bei 200 US-Dollar pro Monat und reichen bis zu 1.700 US-Dollar pro Jahr. Zu den Funktionen gehören das Schreiben von bösartigem Code, das Erstellen von nicht nachweisbarer Malware, das Auffinden von Nicht-VBV-Dumpstern, das Erstellen von Phishing-Seiten, das ErstellenHacker (Informatik) (Lehnwort)Tools, das Finden von Gruppen, Websites, Marktplätzen, das Schreiben von Betrugsseiten/-briefen, das Finden von Schlupflöchern, Exploits, das Erlernen von Coding/Hacking, das Finden von Websites, die für die Kartenherstellung verwendet werden können, das Anbieten von 24/7-Hosting und über 3.000 bestätigte Verkäufe/Reviews.

Einige Merkmale sind:

Bösartigen Code schreiben
Unerkennbare Malware erstellen
Finden Sie einen Nicht-VBV-Behälter
Erstellen von Phishing-Seiten
Erstellen von Hacking-Tools
Gruppen, Websites, Märkte finden
Schreiben von Betrugsseiten/Briefen
Auffinden von Schwachstellen und Schlupflöchern
Programmieren/Hacken lernen
Finden Sie einen kartierbaren Standort
Hosting 24/7 verfügbar
Über 3.000 bestätigte Verkäufe/Bewertungen

Bei der Verfolgung der Identitäten von Bedrohungsakteuren, die in Dark-Web-Foren registriert sind, haben wir festgestellt, dass ihre E-Mail-Adressen canadiankingpin12@gmail.com.

Ähnlich wie FraudGPT ist WormGPT, ein weiteres Tool, das am 13. Juli 2023 veröffentlicht wurde. Diese bösartigen Versionen von ChatGPT ziehen weiterhin Kriminelle und Personen mit geringen technischen Kenntnissen an, die versuchen, durch Angriffe auf unschuldige Opfer finanzielle Gewinne zu erzielen.

Im Laufe der Zeit werden Kriminelle ihre kriminellen Fähigkeiten verbessern, indem sie unsere eigenen innovativen Werkzeuge nutzen. Wir können zwar ChatGPT (und andere Tools) mit ethischen Sicherheitsvorkehrungen entwickeln, aber es ist nicht schwer, dieselben Techniken ohne diese Sicherheitsvorkehrungen zu reproduzieren.

In diesem Fall müssen wir uns nach wie vor auf Phishing konzentrieren, das das erste Mittel ist, mit dem Angreifer versuchen, Zugang zur Umgebung zu erhalten. Wir können herkömmliche Tools verwenden, um KI-gestütztes Phishing zu erkennen, und - was noch wichtiger ist - wir können auch die nachfolgenden Aktionen der Bedrohungsakteure verfolgen und erkennen.

Originalartikel von lyon, bei Vervielfältigung bitte angeben: https://cncso.com/de/fraudgpt-the-villain-avatar-of-chatgpt.html

Wie (0)
Vorherige 16. Juli 2023 um 12:36 Uhr
Weiter Montag, 1. August 2023 um 9:55 Uhr

Empfohlen