Cyberkriminelle verwenden ChatGPT, um Malware zu codieren

click fraud protection

Cybersicherheitsforscher haben detailliert beschrieben, wie das Chat-GPT-KI-Tool von Open AI von Cyberkriminellen verwendet wird, um Malware und Hacking-Tools zu erstellen.

Cybersicherheitsforscher haben detailliert beschrieben, wie Cyberkriminelle sie verwenden KI öffnen'S ChatGPT KI-Tool zum Erstellen gefährlicher Malware. Seit das ChatGPT-KI-Tool wurde veröffentlicht Letzten Monat öffentlich gemacht, haben Social-Media-Nutzer ihre Erfahrungen damit gepostet, darunter viele Screenshots, die zeigen, wie sie das Tool zum Schreiben von Artikeln, Gedichten, Drehbüchern usw. verwenden mehr. Viele verwenden es auch, um Codeschnipsel zu schreiben, was beweist, dass die Software weit genug entwickelt ist, um viele Dinge zu tun, die Menschen können.

Laut Cybersicherheitsforschern aus Checkpoint-Forschung (CPR) verwenden einige Mitglieder unterirdischer Hacking-Communities ChatGPT, um bösartigen Code zu schreiben, der für Cyberangriffe verwendet werden kann. Während einige dieser Malware-Ersteller Black-Hat-Hacker sind, die das Tool verwenden, um ihren bösartigen Code zu schärfen und

raffiniertere Malware erstellen, können sogar Benutzer ohne Programmierkenntnisse oder -erfahrung das neue KI-basierte Tool verwenden, um bösartige Software zu erstellen.

ChatGPT wird zum Schreiben von Malware verwendet

Die Forscher lieferten Beispiele dafür, wie Hacker ChatGPT verwenden, um bösartige Hacking-Tools zu erstellen. Ende Dezember erklärte ein Hacker in einem Thread in einem unbenannten Untergrund-Hacking-Forum, wie es ihnen ging in der Lage, Python-basierte, Informationen stehlende Malware mit in der Forschung beschriebenen Techniken zu erstellen Veröffentlichungen. Dem Poster zufolge kopiert die Malware Dokumente und Bilder auf dem kompromittierten System, bevor sie sie auf einen von Hackern betriebenen Server hochlädt.

Sie enthüllten auch, dass sie Java-basierte Malware erstellt haben, die Schadsoftware herunterladen und ausführen kann Software remote auf kompromittierten Systemen. Ein anderer Poster behauptete, dass sie ChatGPT auch benutzten, um ein Python-Skript zu schreiben, von dem sie behaupteten, es sei das erste Skript, das sie jemals mit dem KI-Tool erstellt hätten. Laut CPR-Forschern ist das Skript darauf ausgelegt, Dateien zu verschlüsseln und zu entschlüsseln, was möglicherweise in Ransomware umgewandelt werden kann.

Das Erstellen von Code mit der Absicht, ihn für illegale Aktivitäten zu verwenden, verstößt gegen die Nutzungsbedingungen von Open AI. Derzeit scheint es jedoch keine Möglichkeit zu geben, gegen böswillige Akteure vorzugehen, da alle in Foren geteilten Codebeispiele auf harmlose Weise verwendet werden können. Sie können jedoch auch leicht modifiziert werden als Ransomware verwendet werden (oder andere Formen von Malware) mit nur ein wenig mehr Arbeit. ChatGPT kann für die meisten Benutzer ein großartiges Tool sein. Aber es kann auch zu einem gefährlichen Werkzeug in den Händen der falschen Leute werden, was nur eine der vielen Warnungen ist, die Forscher haben, wenn es um die Verbreitung von KI-Werkzeugen wie OpenAI geht ChatGPT und andere Produkte.

Quelle: Checkpoint-Forschung