Auch Cyberkriminelle haben das Potenzial vom Chatbot ChatGPT von OpenAI erkannt und begonnen, die künstliche Intelligenz zu nutzen, um schnell Hacking-Tools zu entwickeln. Diese Warnung gaben Cyber-Sicherheitsforscher Anfang des Jahres. Gegenüber Forbes berichtete ein Experte, der kriminelle Foren beobachtet, dass Betrüger ChatGPT testen, um damit andere Chatbots zu bauen, die sich als junge Frauen ausgeben, um Ziele zu umgarnen.
Viele der frühen ChatGPT-Nutzer hatten die Befürchtung bereits geäußert, dass die App, dazu in der Lage sein könnte, bösartige Software zu kodieren, die die Tastatureingaben der Nutzer ausspioniert oder Ransomware erstellt.
Gemäß dem Bericht des israelischen Sicherheitsunternehmens Check Point, überprüften sie einen Forenbeitrag, in dem ein Hacker, der zuvor Android-Malware verbreitet hatte, einen von ChatGPT geschriebenen Code vorstellte, der interessante Dateien stahl, sie komprimierte und über das Internet verschickte. Außerdem zeigte er ein weiteres Tool, das eine Hintertür auf einem Computer installierte und weitere Malware auf einen infizierten PC hochladen konnte. Es gibt auch Foreneinträge, indem Benutzer behaupten, sie hätten mit ChatGPT ihr erstes Skript überhaupt erstellt, um damit Dateien zu verschlüsseln. Ein solcher Code kann für völlig harmlose Zwecke benutzt werden. Mit einer kleinen Modifikation des Skripts, ist es aber auch möglich, den Computer einer Person zu verschlüsseln, ohne jegliche Interaktion des Benutzers.
Der Gründer des Cyber-Intelligence-Unternehmens Hold Security, Alex Holden, sagte, er habe beobachtet, dass Dating-Betrüger ChatGPT ebenfalls nutzen, um überzeugende Persönlichkeiten zu schaffen. Er sagte: “Sie planen, Chatbots zu erstellen, die sich meist als Mädchen ausgeben, um in Chats mit ihren Zielpersonen weiterzukommen”. Es sei der Versuch, Chats zu automatisieren.
Zurzeit sehen die von ChatGPT programmierten Tools noch “ziemlich einfach” aus. Laut Check Point ist es nur eine Frage der Zeit, bis “raffiniertere” Hacker einen Weg finden würden, die KI zu ihrem Vorteil zu nutzen. Rik Ferguson, Vice President of Security Intelligence beim amerikanischen Cybersicherheitsunternehmen Forescout, sagte, dass ChatGPT offenbar noch nicht in der Lage sei, etwas so Komplexes zu programmieren wie das, was in den letzten Jahren bei bedeutenden Hackerangriffen zu sehen war. Allerdings kann die App von OpenAI die Einstiegshürde für Neulinge in den illegalen Markt senken, indem es einfachere, aber ähnlich effektive Malware erstellt, so Ferguson weiter. Außerdem hält er es für möglich, das ChatGPT dazu dienen könnte, Websites und Bots zu erstellen, die die Nutzer dazu verleiten, ihre Daten weiterzugeben. Es könnte “die Erstellung und Personalisierung bösartiger Webseiten, gezielter Phishing-Kampagnen und auf Social Engineering basierender Betrügereien industrialisieren.”
Noch kann man nicht sagen, ob ChatGPT ein neues Lieblingswerkzeug der Teilnehmer im Dark Web werden wird. Check Point hat ChatGPT selbst nach Missbrauchsmöglichkeiten gefragt. Die Antwort darauf war, das Mißbrauch nicht ausgeschlossen werden kann und nennt mit der Erstellung von Phishing mails und Social Media posts auch Beispiele. Verweist gleichzeitig darauf, dass es nicht für den Missbrauch seiner Technologie verantwortlich ist und Schritte unternimmt, um diesen zu vermeiden. Der Chatbot nennt als Beispiel, dass die Benutzer zustimmen müssen, das die Services nicht für illegale oder schadende Aktivitäten verwendet werden dürfen. Ob das reicht, um Cyberkriminelle vom Missbrauch von ChatGPT abzuhalten?