Online-Kriminelle haben durch Künstliche Intelligenz ein mächtiges neues Werkzeug erhalten. So wurde der KI-Chatbot Claude der Entwicklerfirma Anthropic bereits eingesetzt, um in Netzwerke einzudringen, Daten zu stehlen und sie zu analysieren. Zudem hätten die Angreifer die Software genutzt, um "psychologisch zielgerichtete" Erpressungsnachrichten an die Opfer zu verfassen, berichtete Anthropic. Der Angreifer habe damit gedroht, gestohlene Informationen zu veröffentlichen, und teilweise mehr als 500.000 Dollar von den Betroffenen gefordert.
Ziel der automatisierten Angriffe seien allein im vergangenen Monat 17 Unternehmen und Organisationen aus Bereichen wie Gesundheitswesen, Regierung und Religion gewesen, hieß es. Claude habe dabei beispielsweise nach Schwachstellen gesucht sowie bei der Entscheidung geholfen, wie ein Netzwerk am effektivsten angegriffen werden kann und welche Daten entwendet werden sollten.
Nordkoreaner machten Homeoffice für US-Firmen
Normalerweise hätte man für eine solche Aktion ein Team aus Spezialisten benötigt, sagte der zuständige Anthropic-Manager Jacob Klein dem Tech-Blog The Verge. Nun könne das eine Person mithilfe Künstlicher Intelligenz bewerkstelligen. Neuere KI-Systeme können auch als "Agenten" im Auftrag von Nutzern agieren und weitgehend eigenständig Aufgaben für diese erledigen.
Immer aktuell: Die Amazon-Bestseller im Bereich Laptops & Notebooks*
Anthropic listete in einem ausführlichen Bericht auch weitere Fälle auf, in denen Claude für Online-Kriminalität missbraucht wurde. So sei der Chatbot zum Einsatz gekommen, als sich Nordkoreaner Homeoffice-Jobs als Programmierer in US-Unternehmen erschlichen, um Geld für die Regierung zu beschaffen.
Sie hätten sich dabei auf die KI-Software verlassen, um mit ihren Arbeitgebern zu kommunizieren - und auch um ihre Aufgaben zu erledigen. Dabei hätten sie offenbar nicht genug Ahnung von Software-Entwicklung gehabt, um den Job ohne Hilfe von Claude auszuüben, stellte Anthropic fest. Früher habe Nordkorea dafür jahrelang Fachleute ausgebildet. "Aber durch KI fiel diese Einschränkung weg."
Betrug aus dem Chatbot
Außerdem entwickelten Cyberkriminelle mit Hilfe von Claude Betrugsmaschen, die sie im Netz zum Kauf anboten. Dazu gehörte laut Anthropic ein Bot für die Plattform Telegram zum Beziehungsbetrug - wobei den Opfern etwa eine romantische Verbindung vorgegaukelt wird, um Geld von ihnen zu ergaunern. Damit könne man Chats "mit hoher emotionaler Intelligenz" in verschiedenen Sprachen führen, hieß es.
Man habe zwar ausgeklügelte Maßnahmen gegen einen Missbrauch der KI-Software im Einsatz, betonte Anthropic. Online-Angreifer versuchten aber immer wieder, sie zu umgehen. Mit der Erfahrung aus den analysierten Fällen solle der Schutz verbessert werden.
- Hinweis: In der Redaktion sind wir immer auf der Suche nach tollen Angeboten und nützlichen Produkten für unsere Leser - nach Dingen, die uns selbst begeistern und Schnäppchen, die zu gut sind, um sie links liegenzulassen. Es handelt sich bei den in diesem Artikel bereitgestellten und mit einem Piktogramm beziehungsweise einem Einkaufswagen-Symbol, einem Ticket-Symbol, einem Hotel-/Reise-Symbol oder Sternchen gekennzeichneten Links um sogenannte Affiliate-Links/Werbelinks. Wenn du auf einen dieser Links klickst bzw. darüber einkaufst, bekommen wir eine Provision vom Händler, Anbieter oder Dienstleister. Für dich ändert sich dadurch nichts am Preis. Unsere redaktionelle Berichterstattung ist grundsätzlich unabhängig vom Bestehen oder der Höhe einer Provision.
- Ein Redakteur hat diesen Artikel unter Verwendung eines KI-Sprachmodells verfasst und/oder optimiert. Sämtliche Informationen wurden sorgfältig geprüft. Erfahre hier mehr über unsere KI-Richtlinien.