Wenn Künstliche Intelligenz Pakete erfindet…
Haben Sie schon mal von Slopsquatting gehört? Nein? Keine Sorge – das geht vielen so. Aber wenn Sie in der Softwareentwicklung oder IT-Sicherheit unterwegs sind, dann ist es höchste Zeit, sich diesen Begriff zu merken. Denn was sich dahinter verbirgt, ist brandaktuell – und ziemlich gefährlich.
In der modernen Entwicklung nutzen immer mehr Teams künstliche Intelligenz (wie GitHub Copilot oder ChatGPT), um schneller Code zu schreiben. Praktisch, oder? Doch diese cleveren Helfer haben eine Schwäche: Sie denken sich manchmal Dinge aus. Besonders tückisch wird’s, wenn die KI plötzlich eine Bibliothek empfiehlt, die es gar nicht gibt – ein sogenanntes „halluziniertes“ Paket.
Das Problem: Gute Idee – schlechte Realität
Und jetzt kommt der Trick: Cyberkriminelle scannen genau diese Vorschläge, registrieren die nicht existierenden Paketnamen, packen Schadcode rein – und warten. Der gutgläubige Entwickler installiert das Paket, das die KI vorschlägt, und hat sich damit Malware eingefangen. Ganz ohne böse Absicht. Nur durch Vertrauen in eine KI-Empfehlung.
Forscher haben herausgefunden, dass zwischen 5 und 20 % der von KI empfohlenen Pakete schlicht erfunden sind. Besonders brisant: Bei Wiederholungen nennt die KI oft dieselben erfundenen Namen. Das macht es Angreifern leicht, genau diese Namen gezielt zu kapern. So entsteht ein neuer Angriffsvektor in der Software-Lieferkette – Slopsquattingist geboren.
Was Sie tun können
Zum Glück lässt sich das Risiko reduzieren – mit ein paar einfachen Schritten:
Nicht blind vertrauen: Prüfen Sie jede vorgeschlagene Bibliothek – besonders, wenn sie unbekannt klingt. Gibt’s eine offizielle Quelle? Gibt’s Dokumentation? Vorsicht ist besser als Reue.
Security-Checks einbauen: Verwenden Sie Tools zur Prüfung von Abhängigkeiten, z. B. Dependency-Scanner, und nutzen Sie eigene Paket-Registries.
Entwickler sensibilisieren: Machen Sie das Thema in Ihrem Team bekannt. Eine kurze Schulung zum Thema kann bereits viel bewirken.
Klare Regeln für KI-Code: KI-generierter Code gehört nicht ungeprüft in den Produktivbetrieb. Punkt.
Ein Beispiel aus der Praxis
Ein Entwickler arbeitet mit einer KI an einem Python-Skript. Die KI schlägt vor, das Paket fastjsonparserx
zu installieren – klingt plausibel, existiert aber nicht. Ein Angreifer registriert dieses Paket, hängt einen Keylogger dran – und der Schaden ist da.
Fazit zum Slopsquatting
Slopsquatting ist ein neues, aber reales Risiko – entstanden an der Schnittstelle zwischen KI und Entwicklung. Wenn wir KI-Tools einsetzen, sollten wir sie nicht nur als Helfer, sondern auch als potenzielle Sicherheitsquelle betrachten. Wachsamkeit zahlt sich aus – denn manchmal ist das größte Problem genau das, was nicht existiert.
Quelle: https://www.bleepingcomputer.com/news/security/ai-hallucinated-code-dependencies-become-new-supply-chain-risk/?utm_source=chatgpt.com, https://en.wikipedia.org/wiki/Slopsquatting?utm_source=chatgpt.com