+49 6201 8725124 info@suhling.biz

    Wenn Künstliche Intelligenz Pakete erfindet…

    Haben Sie schon mal von Slopsquatting gehört? Nein? Keine Sorge – das geht vielen so. Aber wenn Sie in der Softwareentwicklung oder IT-Sicherheit unterwegs sind, dann ist es höchste Zeit, sich diesen Begriff zu merken. Denn was sich dahinter verbirgt, ist brandaktuell – und ziemlich gefährlich.

    In der modernen Entwicklung nutzen immer mehr Teams künstliche Intelligenz (wie GitHub Copilot oder ChatGPT), um schneller Code zu schreiben. Praktisch, oder? Doch diese cleveren Helfer haben eine Schwäche: Sie denken sich manchmal Dinge aus. Besonders tückisch wird’s, wenn die KI plötzlich eine Bibliothek empfiehlt, die es gar nicht gibt – ein sogenanntes „halluziniertes“ Paket.

    Das Problem: Gute Idee – schlechte Realität

    Und jetzt kommt der Trick: Cyberkriminelle scannen genau diese Vorschläge, registrieren die nicht existierenden Paketnamen, packen Schadcode rein – und warten. Der gutgläubige Entwickler installiert das Paket, das die KI vorschlägt, und hat sich damit Malware eingefangen. Ganz ohne böse Absicht. Nur durch Vertrauen in eine KI-Empfehlung.

    Forscher haben herausgefunden, dass zwischen 5 und 20 % der von KI empfohlenen Pakete schlicht erfunden sind. Besonders brisant: Bei Wiederholungen nennt die KI oft dieselben erfundenen Namen. Das macht es Angreifern leicht, genau diese Namen gezielt zu kapern. So entsteht ein neuer Angriffsvektor in der Software-Lieferkette – Slopsquattingist geboren.

    Was Sie tun können

    Zum Glück lässt sich das Risiko reduzieren – mit ein paar einfachen Schritten:

    • Nicht blind vertrauen: PrĂĽfen Sie jede vorgeschlagene Bibliothek – besonders, wenn sie unbekannt klingt. Gibt’s eine offizielle Quelle? Gibt’s Dokumentation? Vorsicht ist besser als Reue.

    • Security-Checks einbauen: Verwenden Sie Tools zur PrĂĽfung von Abhängigkeiten, z. B. Dependency-Scanner, und nutzen Sie eigene Paket-Registries.

    • Entwickler sensibilisieren: Machen Sie das Thema in Ihrem Team bekannt. Eine kurze Schulung zum Thema kann bereits viel bewirken.

    • Klare Regeln fĂĽr KI-Code: KI-generierter Code gehört nicht ungeprĂĽft in den Produktivbetrieb. Punkt.

    Ein Beispiel aus der Praxis

    Ein Entwickler arbeitet mit einer KI an einem Python-Skript. Die KI schlägt vor, das Paket fastjsonparserx zu installieren – klingt plausibel, existiert aber nicht. Ein Angreifer registriert dieses Paket, hängt einen Keylogger dran – und der Schaden ist da.

    Fazit zum Slopsquatting

    Slopsquatting ist ein neues, aber reales Risiko – entstanden an der Schnittstelle zwischen KI und Entwicklung. Wenn wir KI-Tools einsetzen, sollten wir sie nicht nur als Helfer, sondern auch als potenzielle Sicherheitsquelle betrachten. Wachsamkeit zahlt sich aus – denn manchmal ist das größte Problem genau das, was nicht existiert.

    Quelle: https://www.bleepingcomputer.com/news/security/ai-hallucinated-code-dependencies-become-new-supply-chain-risk/?utm_source=chatgpt.com, https://en.wikipedia.org/wiki/Slopsquatting?utm_source=chatgpt.com