Machine Learning-Systeme mit Adversarial Samples aufrüsten

Originalartikel von Weimin Wu, Threat Analyst

Die Geschichte der Anti-Malware-Lösungen zeigt, dass für jede neue Erkennungstechnik Angreifer eine neue Vermeidungsmethode bereitstellen. Als signaturbasierte Erkennung entwickelt wurde, nutzten die Cyberkriminellen Packer, Kompressoren, Metamorphismus, Polymorphismus und Verschleierung, um nicht entdeckt zu werden. Mittlerweile haben sie API-Hooking und Code Injection im Arsenal, um Verhaltenserkennung zu umgehen. Als Sicherheitslösungen anfingen, Machine Learning (ML) einzusetzen, war zu erwarten, dass Cyberkriminelle neue Tricks dagegen entwickeln werden. Um den Bösen voraus zu sein, lässt sich ein ML-System über die Generierung von Adversarial Samples gegen die Vermeidungstaktiken aufrüsten.

Es geht dabei um Input-Daten, die so modifiziert werden, dass das ML-System sie nicht korrekt klassifiziert. Interessanterweise können diese Adversarial Samples, die darauf ausgerichtet sind, ML-Systeme zu Fehlfunktionen zu verleiten, deren Effizienz verbessern.

Robuste maschinelle Lernsysteme durch Adversarial Samples

Adversarial Samples können dazu beitragen, Schwächen in einem ML-Modell zu erkennen, und wertvolle Einsichten für die Verbesserung des Modells zu gewinnen. Durch die Verwendung einer Vielzahl von Samples, die im Vergleich zur ursprünglichen Malware verändert wurden, ist es möglich, die Leistungsfähigkeit eines ML-Systems immer wieder zu testen und so ein ML-System umzutrainieren und es zu stärken.

Bild 1. Einsatz von Adversarial Sample und KI zur Stärkung eines ML-Systems

Zu Beginn der Trend Micro-Forschung an einem System zur Generierung von Adversarial Samples ergaben sich hohe Wahrscheinlichkeitswerte. Wenn eine Datei mit einem hohen Wahrscheinlichkeitswert erkannt wird, bedeutet dies, dass sie mehr Ähnlichkeiten mit den Malware-Samples im ML-Trainingsset aufweist. Ziel ist es, die hohe Wahrscheinlichkeit zu verringern, indem das Malware-Sample so lange modifiziert wird, bis es unentdeckt bleibt. Im Erfolgsfall bedeutet dies, dass die Sicherheitsforscher eine Schwachstelle im ML-System identifiziert haben und überlegen können, wie diese Schwachstelle zu beheben ist, z. B. über die Identifizierung neuer Funktionen, die Suche nach verwandter Malware oder die Verwendung anderer Komponenten zur Identifizierung solcher Varianten.

Bei der Erstellung von Adversarial Samples müssen zwei Faktoren beachtet werden: Zum einen geht es darum herauszufinden, wie eine PE-Datei sicher geändert werden kann, ohne sie zu beschädigen, und zum anderen muss eine Methode gefunden werden, um nicht erkannte Samples effizient zu generieren. Letzteres lässt sich mit KI erreichen. Details zur Forschungsarbeit enthält der Originalbeitrag.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.