Künstliche Intelligenz in den Händen von Cyberkriminellen

Von Trend Micro

 

 

 

 

 

Im Jahr 2020 nutzten bereits 37% der Unternehmen und Organisation in irgendeiner Form Künstliche Intelligenz (KI) in ihren Systemen und Prozessen. KI) macht sich noch nie dagewesene Datenmengen zunutze und hat in allen Anwendungsbereichen Potenzial. Sie verspricht die Bewältigung einer Reihe komplexer globaler Herausforderungen. Maschinelles Lernen (ML), ein Teilbereich der KI, soll Computersysteme in die Lage versetzen, aus Daten zu „lernen“ — d.h. die Leistung bei einer bestimmten Aufgabe nach und nach zu verbessern, ohne dass explizite Anweisungen von Menschen erforderlich sind.

Zwar bringen KI- und ML-Algorithmen enorme Vorteile, doch gibt es auch eine Kehrseite der Medaille, denn sie sind ebenso für eine Reihe von digitalen, physischen und politischen Bedrohungen und Formen der Cyberkriminalität verantwortlich. In einem gemeinsamen Forschungsprojekt haben Trend Micro, das Interregionale Forschungsinstitut der Vereinten Nationen für Kriminalität und Justiz (UNICRI) sowie Europol verschiedene bösartige Szenarien untersucht, in denen heute und möglicherweise auch in Zukunft KI und ML eingesetzt werden. Des Weiteren befassten sich die Partner mit den möglichen Gegenmaßnahmen und Empfehlungen zur Minderung von Risiken, Bedrohungen und Angriffen, die von KI und ML ausgehen.

So können Kriminelle zum Beispiel KI einsetzen, um ihre Angriffe zu erleichtern und zu verbessern, um in kürzerer Zeit höhere Profite zu erzielen, neue Opfer auszubeuten und innovativere kriminelle Geschäftsmodelle zu entwickeln und gleichzeitig die Risiken zu verringern, erwischt zu werden.

Darüber hinaus wird KI, wenn es auch -as-a-Service sich zunehmend verbreitet die Eintrittshürden für kriminelle Taten senken, weil damit die für den Einsatz von KI erforderlichen Fähigkeiten und technischen Kenntnisse großenteils wegfallen.

Missbrauch von ML und KI heute

Der Einsatz von KI für höhere Effektivität von Malware steckt noch in den Kinderschuhen. Die Forschung wird immer noch akademisch vorangetrieben, und Angriffe sind meist theoretischer Natur und werden von Sicherheitsforschern als Machbarkeitsnachweis konzipiert. Dennoch unternehmen böswillige Akteure bereits Schritte in Richtung KI-gestützte oder KI-verstärkte Cyberangriffstechniken. Diese sollten weiterhin unter Beobachtung stehen, um sie zu stoppen und sich so früh wie möglich auf zukünftige Angriffe vorzubereiten, bevor die neuartigen Angriffe zunehmen.

Noch können Malware-Entwickler KI im Verborgenen nutzen, ohne von Forschern und Analysten entdeckt zu werden. Infolgedessen ist es nur möglich, nach sichtbaren Anzeichen zu suchen, die von KI-Malware-Aktivitäten erwartet werden können. Ein Typus von Malware-bezogenem KI-Exploit bedient sich KI-basierter Techniken, die darauf abzielen, die Wirksamkeit „traditioneller“ Cyberattacken zu verbessern. So gab es Vorführungen, wie eine Mail-Nachricht Spam-Filter umgehen kann, indem sie generative Grammatik zur Erzeugung eines großen Datensatzes von E-Mail-Texten mit hoher semantischer Qualität nutzen. Diese Texte werden dann zum Verwirren des Antispams verwendet. System und passen sich an verschiedene Spam-Filter an, um Inhalte zu identifizieren, die durch die Spam-Filter nicht mehr erkannt werden.

Eine der heute beliebtesten und sichtbarsten bösartigen Anwendungen von KI ist die „Deepfake“-Technologie, bei der KI-Techniken eingesetzt werden, um Audio- und visuelle Inhalte so zu gestalten oder zu manipulieren, dass sie authentisch erscheinen. Andere nennenswerte Beispiele sind Tools, die das reale Nutzerverhalten bei Diensten wie Spotify nachahmen können, um zu verhindern, dass gestohlene Konten gelöscht werden.

KI kann auch dazu missbraucht werden, um CAPTCHA-Sicherheitssysteme zu auszuschalten, die häufig auf Websites verwendet werden, um schädliche Aktivitäten zu verhindern. XEvil 4.0, ein Werkzeug, das neuronale Netzwerke zur Lösung von CAPTCHAs verwendet, wird in russischen Untergrundforen beworben und kann an Benutzer vermietet werden.

Künftiger Missbrauch von ML und KI

Zusätzlich zur schrittweisen Integration von KI-Techniken zur Verbesserung des Umfangs und der Größenordnung ihrer Cyberangriffe können Kriminelle KI sowohl als Angriffsvektor als auch als Angriffsfläche ausnutzen. Dank des service-basierten kriminellen Geschäftsmodells könnten die Entwicklung und der Vertrieb von KI-fähigen Toolkits in Untergrundmärkten weniger technologisch versierten Kriminellen erweiterte Möglichkeiten bieten.

Angriffe auf derzeitige KI-Engines sind denkbar, um die Entscheidungsfindung der KI-Engine zu beeinflussen. Dies betrifft insbesondere Schutzsysteme, wie Betrugserkennung, AV-Systeme oder Gesichtserkennung. Der Angreifer könnte die Engine oder die Datensätze korrumpieren, so dass ihre „Erkennungen“ nicht mehr vertrauenswürdig sind

Eine der künftigen Möglichkeiten von ML in den Händen Cyberkrimineller wäre der Missbrauch von ML-geleitete Bilderkennungstraining in selbst fahrenden Fahrzeugen. In einer von einer Sicherheitsfirma durchgeführten Untersuchung wurde ein kleines Stück schwarzes Klebeband auf einem Schild mit einer Geschwindigkeitsbegrenzung von 35 Meilen pro Stunde so angebracht, dass das Bilderkennungsmodell „35“ mit „85“ verwechselte.

KI-betriebene Gesichtserkennungsdrohnen, die ein Gramm Sprengstoff mit sich führen, werden derzeit entwickelt. Diese Drohnen sind speziell für Bombenangriffe auf Mikroziele oder Einzelpersonen gedacht. Sie werden in der Regel auch über das Mobilfunknetz betrieben und sind so konstruiert, dass sie wie Insekten oder kleine Vögel aussehen. Es ist davon auszugehen, dass diese Technologie in naher Zukunft von Kriminellen genutzt werden wird.

Empfehlungen

Ziel dieser Forschung ist es, Verantwortlichen die Auswirkungen von ML- und KI-aktivierten bösartigen Aktivitäten, Angriffen, Bedrohungen und Risiken vor Augen zu führen. Zudem kann die enge Zusammenarbeit zwischen der Industrie und der akademischen Welt dazu beitragen, das Bewusstsein für die potentielle Nutzung und den potentiellen Missbrauch der KI durch Kriminelle zu schärfen und einen Wissensfundus dazu zu entwickeln. Das Wissen über die Fähigkeiten, Szenarien und Angriffsvektoren mit ML und KI ist der Schlüssel zur Verbesserung der Abwehrbereitschaft, zur Erhöhung der Widerstandsfähigkeit und zur Gewährleistung der positiven Nutzung dieser Technologien.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.