Angriffe mit Deepfakes werden Realität

Originalartikel von Rik Ferguson, VP, Security Research

Die ersten missbräuchlichen Einsätze von Video-Deepfakes sind möglicherweise schon Wirklichkeit. Damit wird eine der Vorhersagen von Trend Micro zur bedrohlichen Realität. Wir warnen schon seit einigen Jahren vor der zunehmenden technischen Raffinesse von so genannten „Deepfakes“ – also KI-gestützte Audio- und Videoinhalte, die Nutzer vortäuschen wollen, es handele sich um Tatsachen. Leider könnten die Ereignisse von vor ein paar Tagen zeigen, wie weit diese Technologie bereits gekommen ist.

Was war passiert? Der Betrug ging auf Kosten einer Reihe hochrangiger europäischer Abgeordneter aus Großbritannien, Lettland, Estland, Litauen und den Niederlanden, die in den letzten Tagen von Personen kontaktiert wurden, die anscheinend Deepfake-Filter verwendeten, um russische Oppositionelle bei Videoanrufen perfekt zu imitieren. Sie machten die Opfer glauben, in Video Calls mit Leonid Volkov zu sein, einem engen Verbündetn und Stabschef des russischen Oppositionsführer Alexei Navalny. Ein Screenshot, der von einem der beteiligten Politiker gepostet wurde, zeigt, wie genau das gefälschte Video war.

Es gibt zwar kontroverse Ansichten über die Richtigkeit der Darstellung dieses speziellen Falls, aber er zeigt, wie weit wir gekommen sind. Da diese Realität näher rückt, müssen sich die gesamte Cybersicherheitsbranche, Regulierungsbehörden und Regierungen darauf vorbereiten.

Es werden zwar weiterhin positive Schritte von Organisationen wie die EU und das FTC unternommen, um durch neue Vorschriften mögliche böswillige Verwendungen und missbräuchliche Nutzung von KI einzudämmen. Doch ist es an der Zeit, dass Sicherheitsverantwortliche Deepfakes in ihre Pläne zur Bedrohungsmodellierung einbeziehen und dass die Branche unserem Beispiel folgt und nach Wegen sucht, diese Betrügereien zu bekämpfen.

Was sind Deepfakes?

Um zu verstehen, was Deepfakes sind, genügt es, das Wort zu betrachten: eine Kombination aus der maschinellen Lernuntermenge „Deep Learning“ und „Fake Media“. Es gibt geringfügig unterschiedliche Möglichkeiten, diese Art von Inhalten zu erstellen. Aber typischerweise wird eine neuronale Netzwerktechnologie, „Autoencoder“, darauf trainiert, eine Videoeingabe zu nehmen, sie zu komprimieren und dann neu aufzubauen. Indem man dies mit Video Streams von zwei verschiedenen Gesichtern macht und dann die Streams austauscht, ist es möglich, die Mimik und Gestik von Person A mit der von Person B zu imitieren. Mit dieser Art von Trickserei lassen sich effektiv einer beliebigen Person Worte in den Mund legen.

Neben dem konkreten Betrugsfall gibt es zusätzliche Proof-of-Concept-Einsätze von Deepfakes, die die Frage aufwerfen, wie sich diese Technologie künftig weiterentwickeln wird.

Alarmglocken schrillen

Die Möglichkeiten, solche Fehlinformationen auf den höchsten Regierungsebenen zu verbreiten, sind für diejenigen fast grenzenlos, die in der Lage sind, eine effiziente Deepfake-Technologie einzusetzen. Noch besorgniserregender ist vielleicht, dass gefälschte Videos auch von feindlichen Staaten oder erpresserischen Cyberkriminellen verwendet werden könnten, um das Vertrauen der Wähler in die zur Wahl stehenden Kandidaten zu untergraben.

Und das ist noch nicht alles! Wie wir bereits 2018 erläuterten, könnte dieselbe Technologie zur Unterstützung von BEC-Versuchen (Business Email Compromise) verwendet werden, um Mitglieder des Finanzteams dazu zu bringen, hohe Überweisungen an Dritte vorzunehmen. Vorstellbar wäre ein CEO, der über Zoom einen entsprechenden Auftrag gibt. Das könnte reichen, um viele Mitarbeiter zu überzeugen. Tatsächlich hat dies bereits mit Deepfake-Audio funktioniert: 2019 wurde so ein britischer CEO überlistet, eine Summe von hunderttausenden Dollar aus dem Unternehmen zu überweisen. Eine der Vorhersagen von Trend Micro für 2020 war, dass Deepfakes mit der Zeit die nächste Herausforderung für Unternehmensbetrug sein werden.

Was ist zu tun?

Finanziell motivierte Erpressung und Social Engineering sowie Beeinflussungsaktionen mit dem Ziel, Demokratien zu destabilisieren, sind nur der Anfang. Ein Experte stellte kürzlich fest, dass mit der fortschreitenden und allgegenwärtigen Entwicklung der KI-Technologie bis Mitte dieses Jahrzehnts jeder Smartphone-Nutzer in der Lage sein könnte, äußerst überzeugende Deepfakes zu erstellen. Was also dagegen tun?

Aus Unternehmensperspektive ist es wichtig, dass die Sicherheitsteams darauf vorbereitet sind. Das bedeutet, dass sie Warnungen wie die von Trend Micro beherzigen sollten, um zu verstehen, wie die Technologie für böswillige Zwecke missbraucht werden kann. Wir haben kürzlich in Zusammenarbeit mit der UN und Europol ein Whitepaper zu Einsatz und Missbrauch von KI veröffentlicht, das einen guten Ausgangspunkt darstellt.

Mit unseren Vorhersagen, woher die nächsten Bedrohungen kommen könnten, und mit der Entwicklung von Möglichkeiten, diese im Voraus zu entschärfen, sorgen wir schon seit über drei Jahrzehnten für die Sicherheit von Unternehmen, Regierungen und Privatkunden weltweit.

Wir beschäftigen uns auch weiter mit der Zukunft, um zu antizipieren, wie KI und Deepfakes in einigen Jahren Teil des laufenden Cyber-Wettrüstens werden könnten. Dazu wird auf der diesjährigen RSA Conference das „Project 2030“ vorgestellt. Im Hinblick darauf müssen Mitarbeiter besser darin geschult werden, die Fälschungen zu erkennen und entsprechende Tools zu nutzen.

Es ist noch ein langer Weg hin zur bösartigen KI, aber wenn wir konkrete Schritte unternehmen, um diese Bedrohungen besser zu verstehen, können wir uns einen taktischen Vorteil verschaffen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

*

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.