„Deepfakes“ und das Risiko für Banken

Ein Artikel von Dunja Koelwel | 11.02.2021 - 10:01

Deepfakes, „echt“ erscheinende Medieninhalte wie etwa Videos, Fotos oder Audiomitschnitte, welche mittels KI abgeändert und verfälscht wurden, sind bereits seit Monaten ein Thema in Zusammenhang mit den sozialen Medien. Täuschend echte Fake News wie auch herabsetzende Inhalte, welche gegen Einzelpersonen gerichtet sind, stellen für Facebook und Co. ein relevantes Problem dar. Die neuen technischen Möglichkeiten werden aber zunehmend auch eine Herausforderung für die Wirtschaft. Ist die Problematik in der Bankenwelt angekommen?

Agnieszka Walorska: Mithilfe von KI-Algorithmen lassen sich heutzutage Video- und Audioinhalte schnell und relativ günstig fälschen, ohne dass hierfür noch Spezialkenntnisse erforderlich wären. Wenn auch in erster Linie über den möglichen Einsatz von Deepfakes in Wahlkampagnen diskutiert wird, so macht diese Art von Videos doch nur einen Bruchteil aller Manipulationen aus: In den meisten Fällen werden durch Deepfakes Frauen durch manipulierte, sexuelle Inhalte bloßgestellt. Doch stellen Deepfakes nicht nur ein gesellschaftliches Problem dar, sondern können für Kriminelle ein Einfallstor in die Unternehmen darstellen.

Auch wenn es bisher nur vereinzelte Beispiele für den Einsatz der Deepfakes für Wirtschaftskriminalität gibt, und es in der Finanzwelt bisher keinen großen Skandal gab, der auf diese Technologie zurückgeht, ist das Thema dennoch dringend für Banken. Deepfakes haben das Potenzial, in der Finanzindustrie Schaden auf ganz unterschiedlichen Ebenen anzurichten: Sei es mit Fake-Anweisungen, die Mitarbeiter und Kunden in betrügerischer Absicht zu bestimmten Handlungen manipulieren oder mit der Verbreitung von Fake-News, die Kunden, Anleger und die Öffentlichkeit folgenschwer in die Irre führen. Ich bin allerdings der Meinung, dass die Problematik noch nicht in der Bankenwelt angekommen ist – vermutlich bedarf es eines spektakulären Falls mit einer Bank in der Hauptrolle, damit dem Thema die nötige Beachtung bekommt. 

Einfallstore bei Banken

Fotolia_134848645_Subscription_Monthly_M.jpg

©VRD - stock.adobe.com

Welche konkreten Methoden wenden Kriminelle an? Welche Einfallstore sehen Sie?

Agnieszka Walorska: Seit eh und je ist die Frage der Cybersicherheit ein Katz-und-Maus-Spiel: Die Kriminellen entwickeln Angriffsmethoden, auf die Unternehmen und Behörden mit Abwehr reagieren. Mal haben die einen – mal die anderen die Nase vorn. Deepfakes sind das Produkt zweier KI-Algorithmen, die in einem sogenannten GAN – Generative Adversarial Network, einem erzeugenden gegnerischen Netzwerk, zusammenarbeiten.

Die GANs ermöglichen es, algorithmisch neue Arten von Daten aus bestehenden Datensätzen zu generieren. So könnte ein GAN beispielsweise mehrere Aufnahmen eines Vorstandsvorsitzenden einer Bank analysieren und dann ein neues Video oder Tonausschnitt erstellen, das den ausgewerteten Aufnahmen täuschend ähnlich ist – allerdings mit einem veränderten Inhalt. 

Die zunehmende Digitalisierung und die wachsende Popularität neuer Kanäle bieten für solche Täuschungen erfolgsversprechende Angriffsflächen. Auch wenn z.B. die Video -Ident-Verfahren gegenüber dem heutigen Stand der Deepfakes als sicher gelten, kann eine Täuschungsmöglichkeit nicht ausgeschlossen werden, zumal die Qualität der Fälschungen rapide zunimmt. Würde künftig ein Krimineller nun, an einen fremden Ausweis zu gelangen, könnte er mittels manipulierter Live-Videosequenzen auch in fremden Namen falsche Konten eröffnen.

Zu den großen Fortschritten im Bereich von Deepfakes gehört unter anderem eben die Möglichkeit, diese in Echtzeit anzuwenden und nicht mehr nur in einer vorgefertigten Variante. Deepfakes erlauben aber auch simplere Angriffe: Schon heute ist der sogenannte Enkeltrick berüchtigt – mithilfe manipulierter Sprachnachrichten, die der Stimme der nachzuahmenden Person täuschend ähnlich sind, lassen sich solche Methoden weiter perfektionieren. Wenn Kunden etwa mit ihrem bekannten Bankberater telefonieren und die Stimme wiedererkennen, werden sie bestimmte Anweisungen weniger hinterfragen. Für skrupellose Profis stellen die neuen technischen Möglichkeiten ein Werkzeug dar, das sicherlich die Fantasie anregt.  

Droht auch eine Gefahr aus der Unternehmung selbst?

Agnieszka Walorska: Ja, dies ist in der Tat eine weitere entscheidende Herausforderung. Bei Angriffen denkt man häufig nur an die Gefahren an der Kundenschnittstelle. Cybersecurity-Experten werden aber bestätigen, dass die wichtigsten Fallen in den Organisationen selbst zu finden sind: und zwar nicht nur in der anfälligen Software, sondern beim Faktor Mensch. Bei Hackerangriffen sind die nicht sensibilisierten Mitarbeiter das Einfallstor für das sogenannte Social Engineering. Gelingt es Kriminellen, sich in die Prozesse des Unternehmens zwischenzuschalten, sind denkbare Schäden enorm.

Jemand der auf der Audio- oder sogar Videospur von Vorgesetzten Aufträge erhält, Transaktionen durchzuführen oder sensible Daten preiszugeben, wird dies nicht sofort hinterfragen – wie ein Fall aus dem Jahre 2019 zeigt, welcher das betroffene Unternehmen 220.000 Euro kostete. Auf Phishing-Mails sind viele Nutzer inzwischen vorbereitet. Deepfakes stellen hier natürlich ein ganz neues Level dar. Ganz besonders bedenklich sind Ausnahmesituationen wie die im Frühjahr 2020, als viele Menschen unvorbereitet ins Homeoffice mussten. Prozesse waren oft nur provisorisch geregelt, Cyberrisiken konnten erstmal nur nachgelagert behandelt werden: Für Kriminelle boten – und bieten sich –weiterhin sehr kritische Möglichkeiten. 

...und die passenden Schutzmaßnahmen

Agniezska-Walorska-1109-8064.jpg

Agnieszka Walorska ist Executive Director bei der Bankenberatung Capco am Standort Berlin. Sie unterstützt Banken bei den Herausforderungen der digitalen Transformation. Ein Schwerpunkt dabei liegt auf der Optimierung der digitalen Kundenschnittstelle von Geldinstitut © Dirk Beichert BusinessPhoto

Wie sollten sich Banken gegen diese Gefahr wappnen?

Agnieszka Walorska: Ich glaube, in einem ersten Schritt ist es tatsächlich entscheidend, die Belegschaft auf bestehende Gefahren aufmerksam zu machen. Gefälschte Video- und Tonsequenzen erscheinen vielen Anwendern wie Science-Fiction. Schulung und Sensibilisierung der Mitarbeiter sind essentiell. Für interne Prozesse empfehlen sich zudem verständliche, transparente und nutzerfreundliche Absicherungs- und Freigabeprozesse.

Eine zusätzliche Authentifizierung über einen weiteren Kanal deckt Fakes häufig auf.  Die Zielscheibe der Kriminellen sind Menschen. Die Employee Experience wird somit häufig der entscheidende Faktor sein, um Gefahren zu erkennen und ihnen vorzubeugen.

Welche Technologien sind in Ihren Augen erfolgsversprechend? 

Agnieszka Walorska: Erforderlich sind Technologien, die Fälschungen von realen Inhalten unterscheiden können. Hier wird auf Algorithmen zurückgegriffen, die jenen ähneln, die zur Erzeugung von Täuschungen entwickelt wurden. Dies führt jedoch zu dem bereits erwähnten Katz-und-Maus-Spiel. Der technologische Fortschritt kommt schließlich immer beiden Seiten zugute.

Im Jahr 2018 stellten Forscher fest, dass die Gesichter in Deepfake-Videos nicht blinzeln. Die genutzten Bilder zeigten schlicht Menschen mit offenen Augen. Doch der Nutzen dieser Erkenntnis währte nur kurz. Sobald dieses Merkmal publik wurde, tauchten die ersten Videos mit blinzelnden Augen auf. Faker passten sich an. Ähnlich wird es sich in Zukunft mit anderen Entdeckungen verhalten. 

Diese Tatsache ist jedoch kein Grund, Anstrengungen zur Deepfake-Identifizierung ruhen zu lassen. Im September 2019 kündigte Facebook – in Zusammenarbeit mit der PAI-Initiative, Microsoft und mehreren Universitäten – eine mit 10 Millionen US-Dollar dotierte „Deepfake Detection Challenge“ an. Facebook hat auch die Erstellung eines Datensatzes mit Bildern und Videos von zu diesem Zweck engagierten Schauspielern in Auftrag gegeben, um eine ausreichende Datengrundlage für die Challenge zu schaffen.

Wenige Wochen später veröffentlichte Google ebenfalls einen Datensatz von 3.000 manipulierten Videos mit dem gleichen Ziel. Auch die beim Pentagon angesiedelte US-amerikanische Forschungsförderungsagentur DARPA arbeitet bereits seit 2016 innerhalb des MediFor-Programms, kurz für Media Forensics, daran, manipulierte Inhalte zu erkennen und hat dafür innerhalb von zwei Jahren 68 Millionen US-Dollar investiert.

In technologische Maßnahmen gegen digitale Fälschungsversuche wird auch von einigen Finanzinstituten bereits investiert, oft in Zusammenarbeit mit Fintechs – zum Beispiel bei der Erhöhung der Sicherheit der Video-Ident-Verfahren. Das ist richtig und wichtig, meines Erachtens werden aber technologische Maßnahmen allein niemals genügen. Wie bereits erwähnt, müssen diese Maßnahmen durch Sensibilisierung von Mitarbeitern und Kunden sowie um die gezielte Gestaltung von Prozessen, die Social Engineering erschweren, flankiert werden.

Wird die neue Gefahr auch regulatorische Konsequenzen haben?  

Agnieszka Walorska: Ich gehe davon aus. Noch ist das Thema Deepfakes in Deutschland in der Gesetzgebung generell nicht explizit präsent. Aufgrund der hohen Sensibilität der Daten beim Banking sowie der strengen KYC-Kriterien halte ich es für wahrscheinlich, dass Aspekte wie etwa die richtigen Prüfungsmaßnahmen bald regulatorisch genauer umrissen werden. Ohnehin wird das Augenmerk auf Cybergefahren durch den verstärkten Trend zum Homeoffice und auch zunehmende Professionalisierung der Cyberkriminellen stärker werden. Aber schon jetzt sehe ich Handlungsbedarf bei den Instituten: Der mögliche Schaden, der durch nur einen einzigen Fehler entstehen kann, ist gewaltig.