Wie Banken Künstliche Intelligenz sinnvoll einsetzen

Ein Artikel von Peter Heidkamp, Head of Technology Center of Excellence und Tobias Synak, Senior Manager im Bereich Financial Services bei KPMG | 17.03.2021 - 09:01

Nur neun Prozent der Finanzdienstleister haben sie, 12 Prozent befinden sich in der Implementierungsphase, doch 40 Prozent wollen auch zukünftig ganz auf ihren Einsatz verzichten: Künstliche Intelligenz. Dieses Ergebnis ergab zuletzt eine Befragung des Lünendonk Instituts in Zusammenarbeit mit KPMG unter den Entscheidern von 129 Banken und Versicherungen im Rahmen der Studie „Digital Outlook 2025: Financial Services“. Finanzdienstleister, die sich der Künstlichen Intelligenz nicht annehmen wollen, könnten in Zukunft mit großen Wettbewerbsnachteilen konfrontiert werden.

Dabei können Banken heute bereits auf umfangreiche Erfahrungswerte und eine Vielzahl erfolgreicher Anwendungsbeispiele von KI im Einsatz zurückgreifen. So konzentrieren sich viele darauf, bestehende Prozesse mithilfe von KI zu optimieren, das heißt vor allem effizienter und kostengünstiger zu gestalten. Zudem erlaubt KI ihnen, das Kundenerlebnis positiv zu beeinflussen – beispielsweise lässt sich die Bearbeitungs- und Reaktionszeit bei Kontoabschlüssen mithilfe intelligenter Sprachassistenten verkürzen.

KI kommt deshalb in erster Linie dort zum Einsatz, wo sie mit Blick auf die Customer Excellence einen echten Mehrwert bieten kann. Dass mit ihr aber noch mehr möglich ist, zeigen positive Beispiele aus dem internationalen Raum, wo Banken bereits deutlich forscher an dem Einsatz von KI arbeiten: So setzt eine asiatische Bank Kreditwürdigkeitsprüfungen bereits auf der Basis von Smartphone-Daten sowie Social Media um, eine US-amerikanische Bank warnt Kunden mittels App KI-gestützt vor drohenden finanziellen Engpässen und gibt zugleich Ratschläge zu Einsparmöglichkeiten.

Das größte Potential steckt langfristig allerdings in der Entwicklung von neuen Produkten oder gar ganz neuen Geschäftsmodellen. Finanzinstitute, die durch ihre direkten Kundenbeziehungen auf einen enormen Datenpool zugreifen können, haben hierbei einen klaren Vorteil gegenüber anderen Industrien. Sie können aus den vorhandenen Datenmengen wertvolle Informationen ableiten und zudem davon profitieren, dass ihnen durch die Erfahrungswerte internationaler Finanzakteure sinnvolle Einsatzbereiche für KI bekannt sind.

Ihre Herausforderung besteht deshalb insbesondere darin, die vorhandene Datenbasis sinnvoll zu nutzen, um auch ihr eigenes Angebotsportfolio im Sinne der Kunden auszubauen. Der Datenschutz darf dabei selbstverständlich nicht vernachlässigt werden. Die großen Chancen der KI, die über ausschließliche Prozessoptimierungen hinausgehen, werden in Deutschland bislang aber nur wenig verfolgt. 

Risiken frühzeitig erkennen und steuern

Doch warum trauen sich viele Finanzdienstleister noch nicht an Künstliche Intelligenz heran? Dabei spielt weniger die Sorge eine Rolle, dass KI Menschen ersetzen und so langfristig Arbeitsplätze bedrohen könnte. Vielen fehlt das Verständnis für die Möglichkeiten und das Vertrauen in die Technik. Zudem führt der vermehrte Einsatz von KI auch immer mehr Risiken der Technologie zutage. Negativbeispiele wie falsche oder gar diskriminierende Entscheidungen der KI bei der Kreditvergabe wecken die Sorge vor Reputationsschäden bei den Entscheidern.

Denn der Einsatz von KI ist grundsätzlich mit gewissen Risiken verbunden: Deshalb ist es notwendig, die Mechanismen hinter der Künstlichen Intelligenz zu verstehen und zu kontrollieren. Dies gilt besonders für Deep Learning, einem Teilbereich des Machine Learnings, das mithilfe komplexer Algorithmen und einer vielschichtigen Architektur – dem künstlichen neuronalen Netz – sehr präzise Ergebnisse erzielen kann. Für Entwickler und Anwender entsteht dabei allerdings häufig eine nur schwer nachvollziehbare Komplexität, die es manchmal nahezu unmöglich macht, Fehlerquellen bei Entscheidungen der KI zeitgerecht aufzudecken.

Verzerrungen sind bereits in der Datenbasis möglichst zu vermeiden

Peter_Heidkamp.jpg

Peter Heidkamp ist Partner und Head of Technology bei KPMG im Bereich Financial Services. Er leitet die KPMG Solution FS CIO Agenda und berät Finanzdienstleister in technologischen Fragestellungen. 

 Um den zugrunde liegenden Daten und den produzierten Ergebnissen vertrauen zu können, ist es wichtig, von vornherein etwaige Voreingenommenheiten aus den Daten herauszufiltern. Hierfür muss ein möglicher Bias frühzeitig identifiziert werden, weshalb neben KI- auch Fachexperten in den Aufbau der Test- und Trainingsdaten einbezogen werden sollten.

Sie bewerten gemeinsam die Validität von Datensets und definieren Risikoindikatoren, die zur Überwachung und Identifikation möglicher Datenverzerrungen genutzt werden können.

Trainiert die KI in der Bearbeitung von Kundenanfragen oder in Kreditprozessen mit verzerrten Daten, können falsche Ergebnisse oder sogar unbeabsichtigte Verstöße gegen ethische Werte die Folge sein. Um die Akzeptanz und das Vertrauen der Mitarbeiter, Kunden und der Öffentlichkeit in die KI zu stärken, müssen Verantwortliche eines Unternehmens KI-basierte Entscheidungen nachvollziehen und im Zweifel erklären können. 

Kontinuierliche Kontrolle als kritischer Erfolgsfaktor

Es braucht deshalb einen Kontrollrahmen, in dessen Grenzen KI sich frei entwickeln kann. Um Verzerrungen wie Social Bias entgegenzuwirken, entstehen derzeit verschiedene Kontrollmechanismen, die KI und Unternehmens-Compliance in Einklang bringen sollen. Aufsichtsrechtlich fehlen aktuell aber noch konkrete Vorgaben, um die Risiken im Umgang mit KI zu steuern. Die Europäische Bankenaufsicht (EBA), die Europäische Kommission und die Bundesanstalt für Finanzdienstleistungen (BaFin) haben aktuell lediglich Leitlinien formuliert, wonach der Einsatz von KI transparent und ethisch korrekt erfolgen und dabei einen Nutzen für Menschen und Gesellschaft stiften soll. Dabei muss die Anwendung von KI im Einklang mit übergreifenden Regularien (BAIT, VAIT oder MaRisk) stattfinden. Verpflichtende, KI-spezifische Vorgaben werden voraussichtlich mit zunehmender Zahl von Anwendern in Zukunft folgen. 

Banken müssen KI an den Unternehmenszielen ausrichten

Tobias_Synak.jpg

Tobias Synak ist Senior Manager bei KPMG im Bereich Financial Services und unterstützt Banken und Versicherungen bei (digitalen) Transformationsprojekten sowie beim Einsatz von neuen Technologien. 

Abseits bestehender und zukünftiger regulatorischer Vorgaben ist für den Erfolg von Finanzinstituten vor allem eine ganzheitliche Steuerung der KI unabdingbar. Das bedeutet, dass Banken und Versicherungen KI als Technologie verstehen müssen, die sich auf alle Unternehmensbereiche auswirkt. Da auf Basis von KI-gestützten Ergebnissen zunehmend Unternehmensentscheidungen getroffen werden, sollte die KI an den strategischen Unternehmenszielen ausgerichtet sein, auf klar definierten ethischen Werten beruhen und relevante Fragen berücksichtigen, die sich nicht aus Trainingsdaten heraus beantworten lassen – beispielsweise, welche Entscheidungen auch zukünftig keinesfalls vom Algorithmus getroffen werden sollen.

Auch die Verantwortlichkeiten müssen auf allen Ebenen klar definiert sein sowie Lösungen in enger Abstimmung von KI-, IT- und Fachexperten entwickelt werden. Es braucht Antworten, um etwaigen Risiken und negativen Auswirkungen vorzubeugen und KI nachhaltig erfolgreich im Unternehmen zu verankern.

Wenn Finanzinstitute den Einsatz von KI erfolgreich steuern und von der Prozessebene auf die Entwicklung neuer Produkte und Geschäftsmodelle ausweiten, kann KI langfristig zu einem kritischen Wettbewerbsfaktor werden. Dadurch haben Banken und Versicherer die Chance, steigenden Kundenerwartungen gerecht zu werden sowie einem stetig wachsenden Innovations- und Kostendruck erfolgreich zu begegnen.