Wenn Daten zur Belastung werden

Ein Artikel von Dirk Marichal, EMEA VP of Sales bei Cohesity | 07.02.2020 - 10:36
Dirk Marichal.jpg

Dirk Marichal

Daten sind für Finanzinstitute enorm wichtig. Aber ihren Wert auch tatsächlich für sich zu nutzen stellt sie vor große Herausforderungen, was in erster Linie an der IT-Infrastruktur liegt. Neben modernen Lösungen für Online Banking nutzen die meisten Finanzinstitute auch weiterhin bewährte Systeme aus der Vergangenheit wie Mainframes. Nicht umsonst spielen sie im Kerngeschäft der Finanzinstitute eine entscheidende Rolle, gelten sie doch nach wie vor als zuverlässige und stabile Lösung. Doch häufig bremsen sie die nötige Modernisierung der IT-Infrastruktur aus. Zudem sind sie enorm kostenintensiv und unflexibel im Vergleich zu moderneren Systemen.

Ein Großteil der Mainframe-Daten lässt sich in eine unstrukturierte NoSQL-Datenbank extrahieren. Dies ermöglicht dann nicht nur eine Suchfunktion, die an Google erinnert, zum Beispiel auf Basis von Elasticsearch, sondern die Anwendung eines geeigneten Analyse-Werkzeugs. Allerdings gibt es noch keine Standard-Lösungen für die Analyse von Mainframe-Daten und PDF-Dateien oder für Backup und Disaster Recovery. Dies ist gerade im strengen Compliance-Umfeld der Banken eine große Hürde.

Ähnliches gilt für Netzwerkgeräte, Server, ältere Speichersysteme, Betriebssysteme und Anwendungen. Mit den Jahren haben viele Unternehmen mehrschichtige Infrastrukturen aufgebaut, bestehend aus Datenbanken, Middleware und ERP-Lösungen, welche zu einer gewissen Abhängigkeit führen. Sich aber dieser Abhängigkeit hinzugeben und damit die unvermeidliche Transformation und Weiterentwicklung aufzuschieben, ist auf Dauer keine Lösung – schon allein aus wirtschaftlicher Sicht. Denn in der gesamten Finanzbranche herrscht ein großer Wettbewerbsdruck. Das bedeutet: Für die Unternehmen sind hohe Agilität und Daten-Transparenz umso bedeutsamer. 

Ignorieren vergrößert die Probleme

Je länger Unternehmen die Umstellung vor sich herschieben, desto komplizierter wird der Prozess. Mit der Zeit steigen die IT-Probleme und auch die Komplexität der Daten-Migration. Denn es entsteht ein Problem, das nicht nur den Daten-Transfer erschwert, sondern auch in anderen Bereichen für erhebliche Probleme sorgen kann: Mit der Zeit gewachsene Rechenzentren bilden ein ideales Versteck für Daten.

Was bedeutet das konkret? Durch mangelnde Transparenz und Übersicht gehen schon mal eine E-Mail-Nachricht oder ein Detail eines Geschäfts unter. Dies führt nicht nur zu Umsatzverlust oder unzufriedenen Kunden, sondern auch zu Compliance-Problemen, wenn eine Aufsichtsbehörde Informationen anfordert. Aber auch ganz allgemein ist das Datenmanagement in seiner Bedeutung gestiegen, vor allem im Zuge der DSGVO. Sie erfordert ein Datenmanagement, bei dem Unternehmen im Bedarfsfall per Knopfdruck alle personenbezogenen Daten eines Kunden finden und entfernen können.

Banken müssen aber noch zusätzliche Compliance-Regeln einhalten, die nur in Deutschland, Europa oder international gelten und sich teilweise widersprechen. Neben diesen Regelungen erfordern auch regelmäßige Audits oder Zertifizierungen, dass Banken genau wissen, wo ihre Daten liegen und wer darauf Zugriff hat. Das betrifft nicht nur Text-Dokumente, sondern auch Audio-Mitschnitte von Gesprächen, Video-Dateien, Bilder, eingescannte Dokumente oder Antworten von Chat-Bots. Diese Informationen können herkömmliche Datenmanagement-Systeme nicht liefern.

Mehrfache Kopien überall verteilt

Aber das Einführen neuer Datenmanagement-Systeme ohne geeignete Strategie führt in den meisten Fällen sogar noch zu einer Verschlimmerung des Problems. Denn die sekundären Daten bleiben in der Regel in unzähligen Kopien und Backups in vielen isolierten Systemen wie File Shares und Archiven erhalten. Dieses Phänomen der unkontrollierten Verbreitung und mehrfachen Speicherung von Daten wird als Mass Data Fragementation bezeichnet.

Ein sehr populärer Lösungsansatz hierfür war der Umzug in die Public Cloud. Doch auch hier führt die Mass Data Fragementation zu sehr hohen Kosten. Denn natürlich schlägt sich diese Problematik auch auf den Speicherplatz nieder, der zu bezahlen ist. Bei einer Umfrage unter 900 IT-Entscheidungsträgern gaben 91 Prozent der Teilnehmer an, dass die gleichen Daten in Kopien über verschiedene Clouds hinweg verteilt wurden und so die Fragmentierung durch die Public Cloud noch verstärkt wurde. Aber das sind nicht die einzigen Probleme, die sich exponentiell erhöhen. Die Datenflut steigert auch den Aufwand für die Administration und das IT-Management. Außerdem verlängert sich die Zeit für Datensuche und Datenanalyse. Ganz davon abgesehen, verschärft sich damit auch die Gefahr für die IT-Sicherheit, da potenziell sensible Daten unbemerkt in schlecht abgesicherten Systemen schlummern. 

Die Lösung: Ein modernes Datenmanagement

Abhilfe schafft hier ein moderner Ansatz für das Datenmanagement. Die unzähligen Datenkopien werden durch eine Software-definierte und Plattform-übergreifende Lösung konsolidiert. Gleichzeitig verbessert sie die Data Governance und das Mining der wertvollen historischen Daten. So können Banken ihre Daten auf einer einheitlichen Plattform zusammenführen und dadurch unnötige Kopien und Daten-Silos vermeiden. Um dies zu erreichen, sollten Banken auf automatische Analysen über Cloud- und On-Premises-Systeme setzen. Damit ist zum Beispiel eine Vorselektion der Daten anhand einer Mustererkennung möglich. So können Finanzinstitute personenbezogene Daten automatisch erkennen und deren Abspeicherung oder Auslesen nur in bestimmten und abgesicherten Umgebungen erlauben.