Daten- und Informationsmanagement: Anforderung und Chance zugleich. Die strategische Agenda der Regulatorik zeigt eine Weiterentwicklung zur Mikrodatenverarbeitung mit dem Ziel weiterer Verbesserungen von Transparenz und Steuerungsfähigkeit.
Die disruptiven und regulatorischen Einflüsse bestimmen zunehmend den Finanzdienstleistungsmarkt; Informationen und Daten werden zu einem der Key-Assets. Zukunftsfähige Finanzinstitute müssen bereits jetzt in der Lage sein, Mehrwertleistungen aus anderen Branchen im Sinne Lifecycle-Partner ihrer Kunden zu integrieren. Nur so lässt sich das gesamte Potenzial zukünftiger Kundenbedürfnisse ganzheitlich abdecken. Das gilt auch und gerade für das Mikrodatenmanagement.
Die Bedeutung der drei „V“ steigt
Im Kontext der regulatorischen Anforderungen aus EZB, BaFin und Bundesbank wird die Größe des Datenbestandes und Vielfalt der Datenquellen und -strukturen mit den sogenannten „3 V“ (Volume, Variety, Velocity) immer bedeutender. Darüber hinaus gewinnt auch die „Veracity“ (Richtigkeit, Wahrhaftigkeit) als weiteres Merkmal im Daten- und Informationsmanagement an Bedeutung.
Die Verarbeitung von Mikrodaten stellt unterschiedliche Anforderungen bzw. Aspekte an die Gewinnung, Verarbeitung und Analyse von großen Datenmengen. Von den verarbeitenden Systemkomponenten werden die Anforderungen von Echtzeitsystemen erwartet: Hochverfügbarkeit bzw. garantierte Erreichbarkeit, geringe Latenz und horizontale Skalierbarkeit. In Echtzeitsystemen werden zwei Arten von Latenzen unterschieden: Auf der einen Seite die Zeitspanne bis eine Information entgegengenommen und an die entsprechende Komponente weitergeleitet wird. Zum anderen die Dauer, die das System benötigt um neue Daten zu verarbeiten und dem Benutzer zur Verfügung zu stellen. Sie garantieren zusammen ein zuverlässiges System, welches im Bereich Echtzeit- und Streaming-Datenverarbeitung eingesetzt werden kann.
Mikrodaten bilden Transaktionen und finanzielle Beziehungen zwischen wirtschaftlichen Subjekten ab. Weitere Datenquellen können dieses Bild komplementieren bzw. verdichten oder aggregieren. Die logische Konsequenz aus der Aggregation von Mikrodaten erzeugt die Möglichkeiten, daraus Makrodaten zu erzeugen indem sie Erwartungen bzw. Sentiments der Marktteilnehmer (explizit) messen. Für Banken und Sparkassen bedeutet das: Sollten sie in der Lage sein diesen Datenschatz zu heben, winken neue, dringend benötigte Geschäftsmodelle. Aber nur wenn alle Prozesse compliant abgebildet sind.
Nur wer langfristig digitalisiert, ist kurzfristig handlungsfähig
Gerade große Banken wissen um die Bedeutung von Innovation Von 1955 bis 2014 waren 89 Prozent der Fortune 500 Unternehmen nicht mehr auf der Liste. Streaming Data beschreibt den kontinuierlichen Datenfluss, der von Systemen verarbeitet werden muss. Durch technische Neuerungen werden die bisherigen Datenflüsse um ein Vielfaches größer. Dieser Effekt wird durch Smart Everything, Internet of Everything bzw. Internet of Things verstärkt.
Streaming Data wird durch drei Eigenschaften hauptsächlich charakterisiert: Immer an, immer fließend, durch die lose Strukturiertheit der Daten und einer hohen Kardinalität der einzelnen Datensätze.
Die Vernetzung befeuert den Wandel. Die verändernden Anforderungen an die Datenverarbeitungen bieten enorme Möglichkeiten für neue disruptive und agile Systeme für den Finanzdienstleistungsmarkt, welche von FinTechs als neue Player angeboten werden.
Daten als Anforderung und Asset für Wettbewerbsvorteile
In den Unternehmen gibt es keinen zentralen Server, wo die eine richtige Datei liegt (Single Point of truth) sondern es gibt eine Systemwelt. Die Datenzentriertheit wird durch den Zugriff auf das verteilte System im technischen oder physischen Sinn, die Richtigkeit der Information (vgl. Single Point of Truth) und z.B. durch das Proof of Stake-Konzept (Blockchain) gegeben. Ein langfristig ausgerichteter Einsatz von digitalen Trendthemen wie etwa Distributed Ledger Technologien (DLT) und Blockchain erweitern hochgradig das strategische Modell eines datenzentrierten Unternehmens. Hier liegen in Zukunft die eigentlichen Assets, denn sie liefern wertvolle Potenziale für die klassischen Finanzdienstleister mit Hilfe unternehmensübergreifender Erweiterungen der Daten und Back Office-Prozesse zu den Regulatoren und Partnerunternehmen wie den Clearinghäusern.
Am Beispiel der DLT wird deutlich, wie interne Datenhaltungs- bzw. Reconciliation-Prozesse die Reporting Möglichkeiten vereinfachen, Potenziale aus der Verarbeitung von Kundendaten steigern und gleichzeitig die Sicherheit der Informationen sicherstellen können. Hierfür ist ein Umbau von Anwendungs- und Datensilos zu „Data Hubs“, in diesem Fall internen Distributed Ledgers, eine Voraussetzung.
Gigantische, rasant wachsende Datenmengen in Verbindung mit hoch performanten, neuen IT-Frameworks machen es nicht einfacher, sondern schwieriger und komplexer, verlässliche Informationen zu generieren. Die Komplexität erfordert unter anderem neue Kompetenzprofile von Mitarbeitern und Organisationsstrukturen. Die Entwicklung von einer manuellen, Insel-orientierten und intransparenten Datenwelt zu einer hoch automatisierten, über Unternehmensgrenzen hinweg konsistenten und integren Datenbewirtschaftung ist erforderlich. Dabei ist das jeweilige Geschäftsmodell auf eine neue Daten- und Informationsebene zu heben.
Reifegradmodell für Daten- und Informationsmanagement
Datenzentrierung und die Nutzungsmöglichkeiten von Daten als Asset ist nicht auf Knopfdruck möglich. Aus der Erfahrung braucht es einen Entwicklungsprozess des Unternehmens, um in eine effiziente Nutzungsmöglichkeit der Daten und Informationen zu wachsen. Das STRANGE Reifegrad-Modell kennt dabei vier Reifegrade auf dem Weg zu einem daten- und informationszentrierten Unternehmen. Die Reifegrade bauen aufeinander auf und können nicht wirklich „übersprungen werden“
Der projektorientierte und oft technische Aufbau von operationalen Datenhaltungssystemen und die bedarfsorientierte Weiterentwicklung des Reifegrad 1 bilden die Grundlage für den Bedarf von individuellen Lösungen (IDV) zur Zusammenführung, Verdichtung, Berechnung und Darstellung von Daten. Darüber hinaus entsteht ein erhöhter Aufwand durch kaskadierte und schwer nachvollziehbare Daten nebst der Implementierung von unabhängigen Plausibilisierungsschritten.
Im Reifegrad 2 ist ein zentrales Datawarehouse das Fundament einer nachhaltigen Datenarchitektur und bildet einen unternehmensweiten „Single Point of Truth“ für strukturierte Daten. Zusammen mit einem automatisierten Data Governance Rahmenwerk entsteht ein Ökosystem, welches fortwährend die Integrität und notwendige Transparenz des unternehmensweiten Datenuniversums und einer immer schneller wachsenden Datenmenge garantiert.
Die Big Data Analyse im Reifegrad 3 ermöglicht die Auswertung von sehr großen Datenmengen, unterschiedlichsten Datenquellen und Datenformaten sowie das Erkennen von komplexen Zusammenhängen und Mustern (Golden Nuggets). Die neugewonnenen Informationen erlauben eine zeitnahe und zielgerichtete Anpassung von Produkten und Kundenservices, bzw. ermöglichen eine Ausrichtung der Unternehmens-strategie an eine sich immer schneller verändernde Marktumgebung.
Im Reifegrad 4 wird mittels Machine Learning und Künstlicher Intelligenz in Minuten das Erkennen von Mustern in riesigen und sehr komplexen Datenmengen erlernt, für die Menschen mehrere Jahre benötigen. Die Regel ist: Je mehr integre Datenquellen und Datenformate, desto besser und schneller können nicht nur bestehende Muster, sondern Muster-Veränderungen und sogenannte Events, analysiert werden. Damit entsteht die Möglichkeit, situativ und individuell kundenzugeschnittene Services und Produkte anzubieten, bzw. schnell auf komplexe Marktveränderungen frühzeitig zu reagieren.
Ausblick und Entwicklungsmöglichkeiten
In einem Portal werden auf den Kunden zugeschnittene Informationen, Produkte und Angebote angezeigt. Dafür muss ein semantisches Bild (Customer DNA) erstellt werden. Wichtig für die Erzeugung und den erfolgreichen Einsatz eines solchen Bildes sind die vorgelagerten Analysen: Angefangen bei dem fachspezifischen Wissen und Verständnis für den grundlegenden Geschäftszweck (Business Understanding). Über das Verständnis der vorhandenen Daten CRM- (Data Understanding), welche dann selektiert und homogenisiert werden müssen (Data Preparation). Im letzten Schritt werden Modelle entwickelt, welche die Daten interpretieren und Informationen daraus generieren können (Modell Building). Diese Modelle können als Grundlage für Machine Learning dienen. So können Systeme die Customer Journey begleiten, indem sie durch prädiktive Analyse individuelle Verhaltensweisen voraussagen und entsprechend auf den Kunden reagieren.
Fazit
Mit der im Markt bereits etablierten Innovation zur Betriebsautomatisierung wird die Grundlage für eine umfängliche Digitalisierung im Datenmanagement Umfeld gelegt. Jedoch entsteht der Mehrwert von Daten nicht ausschließlich durch die Digitalisierung, sondern durch das Zusammenspiel einer nachhaltigen Datenarchitektur und eines umfänglichen Data Governance Rahmenwerks, welches eine unternehmensweite Datenintegrität und Transparenz garantiert.
Unsere Autoren: Ingrid Vollweiter & Fuad Sahinovic
Comments