• 1000

Vor dem Hintergrund des verstärkten Einsatzes von Big Data werden immer komplexere Anforderungen an IT-Systeme und Daten gestellt. Im Zeitalter von Cloud Computing und Dashboard-Kultur rückt die Integrität und Qualität der Datenhaushalte immer mehr in den Vordergrund und ist die Grundlage für ein zeitgemäßes Reporting. Dabei nimmt nicht nur der Umfang der zu verarbeitenden Daten konstant zu (Verdopplung der Datenmengen alle 2 Jahre), auch die Frequenz der Reporting-Zyklen verdichtet sich.

Nur mit einem etablierten und gut funktionierenden Datenqualitätsmanagement lassen sich unstrukturierte Daten in aussagekräftige Erkenntnisse und Wettbewerbsvorteile transformieren. Gut gepflegte Datenhaushalte sind nicht nur die Basis im institutionellen Kundenreporting (z.B. Solvency, Basel III) sondern zunehmend auch die Grundlage für ein immer umfangreicheres regulatorisches Reporting (AIFMD, BCBS 239).

Thema Datenqualität erhält nicht die notwendige Aufmerksamkeit

Viele KVGen und Verwahrstellen haben in den letzten Jahren umfangreiche Ressourcen für die Entwicklung zentraler Data Warehouses (DWH) bereitgestellt und vermehrt in die dazugehörige System- und Applikationslandschaft investiert. Jedoch wird dem Thema Datenqualität (DQ) noch nicht die notwendige Aufmerksamkeit eingeräumt. Ein IT-System kann noch so aktuell und gut parametrisiert sein – Datenmängel können so nicht beseitigt werden. Die einzelnen Komponenten und Datenströme stammen in der Regel aus einer Vielzahl verschiedener Quellsysteme, welche in den seltensten Fällen aus einer Hand stammen oder kompatibel zueinander sind.

Im Bereich Investment Compliance führen fehlerhafte Positions-, Markt- und Stammdaten beispielsweise regelmäßig zu einer großen Anzahl von sogenannten „false alerts“, also angeblichen Grenzverletzungen, die sich im Nachgang als falsch herausstellen. Dies kostet Unternehmen nicht nur Zeit und Ressourcen sondern beeinträchtigt ebenso die Akzeptanz und Reputation des Fachbereichs.

Aufbau und Etablierung eines DQ-Regelprozesses

Die einheitliche Definition von DQ-Kriterien und DQ-Standards, insbesondere für die Risikoberichterstattung sowie die Schaffung einer integrierten Datenbasis, ist daher unabdingbar für ein funktionsfähiges Reporting. Dies schließt den Aufbau und Etablierung eines DQ-Regelprozesses für die Messung, Analyse und Korrektur von DQ-Problemen, inkl. Verantwortlichkeiten, ein. Die Entwicklung eines Kontrollansatzes zur Messung von Datenqualität entlang der Datenverarbeitungsketten stellt die gleichbleibend hohe Qualität sicher. Die Verdichtung von Informationen zu verwertbaren Erkenntnissen und die Integration selbiger in bestehende Unternehmensabläufe schaffen bleibenden Mehrwert.

Für KPMG gehört die Analyse und Auswertung von Bilanz- und Geschäftsdaten bereits seit mehr als 100 Jahren zum Kerngeschäft. Wir sind in der Lage, Daten nicht nur effizient zu verarbeiten. Wir verdichten die Informationen zu verwertbaren Erkenntnissen und integrieren sie in bestehende Unternehmensabläufe.

Nutzen Sie diesen Erfahrungsschatz und sprechen Sie uns gerne an.