Montag, 13. Januar 2014

Solvency II und die Anforderungen an das Datenmanagement

Kundendatenbanken von Assekuranzunternehmen enthalten häufig Dubletten oder sind unvollständig und inkonsistent.

Die regulatorischen Anforderungen aus Solvency II stellen die IT-Systeme, die Datenqualität in Kundenbetreuung und Rechnungswesen sowie das Risikomanagement der Versicherungsbranche vor neue Herausforderungen. Nicht jedes Unternehmen ist bereits dafür gerüstet. Ein Gastbeitrag von Dr. Holger Wandt, Principal Advsisor bei Human Inference.


Bereits in diesem Jahr beginnt die stufenweise Einführung von Solvency II, das so genannte Phasing-in. Eine Umsetzung in nationales Recht wird nach gegenwärtiger Planung bis zum 31. März 2015 erfolgen. Ab dem 01. Januar 2016 soll das neue Regelwerk dann schließlich starten. 

Laut der Studie „Branchenkompass 2013 Versicherungen“ des Beratungsunternehmens Steria Mummert Consulting, bei der Führungskräfte der 100 größten Versicherungsgesellschaften in Deutschland zu ihren Investitionszielen und ihrer Geschäftspolitik bis 2016 befragt wurden, stellte sich heraus, dass für viele Assekuranzen die Bereitstellung der Daten ganz oben auf der Compliance-Agenda steht. 

Standardisierung der Daten gewinnt an Bedeutung

Inzwischen laufen die Vorbereitungen für die Einführung von Solvency II in den meisten Versicherungsunternehmen auf Hochtouren. Damit einher geht eine Standardisierung der Daten, die zunehmend in den Fokus rückt. Es wird erkennbar, dass in der Branche die Verfügbarkeit und die Qualität der Daten als größte Herausforderungen im Solvency II-Umfeld wahrgenommen werden. 

Für Analysezwecke von Schäden und Prämien sind zukünftig vielfältigere Datensammlungen und umfangreichere Datenhistorien erforderlich. Dabei kommt es vor allem auch auf die Qualität der Daten an. Die Ergebnisse der Steria-Mummert-Studie belegen, dass selbst relativ geringe Abweichungen in den Ausgangsdaten deutliche Auswirkungen auf die Risikobewertung haben.

Doch laut einer Untersuchung der Wirtschaftsprüfungs- und Beratungsgesellschaft PwC haben in Deutschland aber erst wenige Versicherer mit den häufig langwierigen Projekten zur Verbesserung und Sicherung der Datenqualität begonnen. 

Die aktuelle Situation in vielen Versicherungsunternehmen zeigt, dass oftmals eine doppelte Datenhaltung, unterschiedliche Datenhistorien und eine fehlende einheitliche Referenzierung, beispielsweise von Verträgen, vorherrschen. Daraus geht hervor, dass die heterogenen IT-Landschaften, die über viele Jahre gewachsen sind, nun für Probleme sorgen.

Dubletten und fehlerhafte Kundendaten sind die Regel

Kundendatenbanken von Assekuranzunternehmen enthalten häufig Dubletten oder sind unvollständig und inkonsistent. Dies ist nicht weiter verwunderlich, denn alleine in Deutschland gibt es im Jahr durchschnittlich etwa 4 Millionen Umzüge und rund 30.000 Änderungen bei Straßen, Postleitzahlen und Orten. 

Dazu kommen Falscherfassungen und typische Buchstabendreher bei der telefonischen Aufnahme der Adressen. Schätzungen besagen, dass selbst eine gut gepflegte Kundendatenbank zwischen zwei und zehn Prozent Dubletten enthält. Bei einer schlecht gepflegten steigen die Zahlen sogar auf 20 und 30 Prozent.

An einer einheitlichen Kundensicht mangelt es oftmals

Eine einheitliche Sicht auf die Kunden herzustellen, die von allen Mitarbeitern genutzt werden kann, ist also kein leichtes Unterfangen. Das Whitepaper „Kennen Sie Ihre Kunden?“ von Human Inference betrachtet die verschiedenen Bereiche, in denen die Kundendatenqualität eine Rolle spielt – wie z.B. Marketing, Vertrieb, Controlling oder Geschäftsplanung. aber auch Bereiche wir Kundenbeziehungsmanagement, Big-Data-Analysen oder Business Intelligence.

Es wird darin ein Ansatz vorgestellt, wie sich mit Hilfe von Datenqualitätsmaßnahmen und einer zentralen Lösung für das Master Data Management (MDM) die gesetzlichen Compliance-Anforderungen nach der Solvency-II-Richtlinie erfüllen lassen. 

Zugleich zeigt es, wie eine einheitliche Kundensicht erzielt werden kann, die zur besseren Nutzung von Geschäftschancen führt und die Effizienz von Systemen für das Customer Relationship Management (CRM) erhöht.

Mit Hilfe von CRM-Lösungen Kunden zielgenau ansprechen

Die Versicherungsbranche – so eine weitere Studie von Steria Mummert Consulting – stellt den Kunden zunehmend ins Zentrum ihrer Investitionen: Mehr als zwei Drittel der Assekuranzen in Deutschland bauen ihre Maßnahmen zur Kundenbindung und -gewinnung aus, 84 Prozent auch die Vertriebs- und Kommunikationswege. 

Durch neue CRM-Lösungen wollen sie ihre Kundendaten mit automatisierten Prozessen analysieren und so aufbereiten, dass sie für Zusatzverkäufe und den Absatz höherwertiger Produkte genutzt werden können.

Damit das jedoch funktioniert, muss auch in die Qualität der Kundendaten investiert werden. Häufig – so die Studie – ist nicht einmal klar, dass es sich bei verschiedenen Einträgen um ein und denselben Kunden handelt. Eine Voraussetzung für den Aufbau eines umfassenden Datenmanagements ist folglich die Integration aller für den Jahresabschluss erforderlichen Systeme und Daten. 

Um dies zu erreichen, empfiehlt es sich, zunächst für die aktuelle Systemlandschaft eine Bestandsaufnahme durchzuführen und die wesentlichen IT-Systeme und ihre Datenflüsse hinsichtlich ihrer fachlichen Zugehörigkeit zu kategorisieren. So können anhand einer Analyse der Datenflüsse Inkonsistenzen und Dubletten von Daten erkannt und gegebenenfalls behoben werden.

Fazit

Je früher, die entsprechenden Maßnahmen eingeleitet werden, desto besser wird die IT des Versicherungsunternehmens für die zukünftigen Herausforderungen gewappnet sein. Auch wenn sie nur ein Teilaspekt der gesamten Problematik sind, gelten die neuen Solvency II-Vorschriften auch für die Adressdaten von Kunden. 

Nachvollziehbare Datenladeprozesse und ein hohes Mindestmaß an Datenqualität gilt es deshalb hier ebenfalls zu etablieren. 

Durch einen vorausschauenden und flexiblen Einsatz von Datenqualitätslösungen, gibt es eine Reihe von Vorteile, die von der Risikominimierung und mehr Transparenz, über eine erhöhte Flexibilität und schnellere Reaktionsfähigkeit des Unternehmens reichen.

Gastbeitrag von 
Dr. Holger Wandt, Principal Advisor bei Human Inference. 
Bilder: Human Inference