Historisch gewachsene Data-Warehouse Landschaften mit komplexen Schnittstellenarchitekturen verzögern die Umsetzung neuer Anwendungsfälle. Fachbereiche stellen neue Anforderungen, der Backlog wächst. Refactoring Projekte oder komplette Neuentwicklungen basieren auf einer Analyse der bestehenden Architektur. Ein Zielbild der neuen Lösung im gesamten IT-Kontext muss entwickelt werden. Im folgenden Referenzprojekt haben wir die Analyse eines umfangreichen, bestehende Data-Warehouse begleitet und aus Enterprise-Architektur-Sicht Integration in die Gesamtlandschaft begleitet.

  • Über 20 Jahre gewachsenes Data-Warehouse
  • Mehr als 100 teils sehr umfangreiche inbound und mehr als 80 outbound Schnittstellen
  • Mehrere 1000 Endanwender, sowohl auf Datenbankebene wie auf Berichtsebene
  • keine vollständige Dokumentation oder veraltete Dokumente

Herausforderung

Fehlerhafte Daten = Fehlerhaftes Kerngeschäft?

Unser Kunde im Bereich Telekommunikation hat das Ziel, die bestehende Systemwelt zu vereinheitlichen. Verschiedene Produkte wie Telefonie, Internet und Fernsehen sollen künftig über ein System verwaltet werden können. Dafür sind verschiedene Systeme (Order-Management, Billing, Logistik, Adressverwaltung) in eine einheitliche Lösung zu überführen. Zum Stichtag ist geplant, die bisherige Systemwelt auf das neue operative CRM mit Schnittstellen zur Netzinfrastruktur umzustellen.

Werden auf diesem Weg Daten falsch migriert, führt dies zu komplexen Problemstellungen mit womöglich medialer Auswirkung: falsche Abschaltung von aktiven Kunden, Schadenersatzforderungen, fehlerhafter Rechnungsdruck - um nur einige Beispiele zu nennen.

Ihre Experten

Lösung

Der Ventum Migrationsansatz - eine Kombination aus klassischem und agilem Vorgehen.

Im Rahmen eines Migrationsprojekts sind zahlreiche Fragen bereits vorab zu klären, bevor in die Entwicklung eingestiegen werden kann:

  • Welche Daten sollen übernommen werden, bzw. können vom Zielsystem verwendet werden?
  • Wenn nur Teile übernommen werden, welche Teile? 
  • Anhand welcher Kriterien werden diese Teilmengen bestimmt?
  • Werden Informationen gezielt gefiltert?
  • Wie werden Daten aus multiplen Quellsystemen abgeglichen und konsolidiert?
  • Wie erfolgt die Bereinigung der Alt-Daten?
  • Wie werden bestehende Aufträge migriert?

Dabei ist zusätzlich auf die Einhaltung von Compliance Vorschriften und Revisionssicherheit zu achten, eine vollständige Nachvollziehbarkeit der Migration ist unerlässlich (Reconciliation).

Im Rahmen des Projekts wurden verschiedene Werkzeuge eingesetzt, insbesondere aber die SAP Dataservices und OpenTalend sowie Oracle PL/SQL Pakete für die Kundendatenkonsolidierung.

In der Analyse- und Konzeptionsphase ist der Migrationspfad, Abhängigkeiten der Daten im Hinblick auf das Zielsystem, der Datenbereinigungsansatz und viele weitere Punkte festzulegen. Je nach Vorkenntnis über die Bestandssysteme ist eine Einarbeitung in die Datenmodelle unerlässlich.

Weitergehend sind Messungen der zu erwartenden Mengengerüste und Laufzeiten durchzuführen. Für die finale Migration ist ein realistisches Zeitfenster festzulegen und in den Gesamtprojektplan zu integrieren.
Sollen Kundendaten aus verschiedenen Systemen konsolidiert werden, sind z. T. komplexe Business-Regelwerke zu definieren, um z. B. unterschiedliche Schreibweisen in Namensfeldern zu korrigiert und nur die jeweils aktuellsten und besten Daten zu übernehmen.
Ziel im Projekt war es, einen möglichst hohen Automatisierungsgrad zu erreichen, um die Migration wiederholbar und robust aufzubauen.

Bei der Entwicklung zeigen sich die Vorzüge eines agilen Vorgehens. Ausgehend von den Basisobjekten wird das finale Datenpaket zu Ladung ins Zielsystem kontinuierlich erweitert. Dieses Vorgehen erlaubt Regressionstests und qualitative Aussagen für das bevorstehende Cut-Over Wochenende.

Im gewählten Ansatz wurde mit Kundendaten gestartet, im nächsten Schritt erweitert um Adress- und Gerätedaten und so weitere relevante Datenquellen verarbeitet. Abschließend wurden schwebende Aufträge (Open Work Orders) berücksichtigt.
Nach jeder Testmigration wurden Auswertungen auf das Ergebnis durchgeführt, um die Migrationsquote zu bestimmen. Ziel war es, die manuelle Nacharbeitsquote durch das Call-Center auf ein Minimum zu reduzieren.
Weitergehend wurden Datenqualitätsprobleme zur direkten Bereinigung (data cleansing) an die zuständigen Fachbereiche übermittelt und die Nachhaltigkeit durch weitere Testmigrationen gemessen.

im Rahmen des Cut-Overs sind vor allem Faktoren, die sich auf die Laufzeit der Migation auswirken, zu beobachten. - Stehen die Quellsysteme mit ausreichender Performance zur Verfügung?

  • Sind alle relevanten Ansprechpersonen greifbar (War-Room)?
  • Sind alle Nutzer aus den Quellsystemen ausgeschlossen, um eine einheitliche Datenbasis zu garantieren?

Während der Durchführung wird die Performance einzelner Migrationsabschnitte gemessen und mit Zielwerten aus den Test-Migrationen verglichen, um das kritische Zeitfenster des Gesamtprojekts nicht zu gefährden.

Nach dem Go-Live erwartet das Migrationsteam Fragen aus den Fachbereichen und Callcentern zu einzelnen Datensätzen. Dabei sind schnelle Auskünfte erforderlich, da die Anfragen zumeist im Kundenkontakt entstehen.

Im Rahmen des Projekts wurde für diesen Zweck ein Reporting aufgebaut, um Fachbereichen die Datenherkunft und Transformation darzustellen (Self-Service). Komplexe Analysen wurden durch das Migrationsteam durchgeführt.

Mehrwert

99,97% Migrationsquote - minimale manuelle Nachbearbeitung und schneller Fokus auf das Kerngeschäft

Durch die hohe Migrationsquote konnte die Nachbearbeitung auf ein Minimum reduziert werden. Der Fokus der Kundenmitarbeiter lag ab Tag 1 nach der Umstellung auf dem Kerngeschäft, dem Vertrieb und dem Kundenservice.
Ventum brachte dabei Expertenwissen zu einer Vielzahl von Enterprise Applikationen sowie Host-Entwicklung in das Projekt, so daß die Analysephase verkürtzt werden konnte. Durch den Fokus auf Datenqualität und den gewählten stufenweisen Migrationsansatz konnte dieses Teilprojekt einen signifikanten Beitrag zum Projekterfolg liefern.

  • Vollautomatisierte Datenmigration von 99,97% der Kundenkonten innerhalb des geplanten Zeitfensters
  • Zusammenfassung von Kundenkonten für eine konsolidierte Rechnungsstellung – Amortisation des Gesamtprojekts innerhalb von
  • ahren allein durch Einsparung von Portokosten
  • Verbesserung der Service-Qualität durch umfassende Datenbereinigung
  • Freigabe der Dokumentation durch internes Audit

Kontakt

Kai Niessen

T. +49 89 122219642
kai.niessen@ventum.de

Newsbeiträge ansehen

Dr. Christoph Römer

T. +43 15 3534220
office@ventum.com

Philipp Wiegel

T. +49 89 122219642
philipp.wiegel@ventum.de

Newsbeiträge ansehen

Sind Sie bereit für neue Perspektiven? You decide where you will go.

Alle Jobs anzeigen

Zum Weiterlesen

Das könnte Sie auch noch interessieren:

Erfolgsgeschichte

Datenmigration - eine unterschätzte Disziplin.

29.05.2018

Mehr erfahren
Erfolgsgeschichte

Big Data - Big Questions!

29.05.2018

Mehr erfahren

Agilität - Der Weg ist das Ziel!?

28.05.2018

Mehr erfahren