Data Service Layer: Der “Daten Drive-In” für jeden Fachbereich

Setzen Sie in Ihrer IT auf stabile Services mittels klassischer Analytics Technologien oder bereits auf neuartige Analytics Möglichkeiten, wie Artificial Intelligence, Data Lake, Machine Learning oder Big Data? Oft stellt sich die Frage: Klassisch oder Neu? – Unsere Antwort: die richtige Mischung macht‘s.

Denn vor allem in Produktionsunternehmen ist eine Kombination aus klassischen und neuen Data Analytics Technologien unabdingbar. Ob in der Vorfertigung, der Lackiererei oder in der Endmontage – überall herrscht ein großer Bedarf an Kennzahlen für die Entscheidungsunterstützung, Prozessoptimierung oder die Use Case Findung in der frühen Analysephase. Durch enormes Datenvolumen und komplexere Technologien reichen klassische Analytics Methoden allein nicht mehr aus. Kennzahlen wie die Direktläuferquote, Nacharbeitsminuten oder die Termintreue sind nur einige wenige Kennzahlen, welche aus der langen Liste der geforderten Kennzahlen stammen. Diese und viele weitere Kennzahlen können durch neue Analytics Methoden berechnet werden. Doch dies stellt viele Produktionsunternehmer vor große Herausforderungen.

Es geht darum, Kennzahlen auf Basis von Echtzeit Prozessdaten zu steuern und noch aussagekräftiger, verlässlicher und nachvollziehbarer zu machen. Doch sind die Voraussetzungen hierfür vorhanden? Häufig ist es nicht bekannt, ob die gewünschten Prozessdaten in der richtigen Qualität verfügbar sind - oder wie der Zugriff auf die Daten gelingt. Denn es werden Daten aus den unterschiedlichsten Quellen benötigt, für die die IT den Zugriff nicht flexibel und im benötigten Umfang gewährleisten kann. Viele Data Journeys und Data Driven Use Cases brechen an dieser Stelle ab. Ursächlich: eine Reihe von Compliance-, Release-, Wartungs-, Migrations- und technischen Bedingungen, die eingehalten werden müssen.

Daten mit neuen Analytics Möglichkeiten verarbeiten und weiter nutzen – ein kurzer Einblick in Big Data, KI und Machine Learning:

Die digitale Transformation bietet durch die Generierung von enormen Datenmengen eine hervorragende Grundlage für neue Technologien, wie auch für die künstliche Intelligenz (KI). Die meisten denken dabei bestimmt an menschenähnliche Roboter, doch auch Unternehmen aus fast allen Branchen mit Datenerzeugung – egal von welcher Größe - können künstliche Intelligenz anwenden und davon profitieren. Was tut künstliche Intelligenz in der Anwendung? - Der Prozess der künstlichen Intelligenz in Technologien umfasst grundsätzlich drei Muster:

  • das Lernen (Extrahieren von aussagekräftigen Erkenntnissen und Mustern),
  • die Vorhersage (Verwenden der gesammelten Informationen, die Geräten zu helfen, plausible zukünftige Entscheidungen zu treffen)
  • und die Selbstkorrektur (die Kunst, jeden Tag effizienter zu werden).

Somit bietet künstliche Intelligenz einen automatisieren, effektiven und effizienten Zugang zu neuen intelligenten Produkten, Geschäftsmodellen oder Services. Künstliche Intelligenz wird heute meist als „As-a-Service“ oder als Teil einer Softwarelösung verwendet. Durch cloudbasierte Lösungen künstlicher Intelligenz ist es möglich, dass auch kleinere Unternehmen Zugang zu künstlicher Intelligenz Technologien erhalten und davon profitieren können. Zusätzlich kann eine KI Microservices Architektur die Basis für den besten Fit zwischen einer Lösung und einer Problemstellung darstellen, denn anders als bei der Implementierung klassischer IT Lösungen, sollte man beim Testen von künstlicher Intelligenz nicht zögern, diverse Services, Anbieter und Designs zu erproben.

Effektive Nutzung gesammelter Daten – Mit Big Data Analytics wird es möglich, große Datenmengen aus den unterschiedlichsten Quellen mit Hilfe von Suchabfragen zu beschaffen. Danach können die gewonnenen Daten leichter ausgewertet, analysiert, optimiert und präsentiert werden. Während Social Media Unternehmen vor allem Nutzerverhalten analysieren können, ist es ebenso möglich, Industrial Science auf Basis von Datengeneratoren wie Produktionsanlagen oder Maschinen anzuwenden, um beispielsweise die Produktionseffizienz zu steigern. Die von Ihnen aus der Datenanalyse gewonnen Erkenntnisse können ebenso dazu beitragen, Unternehmensabläufe und Geschäftsprozesse zu verbessern. Auch Risiken können frühzeitig erkannt werden und es können Wettbewerbsvorteile für Ihr digitales Unternehmen erlangt werden. Ebenso können schwierige Entscheidungsprozesse für Sie durch Big Data Analytics erleichtert werden. Worauf es ankommt? - Um die Anwendungen und Daten sinnvoll Aufbereiten zu können, sind geschulte Mitarbeiter ebenso essentiell, wie die Implementierung der richtigen Softwarelösungen. Denn nur sie können die enormen Informationsmengen, die Big Data mit sich bringt, optimal bereitstellen.

Durch neue Computertechnologien ist es möglich, komplexe Algorithmen automatisch auf gigantische Datenmengen anzuwenden. Wozu? Die verwendeten Algorithmen können aus der Nutzung der Daten lernen, um so Trends für zukünftige Themen vorherzusagen. Dabei gilt: je mehr Trainingsdaten einem Algorithmus gegeben werden, desto eher kann er seine Fehlerquote minimieren und autonom wachsen. Machine Learning kann auch als Schlüsseltechnologie für künstliche Intelligenz verstanden werden.

Der Schlüssel zum Erfolg: ein Data Layer. Der Data Layer stellt eine Architektur dar, welche die Nutzer näher an die Daten bringt. Ein weiterer Vorteil - Business Intelligence Tools (wie z.B. Tableau oder Qlikview) werden von den Backends entkoppelt, sodass die Fachbereiche ihre Daten zeitnah und in Echtzeit auswerten können. Gleichzeitig kann die IT flexibel auf Technologietrends, variierende Lasten und aufkommende Ablösungen im Backend reagieren. Der Fachbereichsnutzer hat somit auf Basis des Data Layers einen Überblick und umfassende Suchmöglichkeiten über Geschäftsobjekte, Dimensionen und KPIs. Jedes dieser Elemente verfügt zudem über einen Link, der als Quelle in einem der gängigen BI Tools herangezogen werden kann. Auf der Ebene Geschäftsobjekte, Dimensionen, KPIs und Rollen lassen sich dadurch auch Zugriffsrechte vergeben, die sich entsprechend an den Bedarfen des Informations- und Datenschutzes orientieren. Im Ergebnis wird eine automatisierte Zugriffssteuerung im Sinne Self-Service für nahtlose Data Journeys ermöglicht, die dennoch Data Governance compliant und steuerbar bleiben.

Beispiel eines Data Layers in einer Enterprise Data Architektur: Dieser ermöglicht durch die Verfügbarkeit einer Schnittstelle zu einem Business Intelligence Tool dem Endnutzer die Option zu Datenauswertungen (Bsp. Kennzahlen) in Echtzeit.

Wie steht es um Ihre Data Journey? - Wir zeigen Ihnen, wie Echtzeit Analytics der nächsten Generation aussieht. Unsere Experten aus dem Bereichen Enterprise Architecture Management und Business Intelligence zeigen Ihnen den Weg zu einer Enterprise Data Architektur, welche die Integration, Qualität und Verfügbarkeit Ihrer Daten verbessert – welche Rolle spielen API Management und Cloudlösungen in Ihrem Unternehmen?

Wir helfen Ihnen gerne weiter.

Tobias Hirsch

T. +49 89 122219642
tobias.hirsch@ventum.de

Christian Kabelin

T. +49 89 122219642
christian.kabelin@ventum.de

Zum Weiterlesen

Das könnte Sie auch noch interessieren.

Rettet die Revolution. Wie Sie Industrie 4.0 in der Praxis umsetzen.

08.04.2019 erstellt von Philipp Karner

Mehr erfahren

Customer Driven Product Development: Der PEP beginnt mit Ihren Ideen.

08.04.2019 erstellt von Philipp Karner

Mehr erfahren