November 27, 2023

Dies ist der vierte Teil unserer Reihe zu den vier Dimensionen einer Data-Driven Business Transformation. Wenn Sie den vorherigen Teil noch nicht gelesen haben, finden Sie ihn hier. In diesem Beitrag geht es um die Dimension der Technologie. Das Datenstrategie Team des INFORM DataLab nutzt die vier Dimensionen, um die gegenwärtige Situation von Unternehmen einzuschätzen und diese gegen Wunschvorstellungen zu benchmarken. Im Anschluss begleiten die Berater des DataLab ihre Kunden bei der Umsetzung nötiger Transformationsschritte.

 

Die Dimension Technologie  

Die „Technology“-Dimension ist wohl diejenige, die im Allgemeinen am stärksten mit einer Data-Driven Business Transformation assoziiert wird. Intuitiv ist diese Assoziation auch naheliegend, da Business Intelligence (BI), Data Science und Künstliche Intelligenz (KI) computergestützte Methoden sind. Die Technologie-Dimension befasst sich mit modernen Algorithmen, Werkzeugen und IT-Systemen, die das Rückgrat eines datengetriebenen Unternehmens bilden. Hierzu gehört vor allem die Analytics-IT-Architektur wie Computer, Server und Cloud, Tools zur Bearbeitung und Visualisierung von Daten sowie Sicherheitsvorkehrungen zum Schutz von außen und zur Absicherung bei Systemausfällen. Dieser Beitrag soll aber keine Vorstellung und Bewertung verschiedener Tools oder Anbieter sein, sondern eine generelle Perspektive auf die Technologieaspekte einer Data-Driven Business Transformation sowie relevanter Designentscheidungen geben.

Die vorangegangenen Beiträge haben bereits herausgearbeitet, dass jede der vier Dimensionen eine zentrale Bedeutung für ein Unternehmen hat. Dennoch werden datenrelevante Themen oft auf die Technologie-Dimension reduziert und entsprechend auf die Schultern der IT-Abteilung geladen. Hier liegt auch einer der häufigsten Gründe für das Scheitern von Transformationsprogrammen oder einzelnen Dateninitiativen, denn die Wertschöpfung mittels Daten findet letztlich in den Fachbereichen statt. Technologie allein verfolgt niemals einen Selbstzweck, sondern sollte immer nur als Werkzeug betrachtet werden, um Unternehmensziele zu erreichen. Dies gilt auch für die Data-Driven Business Transformation.

Datenhaltung und Pflege

Daten müssen organisiert und gepflegt werden. Hierzu setzen Unternehmen zunehmend auf zentrale Datenplattformen. Beim Aufbau solcher Datenplattformen haben Unternehmen viele Möglichkeiten. Meist setzen Unternehmen auf den Einsatz eines Data Warehouse und/oder eines Data Lake – abhängig von der Art und dem Umfang der Analytics-relevanten Daten. Strukturierte Daten (Tabellen) können in modernen Data Warehouses (DWH) gespeichert werden, die einen zentralen Ablageort für Analytics-relevante Daten in einem Unternehmen darstellen. Für die Speicherung von unstrukturierten Daten, die nicht in die Frameworks von DWHs passen, werden sogenannte Data Lakes genutzt. Sowohl DWHs als auch Data Lakes sind zentrale Speicherorte, die Daten in gesicherter Qualität vorhalten und diese den verschiedenen Fachbereichen zur Verfügung stellen, sofern diese zur Nutzung dieser Daten berechtigt sind. Die Daten werden dabei aus den operativen Quellsystemen (z.B. ERP, CRM oder HR-Systeme) in die Datenplattform kopiert, so dass Analysen die operativen Aufgaben der Quellsysteme nicht beeinflussen.

Datenplattformen werden zunehmend in Cloud-Umgebungen realisiert, um maximale Flexibilität und Skalierbarkeit zu gewährleisten. Die Motivation für zentrale Datenplattformen sind häufig Datensilos im Unternehmen mit unterschiedlichen Ladestrecken (ETL oder ELT) zur Aufbereitung sowie unterschiedliche oder gar widersprechende Analyseergebnisse aus den Datensilos. Zentrale Datenplattformen brechen Datensilos im Unternehmen auf und schaffen eine zentrale Datenbasis für alle Datenprodukte (Single-Point-of-Truth).

Neben der Wahl eines konkreten Cloud-Anbieters und geeigneter Datenbanktechnologien bieten zunehmend Automatisierungskomponenten die Möglichkeit, Datenpipelines und/oder Modellierungstätigkeiten weitestgehend zu automatisieren. Dadurch wird der Aufbau und der Betrieb zentraler Datenplattformen mit minimalem Mitarbeitereinsatz möglich. Traditionell benötigt der Aufbau eines DWH eine große Menge an Data Engineers, die mit Arbeiten zum Aufbau von Pipelines und Datenmodellierung beschäftigt sind. Mit neuer Technologie und Software kann dieser Aufbau größtenteils automatisiert und damit signifikant beschleunigt werden. Gleichzeitig können diverse Data Engineer Stellen eingespart werden, bzw. mit anderen Aufgaben betreut werden.

Analog existieren auch Tools zur Datenpflege, wie z.B. zum Metadatenmanagement oder für eine strukturierte Bereitstellung von Master Data (Stammdaten). Metadaten sind Informationen über die verfügbaren Daten, wie beispielsweise die Bedeutung von Daten im Geschäftskontext oder technische Informationen wie Erfassungs- und Änderungsdatum. Metadatenerfassung und -pflege geht Hand in Hand mit einer effektiven Data Governance. Master Data Management Systeme werden häufig abseits der Analytic für die operativen Systeme eingesetzt, wenn es darum geht, Datensätze aus verschiedenen operativen Systemen zu vereinheitlichen. Ein Beispiel hierfür sind Kundendaten, die sowohl im ERP- als auch im CRM-System vorgehalten werden und in Form eines „Golden Records“ im Master Data Management System vereinheitlicht werden. Existiert im Unternehmen ein Master Data Management System, so kann dieses als Quellsystem für eine zentrale Datenplattform dienen. Ist kein Master Data Management System vorhanden, so werden die Stammdaten innerhalb der Datenplattform harmonisiert, um „Golden Records“ für die aufsetzenden Datenprodukte zu generieren.

Werkzeuge zur Datenauswertung 

Um aus Daten Mehrwerte schöpfen zu können, müssen diese aufbereitet, visualisiert oder auf andere Art verarbeitet werden. Für diese Arbeiten stehen verschiedenste Werkzeuge zur Verfügung, die Daten visualisieren und Kennzahlen berechnen. Die Ergebnisse können dann in Reports zusammengefasst oder in kurzfristigen Intervallen über Dashboards angezeigt werden. Für fortgeschrittene Methoden der Analytik sowie für Data Science oder KI-Anwendungen existieren diverse Produkte & Bibliotheken, die z.B. über die Programmiersprachen Python open source und kostenfrei zur Verfügung stehen.

Zusammenfassung 

Das Spektrum der verfügbaren Lösungen am Markt ist groß, und die Entwicklungen stehen nicht still. Auf einige Designentscheidungen sind wir in diesem Artikel exemplarisch eingegangen. Eine passende Analytics-Technologiewahl ist wichtig für Unternehmen, sollte aber niemals der Startpunkt der Aktivitäten hin zu einem datengetriebenen Unternehmen sein. Die Anforderungen an eine maßgeschneiderte Analytics-IT-Infrastruktur ergeben sich durch die realisierten und geplanten Datenanwendungsfälle. Möchte ein Unternehmen beispielsweise Predictive Maintenance in der Produktion nutzen, ergeben sich andere Anforderungen, als wenn ein Unternehmen ausschließlich BI & Reporting-Anwendungsfälle für Transparenz und datenbasierte Entscheidungsprozesse anstrebt. Daher ist es so wichtig für Organisationen, sich zunächst mit den strategischen Datenanwendungsfällen auseinanderzusetzen, die im Rahmen einer Datenstrategie evaluiert werden. Dazu ist es notwendig zu definieren, was datengetrieben für das Unternehmen eigentlich konkret bedeutet.


AUTOR

Dr. Jens Linden

Jens ist ein Data Scientist und Stratege im INFORM DataLab mit mehr als 15 Jahren Berufserfahrung in der Generierung von Mehrwert aus Daten mithilfe von Analytics, Data Science und KI. Jens vereint tiefgreifendes technisches Wissen mit Geschäftssinn, was es ihm ermöglicht, die Anforderungen der Geschäftsinteressengruppen in realisierbare Datenlösungen mit messbarem Einfluss umzusetzen. Darüber hinaus hilft er Organisationen dabei, Datenstrategien für ihre digitalen Transformationsprozesse zu entwerfen und umzusetzen.