Data Strategy, Use Case

Ein neues Daten-Reifegradmodell für die Verkehrsbetriebe Zürich

Die Verkehrsbetriebe Zürich (VBZ) sind ein städtischer Verkehrsbetrieb, der den Großteil des öffentlichen Nahverkehrs in Zürich betreibt. Als eines von acht marktverantwortlichen Unternehmen im Zürcher Verkehrsverbund stellen sie ein effizientes, verlässliches und vernetztes Angebot an Tram- und Busverbindungen sicher.


Daten als Motor der Mobilitätswende: Herausforderungen im öffentlichen Nahverkehr

Im Kontext der Mobilitätswende spielt der Umgang mit Daten eine zentrale Rolle für die Zukunft des öffentlichen Nahverkehrs und damit auch für den Erfolg der Verkehrsbetriebe Zürich (VBZ). Ob mit dem Tram, dem Bus oder zu Fuss – die Menschen in Zürich sind in Bewegung. Digitale Plattformen helfen dabei, indem sie zeigen, wann die nächste Verbindung kommt und wie lange die Reise dauert. Doch hinter jeder zuverlässigen Verbindung und jeder präzisen Auskunft steckt eine riesige Menge an Daten.

Daten spielen eine zentrale Rolle im öffentlichen Verkehr. Verkehrsunternehmen wie die VBZ stehen dabei vor der Herausforderung diese Daten nicht nur für den Fahrgastservice bereitzustellen, sondern sie auch gezielt für fundierte Entscheidungen zu nutzen: Wo gibt es häufig Verspätungen? Wo braucht es eine neue Haltestelle? Eine effiziente, zuverlässige und nachhaltige Mobilität braucht fundierte Analysen und smarte Lösungen.


Strategisches Programm Datenmanagement: Weichenstellung für die Zukunft

Vor diesem Hintergrund wurde 2019 das strategische Programm Datenmanagement ins Leben gerufen. Es verfolgt das Ziel, eine professionelle Datenkultur zu etablieren, die Nutzung von Daten zu optimieren und Entscheidungen noch stärker datenbasiert zu gestalten.

Ein zentraler Akteur in diesem Programm ist das Data Office der VBZ. Dieses 3-köpfige Team leitet das Datenmanagement operativ und fachlich und arbeitet dabei eng mit diversen Abteilungen zusammen, um die Fachbereiche mit Beratung, Data Leadership und der Erstellung von Analytics-Produkten zu unterstützen. Darüber hinaus treibt das Data Office die Entwicklung einer nachhaltigen Datenkultur voran – eine wesentliche Grundlage für eine effektive Wertschöpfung mit Daten.

Das Datenmanagement der VBZ hat sich in den letzten Jahren zu einem komplexen Zusammenspiel verschiedener interner und externer Akteure entwickelt. Gleichzeitig wurden immer mehr Handlungsfelder und Projekte initiiert, die eine koordinierte Steuerung erfordern. Um die Fortschritte auf dem Weg zu einem professionellen Umgang mit Daten besser messbar und steuerbar zu machen, entschied sich die VBZ, das bestehende Data Maturity Modell (DMM) weiterzuentwickeln. Ziel war die Schaffung eines dynamischen Arbeitsinstruments, das flexibel an veränderte Anforderungen angepasst werden kann.

Für dieses ambitionierte Projekt hat die VBZ das Datenstrategie-Team des INFORM DataLabs als Partner ausgewählt.


Vom Ist-Zustand zur Zukunftsstrategie: Der Weg zu einem flexiblen Reifegradmodell

Um ein tiefgehendes Verständnis für das Unternehmen, das strategische Programm Datenmanagement, den Tätigkeitsbereich des Data Offices sowie relevante Rahmenbedingungen zu entwickeln, begann das Team des INFORM DataLabs mit der Analyse verschiedener Dokumente. Die gewonnenen Informationen wurden strukturiert auf einem zentralen Miro-Projektboard aufbereitet und mit der VBZ geteilt, um maximale Transparenz und Zusammenarbeit zu gewährleisten.

In einer Reihe weniger, effizienter Arbeitsmeetings klärte das Projektteam offene Fragen gemeinsam mit den VBZ-Verantwortlichen. Dabei konnten wir nicht nur die Ausgangssituation präzisieren, sondern auch wertvolle Einblicke in die (Daten-)Kultur der VBZ gewinnen. Dies ermöglichte es uns als Kulturdetektive, unser Gesamtbild schrittweise zu vervollständigen.

Etwa zur Hälfte der achtwöchigen Projektlaufzeit führten wir ein Boxenstopp-Meeting mit dem Kernprojektteam durch. In diesem Meeting teilten wir unser Verständnis der Ausgangslage, präsentierten unseren Datenstrategie-Methodenkoffer und ordneten die Aufgabenstellungen des Projekts unserem bewährten Vorgehensmodell zu. Diese strukturierte Herangehensweise half der VBZ, die Komplexität des Projekts besser einzuordnen und klare Prioritäten zu setzen.

Um das Projekt erfolgreich abzuschließen, präsentierten wir zwei mögliche Szenarien, die wir gemeinsam hinsichtlich ihrer Vor- und Nachteile sowie der jeweiligen Implikationen diskutierten. Nach einer fundierten Entscheidung wurde ein dreistündiger Datenstrategie Workshop durchgeführt, in dem wir die Anforderungen an Daten und Analytics aus der Geschäftsstrategie abgeleitet haben und basierend darauf die wesentlichen strategischen Entscheidungen für die Datenstrategie des Data Offices erarbeitet wurden. Auf dieser Grundlage entwickelten wir die erforderlichen organisatorischen Kompetenzen und Systeme, welche die Dimensionen des neuen Reifegradmodells bilden.

Das Ergebnis: ein zukunftsorientiertes Reifegradmodell, das nicht nur die aktuelle Strategie des Data Offices widerspiegelt, sondern auch flexibel an zukünftige Anforderungen angepasst werden kann. Ergänzend dazu wurde ein praxisnahes Vorgehensmodell für künftige Anpassungen erarbeitet, um die langfristige Weiterentwicklung des Datenmanagements bei der VBZ sicherzustellen.

Das Projekt im Überblick

Projektziel:
Weiterentwicklung des Data Maturity Modells zu einem dynamischen Arbeitsmittel, das flexibel an zukünftige Anforderungen angepasst werden kann

Lösung:
Analyse des Status Quo in Zusammenarbeit mit der VBZ und anschließendem Datenstrategie Workshop

Projektdauer:
10 Wochen

Ergebnis:
Zukunftsorientiertes Reifegradmodell, das auch flexibel an zukünftige Anforderungen angepasst werden kann sowie ein praxisnahes Vorgehensmodell für künftige Anpassungen, um langfristige Weiterentwicklungen sicherzustellen.

„Am gemeinsamen Projekt mit dem INFORM DataLab haben wir besonders das strukturierte Vorgehen geschätzt. Richtungsweisende Entscheidungen wurden klar herausgearbeitet, Optionen und deren Konsequenzen transparent dargestellt – eine entscheidende Grundlage für unseren Projekterfolg.“

- peggy neubert, leiterin daten- und mobilitätsanalyse, vbz

Read More
Data Management, Data Strategy

Cloud-Migration: Warum sich der Wechsel in die Cloud lohnt – Vorteile, Strategien & Best Practices 

Cloud-Technologien als strategischer Vorteil: Warum Unternehmen jetzt migrieren sollten 

Die Migration in die Cloud ist längst nicht mehr nur ein Trend, sondern eine strategische Notwendigkeit für Unternehmen. Die Hauptgründe für diesen Wandel sind vor allem der ökonomische Druck und die zunehmende Komplexität von Innovationsprojekten. Beide Faktoren unterstreichen die enormen Vorteile moderner Cloud-Plattformen. 

Durch die Vielzahl an Platform-as-a-Service (PaaS)- und Software-as-a-Service (SaaS)-Diensten lassen sich Kosten erheblich senken, da viele Aufgaben – von Infrastruktur-Management bis hin zu Sicherheitsupdates – automatisiert ablaufen. Moderne Cloud-Architekturen ermöglichen zudem eine höhere Skalierbarkeit, geringeren Administrationsaufwand und eine verbesserte Sicherheit. 

Doch warum genau lohnt sich der Umstieg? Schauen wir uns einige Schlüsselszenarien an. 

Szenario 1: Big Data, AI & Machine Learning in der Cloud: Neue Chancen für datengetriebene Geschäftsmodelle 

Es ist heute kaum möglich, alle zukünftigen Anwendungsfälle für Daten vorherzusehen. Die Cloud bietet jedoch die Möglichkeit, Daten langfristig und kosteneffizient zu speichern, um sie für zukünftige Innovationen zu nutzen. Durch flexible Speicherlösungen lassen sich große Datenmengen sicher und skalierbar verwalten, sodass sie für spätere Analysen, Automatisierungen oder neue Technologien verfügbar bleiben. 

Beispielsweise können Unternehmen Terabytes an Daten in Cloud-Archivspeichern für weniger als 1 € pro Monat pro Terabyte speichern. Die Abrufzeiten variieren je nach Speicherklasse und Anbieter: 

  • Amazon S3 Glacier Deep Archive: Abrufzeiten zwischen 12 und 48 Stunden. 
  • Azure Archive Storage: Abrufzeiten in der Größenordnung von Stunden. 
  • Google Cloud Archive Storage: Kosteneffiziente Langzeitspeicherung mit Abrufzeiten von Minuten bis Stunden. 

Durch Techniken wie Lifecycle-Management, Archivierung und die Wahl geeigneter Speicherklassen können Unternehmen die Kosten weiter senken und gleichzeitig sicherstellen, dass Daten bei Bedarf verfügbar sind. Dies ist besonders vorteilhaft für Unternehmen mit wachsendem Datenbestand und unvorhersehbaren zukünftigen Anforderungen. 

Doch das langfristige Speichern von Daten allein reicht nicht aus – der wahre Wert liegt in der Verknüpfung mit zukünftigen Technologien, die sich dynamisch an neue Trends anpassen können. Cloud-native Plattformen wie Snowflake, Databricks und Google BigQuery integrieren zunehmend Künstliche Intelligenz (AI), Machine Learning (ML) und Automatisierung, um aus gespeicherten Daten neue Erkenntnisse und Geschäftsmodelle zu generieren. 

  • Snowflake bietet mittlerweile eine native AI- und ML-Integration, um direkt auf gespeicherten Daten prädiktive Analysen und Automatisierungen durchzuführen. 
  • Databricks kombiniert Data Lakehouse-Technologien mit Generative AI und Large Language Models (LLMs), um unstrukturierte und strukturierte Daten effizient für AI-Anwendungen nutzbar zu machen. 
  • Google BigQuery ML ermöglicht es Unternehmen, direkt in der Datenbank Machine-Learning-Modelle zu trainieren und zu deployen, ohne dass Daten verschoben werden müssen. 
  • AWS Sagemaker und Azure Machine Learning bieten eine enge Verzahnung mit Cloud-Speichern, um AI-Modelle direkt auf historischen und Echtzeit-Daten auszuführen. 

Diese Entwicklungen zeigen, dass sich Daten nicht nur für zukünftige Anwendungen speichern, sondern aktiv in moderne Cloud-Technologien integrieren lassen. Neue Trends wie AI-gestützte Prozessautomatisierung, Data Mesh-Architekturen oder multimodale Datenanalysen sind ausschließlich in der Cloud in dieser Form möglich, da sie eine skalierbare, zentrale Infrastruktur mit direktem Zugang zu leistungsfähiger Compute-Power benötigen. 

Unternehmen, die heute in Cloud-basierte Datenspeicherung und -verarbeitung investieren, schaffen sich somit nicht nur einen Wettbewerbsvorteil, sondern auch eine zukunftssichere Basis für die nächste Generation datengetriebener Innovationen. 

Szenario 2: (On-Demand-)Skalierbarkeit 

Cloud-Skalierbarkeit: IT-Ressourcen flexibel anpassen und Kosten senken 

Warum ist Skalierbarkeit in der Cloud ein Gamechanger für Unternehmen? 

Unternehmen entwickeln oft Datenlösungen für einzelne Standorte oder Abteilungen, die später global ausgerollt werden sollen. In einer klassischen IT-Infrastruktur müssten alle zukünftigen Kapazitätsbedarfe bereits vorab eingeplant werden, was oft zu Über-Provisionierung und hohen Fixkosten führt. Zudem fehlt in traditionellen Systemen die Flexibilität, um auf plötzliche Veränderungen im Datenaufkommen oder neue Geschäftsanforderungen zu reagieren. 

Was bedeutet On-Demand-Skalierbarkeit in der Cloud? 

In der Cloud hingegen lassen sich Ressourcen dynamisch anpassen – sowohl nach oben als auch nach unten. Dies ermöglicht: 

  • Bedarfsgerechte Skalierung statt teurer Vorabinvestitionen, sodass Unternehmen nur für benötigte Ressourcen zahlen. 
  • Automatisierte Lastverteilung in Spitzenzeiten, um Engpässe zu vermeiden und eine gleichbleibend hohe Performance zu gewährleisten. 
  • Pay-as-you-go-Modelle, bei denen ausschließlich die tatsächlich genutzten Ressourcen abgerechnet werden. 

Diese Vorteile bringt flexible Cloud-Skalierung für Unternehmen 

  • Globale Verfügbarkeit ohne Infrastrukturaufwand: Unternehmen können neue Märkte erschließen und Datenlösungen weltweit bereitstellen, ohne eigene Rechenzentren aufbauen zu müssen. 
  • Multi-Cloud- und Hybrid-Strategien: Cloud-Technologien ermöglichen eine Kombination aus lokaler Infrastruktur (On-Premises), Public Cloud und Private Cloud, wodurch Unternehmen eine maßgeschneiderte IT-Architektur aufbauen können. 
  • Dynamische Skalierung für KI- und Analytik-Anwendungen: Besonders im Bereich Machine Learning (ML) und Generative AI erfordert das Training und Deployment von Modellen hochskalierbare Compute-Ressourcen – in der Cloud lassen sich Cluster innerhalb von Minuten hoch- und herunterskalieren. 
  • Automatische Optimierung von Kosten und Performance: Durch intelligente Workload-Management-Funktionen können Cloud-Plattformen erkennen, welche Ressourcen tatsächlich genutzt werden, und nicht genutzte Instanzen herunterfahren, um Kosten zu sparen. 
  • Einfache Integration neuer Technologien: Unternehmen können schnell auf neue technologische Entwicklungen reagieren, indem sie beispielsweise Data Warehouses (Snowflake, BigQuery, Redshift), Data Lakes oder Echtzeit-Streaming-Analytics (Databricks, Kafka, Flink) flexibel in ihre Architektur integrieren. 

Praxisbeispiele: Wie Unternehmen von Cloud-Skalierbarkeit profitieren 

Gerade für Unternehmen mit saisonalen Schwankungen, unvorhersehbarem Wachstum oder datenintensiven Anwendungen ist dies ein entscheidender Vorteil. Die Cloud bietet nicht nur flexible Skalierungsmöglichkeiten, sondern ermöglicht auch eine effizientere und intelligentere Nutzung von IT-Ressourcen, wodurch Unternehmen schneller auf Marktveränderungen reagieren und Innovationsprojekte ohne lange Vorlaufzeiten umsetzen können. 

Szenario 3: Warum Cloud-Plattformen Compute und Storage getrennt skalieren – und welche Vorteile das bringt 

Dieses Szenario ermöglicht im Prinzip Szenario 2 als zugrundeliegende Architektur. Doch die Trennung von Compute & Storage bringt weit mehr als nur Skalierungsvorteile – sie verändert grundlegend, wie moderne Datenarchitekturen aufgebaut und betrieben werden. 

Die Vorteile der Trennung von Compute und Storage in der Cloud 

Der größte Vorteil dieser Trennung liegt darin, dass Rechenkapazität (Compute) und Speicherplatz (Storage) unabhängig voneinander skaliert werden können. Das bedeutet: 

  • Benötigen Sie mehr Rechenkraft, um komplexe Analysen oder Machine-Learning-Modelle zu verarbeiten? Kein Problem – ohne zusätzliche Lizenzen oder Speicherplatz zu erwerben. 
  • Müssen Sie große Datenmengen speichern, aber nur selten abfragen? Sie können dies kosteneffizient tun, ohne mehr Rechenleistung bereitzustellen. 
  • Traditionelle On-Premise-Systeme hingegen skalieren meist in beiden Dimensionen gleichzeitig, was zu ineffizienter Ressourcennutzung und höheren Kosten führt. 
  • Kombination verschiedener Workloads mit dem gleichen Storager: AI und Relationale Engines handhaben Daten gurndlegend unterschiedlich. Durch eine saubere Trennung können unterschiedliche Compute-Ressourcne auf die gleiche Datengrundlage zurückgreifen und somit Synergien nutzen. 
  • Bessere Performance durch parallele Verarbeitung: Da Rechen- und Speicherressourcen unabhängig voneinander verwaltet werden, können komplexe SQL-Analysen, ETL-Prozesse oder KI-Modelle schneller parallel verarbeitet werden. Plattformen wie AWS Redshift RA3, Snowflake oder Azure Synapse nutzen diese Architektur, um Daten direkt im Storage zu verarbeiten, ohne sie in teure Compute-Ressourcen laden zu müssen. 
  • Höhere Datenverfügbarkeit & Resilienz: In klassischen Systemen kann ein Compute-Ausfall auch den Zugriff auf gespeicherte Daten beeinträchtigen. In der Cloud bleiben Daten jederzeit verfügbar, selbst wenn Compute-Ressourcen abgeschaltet oder neu gestartet werden. Dies ermöglicht eine bessere Geschäftskontinuität und reduzierte Ausfallzeiten.  
  • Flexible Datenverarbeitung für Multi-Cloud-Strategien: Unternehmen, die mit Multi-Cloud- oder Hybrid-Cloud-Ansätzen arbeiten, profitieren besonders von dieser Architektur. Daten können in einem zentralen Cloud-Speicher abgelegt werden (z. B. AWS S3, Google Cloud Storage, Azure Data Lake), während Compute-Engines aus verschiedenen Clouds darauf zugreifen. 

Szenario 4: SaaS & PaaS: Automatische Updates, höhere Sicherheit und weniger Ausfälle dank Cloud 

Warum SaaS & PaaS die IT-Welt revolutionieren 

Sowohl Software-as-a-Service (SaaS) als auch Platform-as-a-Service (PaaS) Lösungen bieten erhebliche Vorteile gegenüber traditionellen On-Premise-Systemen. Ein wesentlicher Vorteil ist, dass diese Systeme in der Regel versionslos sind. Das bedeutet, dass Software-Updates, Fehlerbehebungen und allgemeine Wartungsarbeiten automatisch vom Anbieter durchgeführt werden, wodurch manuelle Eingriffe und geplante Ausfallzeiten für Wartungsfenster entfallen.  

Zusätzlich verfügen diese Architekturen über eine eingebaute Redundanz. Daten werden über mehrere Rechenzentren, Verfügbarkeitszonen oder sogar Kontinente hinweg repliziert. Im Falle eines Ausfalls einer Instanz übernimmt eine redundante Instanz nahtlos den Betrieb, ohne zeitliche Verzögerung oder Datenverlust. Diese hohe Verfügbarkeit und Ausfallsicherheit sind integrale Bestandteile von SaaS- und PaaS-Angeboten.  

Darüber hinaus bieten SaaS- und PaaS-Lösungen weitere Vorteile: 

  • Kosteneffizienz: Durch die Nutzung von Cloud-Ressourcen entfallen hohe Anfangsinvestitionen in Hardware. Stattdessen zahlen Unternehmen nur für die tatsächlich genutzten Ressourcen, was zu einer effizienteren Kostenstruktur führt.  
  • Skalierbarkeit: Diese Dienste ermöglichen es Unternehmen, ihre Ressourcen je nach Bedarf flexibel zu skalieren, ohne in zusätzliche Infrastruktur investieren zu müssen. Dies ist besonders vorteilhaft bei schwankenden Arbeitslasten oder während Wachstumsphasen.  
  • Schnellere Markteinführung: Mit PaaS können Entwicklungsteams Entwicklungs-, Test- und Produktionsumgebungen in Minuten statt in Wochen oder Monaten einrichten, was die Zeit bis zur Markteinführung erheblich verkürzt.  

Eine von Microsoft in Auftrag gegebene Studie von Forrester Consulting ergab, dass Unternehmen, die ihre Anwendungen auf Azure PaaS modernisieren, über einen Zeitraum von drei Jahren eine Kapitalrendite von 228 % erzielen konnten. Zudem wurden erhebliche Einsparungen bei den Infrastrukturkosten für die Anwendungsentwicklung sowie Produktivitätssteigerungen in den IT- und Datenbankadministrator-Teams verzeichnet.  

Forrester study finds 228 percent ROI when modernizing applications on Azure PaaS | Microsoft Azure Blog 

Zusammenfassend bieten SaaS- und PaaS-Lösungen nicht nur technische Vorteile wie automatische Updates und hohe Verfügbarkeit, sondern auch wirtschaftliche Vorteile durch Kosteneinsparungen und Effizienzsteigerungen.

Datenmigration vs. Datenbankmigration: Wichtige Unterschiede & Best Practices 

Warum die richtige Migrationsstrategie entscheidend ist 

Die Cloud-Migration umfasst verschiedene Anwendungsfälle, die sich je nach Datenart und Verwendungszweck unterscheiden. In unserer Arbeit mit Kunden legen wir einen besonderen Fokus auf Daten für analytische Zwecke, doch es gibt wesentliche Unterschiede zwischen Datenmigration und Datenbankmigration. 

Bei einer Datenbankmigration steht stets eine Applikation im Mittelpunkt, die auf der jeweiligen Datenbank aufsetzt. Die Hauptanforderungen in diesem Bereich sind: 

  • Hohe Verfügbarkeit und Ausfallsicherheit, da Anwendungen in Echtzeit auf die Datenbank zugreifen. 
  • Optimierte Skalierbarkeit, um transaktionale Workloads effizient zu verarbeiten. 
  • Strenge Sicherheitsanforderungen, da sensible Geschäftsdaten involviert sind. 

Da die Applikation direkt von der Datenbank abhängt, sind Datenbankmigrationen komplexer, da sie oft eine gleichzeitige Modernisierung der Applikationsarchitektur erfordern. Eine reine Datenbankmodernisierung ohne Anpassung der darauf basierenden Anwendung ist meist nicht sinnvoll, da sie die vollen Vorteile der Cloud-Technologien nicht ausschöpft. 

Im Gegensatz dazu beschäftigt sich die Datenmigration primär mit dem Extrahieren, Laden und Transformieren (ETL/ELT) von Daten, um sie in eine neue analytische Umgebung zu überführen. 

Typische Anwendungsfälle der Datenmigration sind: 

  • Zusammenführung mehrerer Datenquellen, z. B. die Integration von ERP-Systemen verschiedener Standorte in eine zentrale Umgebung. 
  • Aufbau eines modernen Data Warehouses oder Data Lakes, um historische und aktuelle Daten effizient zu speichern und zu analysieren. 
  • Bereitstellung von Daten für BI- und AI-gestützte Analysen, indem strukturierte und unstrukturierte Daten in einer leistungsfähigen Umgebung zusammengeführt werden. 

Hier stehen nicht Echtzeit-Transaktionen, sondern historische Datenanalysen, Business Intelligence und künstliche Intelligenz (AI) im Vordergrund. Kern-Technologien für die Cloud-basierte Datenmigration sind: 

  • OLAP-Datenbanken wie Google BigQuery, Snowflake oder Amazon Redshift für analytische Abfragen auf großen Datenmengen. 
  • Data Lakes wie Azure Data Lake, AWS S3 oder Databricks, um strukturierte und unstrukturierte Daten zu speichern und zu verarbeiten. 
  • BI-Tools und analytische Plattformen wie Power BI, Looker oder Tableau zur Datenvisualisierung und zur Erstellung interaktiver Dashboards. 
  • APIs und Data-as-a-Service-Modelle, um Daten für Dritt-Systeme bereitzustellen und die Integration in bestehende Geschäftsprozesse zu ermöglichen. 
  • AI- und Machine-Learning-Plattformen wie AWS SageMaker, Google Vertex AI, Azure Machine Learning und Databricks ML zur Entwicklung, Schulung und Bereitstellung von KI-Modellen direkt auf den migrierten Daten. 
  • Automatisierte AI-gestützte Datenaufbereitung: Plattformen wie Databricks AutoML oder Google AutoML helfen, Daten zu bereinigen, Merkmale zu extrahieren und Modelle ohne tiefgehende ML-Kenntnisse zu trainieren. 
  • Predictive Analytics & Generative AI: Durch KI-Modelle in der Cloud können Unternehmen Vorhersagen treffen, Anomalien erkennen oder Text-, Bild- und Sprachmodelle (LLMs, Generative AI) auf ihren historischen und Echtzeit-Daten anwenden. 

Die Kombination aus Data Lakes, BI-Analysen und AI-Technologien ermöglicht es Unternehmen, aus ihren Daten mehr Wert zu generieren – sei es durch automatisierte Entscheidungsfindung, personalisierte Kundenangebote oder die Optimierung von Geschäftsprozessen. 

Fazit: Erfolgreiche Cloud-Transformation mit der richtigen Strategie 

Beide Migrationsansätze haben ihre Berechtigung, doch sie erfordern unterschiedliche Strategien, Technologien und Best Practices. Eine erfolgreiche Cloud-Migration hängt davon ab, die richtige Architektur für den jeweiligen Anwendungsfall zu wählen und eine skalierbare, effiziente und zukunftssichere Datenplattform aufzubauen. Wir legen bei unseren Kunden den Fokus dabei auf Daten für analytische Zwecke und die assoziierten Systeme wie Cloud Data Warehouses, Data Lakes, Git-Umgebungen, sowie analytische und KI Umgebungen. 

Möchten Sie in die Cloud migrieren? Oder sich weitergehend informieren? Laden Sie hier unser Infopaper zum Thema Cloud-Migration herunter. 
Read More
Data Strategy

Why Agility and Design Thinking are Game Changers for User Acceptance of Data Products

Agile methods are as diverse in their application as the projects and industries in which they are used. Originally developed in the automotive industry by the Japanese manufacturer Toyota in the form of the Kanban method to increase production efficiency, a diverse landscape of agile methods has developed over many years. Today, these are an integral part of modern software projects. The Scrum framework has become the long-standing industry standard in software development

example of a kanban board
Example Kanban board for developing a dashboard

Variety of Frameworks

In the practical implementation of agile working methods, various frameworks are used, which are also continuously developed. In addition to Scrum, there are many other agile frameworks such as Objectives and Key Results (OKRs). These two frameworks, in particular, place very different emphases. Scrum focuses more on optimizing operational collaboration (e.g., with the role of the Scrum Master, retrospectives, and the daily scrum), whereas OKRs have a strategic focus that centers less on the “how” and more on the “why.” The idea is that combining both frameworks makes teamwork more efficient and measurable within an overall context that keeps the bigger picture in mind.

Agility is not a Framework

Agility is not just a collection of frameworks or a toolbox; it is a mindset born from the realization that complexity is unpredictable and, therefore, not controllable in the long term (see, e.g., Cone of Uncertainty). Within the agile mindset, flexibility, adaptability, and a culture of continuous improvement are promoted. This thinking enables organizations to respond quickly to changes and drive innovative solutions. Frameworks, their artifacts, and roles help practically implement an agile mindset and approach. They provide a possible means to do so but do not claim to be suitable in every situation or organization.

Frameworks provide good guidelines for collaboration and, above all, create conditions that can serve as a starting aid for companies that have not yet worked according to agile principles. They pave the way for an agile mindset and the corresponding principles to develop, including loosening previous structures and entrenched working methods. Spaces and opportunities arise to focus not only on what is being worked on but also on how it is being worked on, allowing teams to learn and continuously improve their collaboration.

Complexity in Developing Data Products

source systems, challenges in data quality, and the availability of internal and external resources. Agile methods help manage this complexity by promoting iterative development, cross-functional teams, and continuous learning. Through the iterative approach, where requirements are implemented step by step and regular user feedback (if it’s a product accessible to the market, user feedback from the market is the ultimate test) is collected, it is also avoided that recorded requirements and user expectations drift too far apart, resulting in a data product that the user does not use at all in the end. This would be fatal because the active use of a data product is ultimately the step crucial for generating added value from a use case.

Where does complexity come from?

Unavailable and decentralized dataFrequent changes in requirements
Lengthy decision-making processesUnavailability of essential resources

Actively Managing Complexity

The difficulty in measuring the complexity of a project in advance or expressing it in absolute terms leads to many problems. For instance, assessing complexity largely depends on the project team’s experience, which itself is a factor influencing complexity. The positive consequence is that each project team makes an assessment of complexity that suits them. To actively manage complexity based on this assessment, especially when the scope or requirements are not final, a simple means is to increase the frequency of feedback loops. In the context of the Scrum framework, you would shorten the sprint length (e.g., from four to two weeks) if it is estimated that complexity would otherwise be too high. This way, the fuzziness between the developed product and user expectations is actively managed through additional feedback loops.

User-Centeredness and Design Thinking

Involving users is crucial for the acceptance and success of a data product. By collecting early and regular feedback, developer teams can ensure that the final product meets the actual needs of users and thus provides real added value. This starts with gathering the initial requirements because, to ensure a user uses the data product, it must not only provide added value to the organization but also to the user, ideally making the user’s work easier. This is achieved through a design thinking approach, where a solution is conceived that includes both the users’ problems and pains and the potential added value for the company. Such an approach not only saves resources but also increases the likelihood that the data product will be positively received and used for value creation.

Transparency Builds Trust

Just like the topic of digitization, data in the context of a transformation towards data excellence can also evoke fears among some employees. These fears are detrimental to the acceptance of both the transformation process and the development efforts for individual use cases, including user acceptance. Therefore, it is important to make the process transparent and clearly communicate that there will be changes, including how people work together, but also that the goal is to address employees’ pains (e.g., boring repetitive tasks) within data use cases.

Lessons Learned

Agile methods are an important tool on the path to success. In essence, agile working represents a change in the mindset of how we collaborate. It helps companies become and remain flexible and innovative. The entirety of agile frameworks and methods is so vast that we have focused on prominent examples in this presentation. In all the mentioned frameworks, we have extensive expertise and practical experience in our team. Our team of organizational designers for agile companies, Scrum Masters, Product Owners, and agile coaches accompanies you on the path to transforming into a data-excellent organization and realizing data use cases.

Read More
Data Analytics, Data Strategy

Wann datenbasierte Methoden zur Lösung geschäftlicher Probleme der richtige Ansatz sind und wann nicht: Das Problem selbst zu verstehen ist entscheidend 

Mark Twain sagte einmal: „Wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel“. Dieses Phänomen, dass Menschen aus verschiedenen Gründen dazu neigen ungeeignete Werkzeuge zu verwenden hat im Englischen den Namen „Law of the instrument“ und hat auch im Zeitalter digitaler Technologien weiterhin Gültigkeit.   

Künstliche Intelligenz (KI) ist seit Jahren in aller Munde. Dennoch ist es wichtig, sich daran zu erinnern, dass es neben KI und datenbasierten Methoden auch andere Lösungen für moderne Probleme gibt. Die Wahl des richtigen Werkzeugs erfordert zunächst den Einsatz des eigenen anstelle eines künstlichen Verstandes „Natürliche Intelligenz“ (NI). Bevor wir uns also auf die neuesten technologischen Lösungen stürzen, sollten wir uns die Zeit nehmen, um das zu lösende Problem wirklich zu verstehen und aus den sich ergebenden Anforderungen die beste Methode zur Lösung zu bestimmen anstelle die Anforderungen auf die Lösungsmethode zu hämmern. Es ist unerlässlich zu betonen, dass das Lösen eines Problems mit den richtigen Werkzeugen nicht nur effektiver, sondern auch kosteneffizienter ist. Durch die Wahl des richtigen Werkzeugs kann sich die benötigte Arbeitszeit drastisch reduzieren.  

Nicht alles was man machen kann, sollte man auch tun 

Um technisch zu werden: Natürlich kann man die eigene Datenauswertung in Maschinencode schreiben und jedes Pixel, einer Visualisierung, dadurch manuell setzen. Bis die erste Darstellung jedoch existiert, könnten mithilfe dieses Ansatzes Jahre vergehen. Man muss dies jedoch gar nicht tun. Im Vergleich zur vorgenannten Vorgehensweise verringert die Verwendung von Excel als Werkzeug die Zeit bis zur ersten fertigen Darstellung auf unter einen Tag Arbeitszeit. Bereits jetzt eine wahnsinnige Effizienzsteigerung. Mit einem Tool wie Qlik Sense lässt sich die Visualisierung in wenigen Stunden sogar interaktiv und mit Drill-Down Funktionalitäten gestalten. Nicht nur eine Effizienzsteigerung, sondern auch ein echter Mehrwert durch die Verwendung eines geeigneten Werkzeugs.

Daher: Bevor wir uns auf die Suche nach Lösungen für ein Problem begeben, ist es von entscheidender Bedeutung, dass wir zuerst das zugrundeliegende Problem verstehen. Dies erfordert sowohl Verständnis als auch Wissen als die zwei wesentlichen Säulen, auf denen unsere Fähigkeit zur Problemlösung beruht. Die vier verschiedenen Kombinationen dieser beiden Aspekte bilden fundamental unterschiedliche Problemstellungen für einen Lösungsansatz.

Ob wir ein Problem verstehen oder nur das Ergebnis kennen macht den Unterschied 

Verständnis und Wissen stehen in einer komplexen Beziehung zueinander. Wissen kann aus Erfahrung resultieren, selbst wenn jemandem das zugrundeliegende Funktionsprinzip oder die ursächlichen Mechanismen unklar bleiben. Ein erfahrener Fischer könnte wissen, dass Fische bei Sonnenaufgang aktiver sind, ohne die biologischen Ursachen dessen zu verstehen. Andererseits kann ein Verständnis existieren, selbst wenn die Ergebnisse unbekannt oder gar nicht eindeutig bestimmbar bzw. deterministisch sind, wie z.B. bei der Quantenmechanik. Wir können die beschreibenden mathematischen Modelle und Prinzipien verstehen, aber die konkreten Ergebnisse sind oft probabilistischer Natur und daher weder vorhersehbar noch intuitiv. Daher ist es wichtig, sich nicht nur auf unser Wissen zu verlassen, sondern auch ein tieferes Verständnis der Probleme zu erlangen, die wir lösen möchten. Selbst wenn wir über das notwendige Wissen verfügen, kann ein Mangel an Verständnis dazu führen, dass wir das Problem falsch angehen und damit übertragen einen Hammer zum Sägen nutzen.  

Nicht auf jedes Problem muss man draufhauen 

Außerdem sollten wir uns daran erinnern, dass das Ziel nicht darin besteht, jedes Problem zu lösen, das wir treffen, sondern die richtigen Probleme zu lösen. Bei der Auswahl gilt es auch zu berücksichtigen, welche Implikationen jedes geschäftliche Problem hat und wie es sich in den Gesamtkontext fügt. Diese Priorisierung muss mit Augenmaß und Sachverstand vorgenommen werden, damit die Zeit und Energie in eben jene Probleme investiert wird, bei denen die entwickelten Lösungen den größten Mehrwert stiften. Aus diesem Grund setzen wir in einem interdisziplinären Team auf einen holistischen Ansatz, der den Gesamtkontext des Unternehmens berücksichtigt und sich ebenfalls mit den Themen Datenkultur und Data Leadership auseinandersetzt.  

Wenn man im Trüben fischt… 

Es gibt Situationen, in denen sowohl die ursächlichen Mechanismen als auch die Resultate ungewiss sind. Diese stellen eine besondere Herausforderung für datengetriebene Lösungsansätze dar, da es an bekannten Ergebnissen mangelt, die als Trainingsdaten für entsprechende Lernalgorithmen herangezogen werden könnten. In solchen Fällen können unüberwachte Lernalgorithmen (z.B. zur Clusteridentifikation und Bestimmung von Gemeinsamkeiten) manchmal hilfreich sein, um Muster in vorhandenen ungelabelten Daten zu erkennen und Hypothesen für weitere Untersuchungen zu generieren. Dennoch gilt hier in den meisten Fällen, dass zu wenig über das Problem bekannt ist, um es selbst effektiv zu lösen. Statt an einer Lösung zu arbeiten kann es helfen das Problem und seine Ursache besser zu verstehen. Sei es durch eigene Arbeit oder durch externes Know-How. An dieser Stelle wird auch klar, dass datenbasierte Lösungen nicht die einzige Option darstellen. Manchmal kann ein qualitativer Ansatz oder Expertenwissen wertvolle Einblicke liefern, insbesondere wenn die Daten begrenzt oder nicht vorhanden sind. Bei uns finden Sie dieses Expertenwissen, ebenso wie langjährige Erfahrung mit datenbasierten Lösungen für eine Vielzahl an Branchen von der Finanz- und Versicherungsbranche und der produzierenden Industrie bis hin zum Energiesektor. 

Algorithmische Lösungen vs. datenbasierte Lösungen 

Deterministische Problemstellungen, bei denen der zugrundeliegende Mechanismus bekannt ist, bieten eine ideale Anwendungsmöglichkeit für datenagnostische Algorithmen, wie zum Beispiel Operations-Research, die den Lösungsweg direkt modellieren. Selbst wenn uns eine optimale Lösung (Ergebnis) im konkreten Fall nicht bekannt ist, kann man mithilfe dieser Algorithmen eine Optimierung in diese Richtung angehen. So zum Beispiel bei den Themen Routenplanung, Ressourcen- und Auslastungsmanagment oder Schichteinteilung. Im Gegensatz dazu kommen datengetriebene Methoden und Künstliche Intelligenz ins Spiel, wenn der zugrundeliegende Mechanismus unbekannt ist, aber ausreichend Ergebnisse zur Verfügung stehen, um einen lernenden Algorithmus zu trainieren. Schlussendlich stellen auch die Methoden und Modelle des maschinellen Lernens (engl. Maschine-Learning) generalisierte Optimierungsalgorithmen da, die ein flexibles Modell im Hinblick auf die vorhandenen Daten (Ergebnisse) ergeben, dass die Trainingsdaten bestmöglich modelliert. Bei beiden Ansätzen wird eine Optimierung vorgenommen. In einem Fall ohne Erfahrungswerte, dafür mit Hilfe von Problemverständnis, im anderen Fall ohne Kenntnis der grundlegenden Problemzusammenhänge, dafür unter Betrachtung von Erfahrungswerten. Je nach Komplexität des Problems werden mehr oder weniger „Erfahrungswerte“ (Datenpunkte) benötigt um das Problem datenbasiert zu adressieren. Ob genug davon vorhanden ist, können unsere Experten mit Ihnen zusammen erarbeiten. 

Wann Daten der richtige Ansatz sind 

In letzteren Fällen, in denen ausreichend Datenpunkte vorhanden sind, können datenbasierte Methoden ihre Stärken ausspielen, indem sie aus Erfahrungen lernen und uns verborgene Muster aufdecken. Sie passen sich an neue Situationen an und verbessern ihre Leistung im Laufe der Zeit mit steigender Verfügbarkeit und Qualität von Daten. Durch das Lernen aus historischen Daten können sie zukünftige Ereignisse oder Ergebnisse vorhersagen, was besonders nützlich in Bereichen wie der Finanzanalyse oder der Wettervorhersage ist. 

Darüber hinaus können datengetriebene Methoden und KI verborgene Muster und Zusammenhänge in den Daten aufdecken, die für den Menschen nicht offensichtlich sind. Dies kann zu neuen Erkenntnissen und Verbesserungen in verschiedenen Bereichen führen. Unter Umständen lassen sich diese, dem Modell zugrundeliegenden, Muster sogar erklären und so nachträglich verstehen. Auf diese Weise kann von datenbasierten Methoden profitiert werden, sogar wenn Bedenken gegen die Implementation dieser Methoden auf operationeller Ebene bestehen. 

Wrap-up 

In der Welt der Technologie und des maschinellen Lernens ist es, wie überall im Leben, wichtig, die richtigen Werkzeuge für Probleme zu verwenden. Es ist meistens nicht die beste Lösung, jedes Problem mit dem immer gleichen Werkzeug zu bearbeiten. Stattdessen sollten wir den Kontext berücksichtigen und die effektivste Lösung suchen. Datengetriebene Methoden, einschließlich maschinellen Lernens, können verborgene Muster aufdecken und zukünftige Ereignisse auf Basis vorhandener Daten und Erfahrung vorhersagen. Aber das menschliche Verständnis des Problems bleibt wesentlich, um zu entscheiden, ob diese Methode die richtige ist. Nicht jedes Problem muss gelöst werden und es ist essenziell schonend mit den eigenen Ressourcen umzugehen und sich auf die Lösung der richtigen und wichtigen Probleme zu konzentrieren, indem man die Auswirkungen berücksichtigt und dadurch den Wert der eigenen Bemühungen maximiert. Mit anderen Worten; Wir sollten unsere angeborene natürliche Intelligenz nutzen, bevor wir datengetriebene Methoden oder künstliche Intelligenz blind anwenden.  

Read More
Data Strategy

Unterschätzte Strategien zur Priorisierung von Datenanwendungsfällen 

Die Auswahl und Priorisierung von Datenanwendungsfällen ist ein kritischer Schritt für Unternehmen, die ihre Daten effektiv nutzen möchten. Oftmals werden die verschiedenen Strategien und ihre Implikationen sowie Vor- und Nachteile jedoch nicht ausreichend berücksichtigt. In diesem Artikel beleuchten wir einige Strategien und Ansätze und für welche Unternehmen sie geeignet sind. 

Verschiedene Strategien zur Priorisierung 

Es gibt verschiedene Ansätze, um Datenanwendungsfälle zu priorisieren. Vor der Priorisierung selbst jedoch, werden die einzelnen Anwendungsfälle genauer beleuchtet und mithilfe eines Scorings bewertet. Dieses Scoring basiert typischerweise auf Metriken, die sowohl die Machbarkeit (Umsetzbarkeit) als auch den Business-Mehrwert abschätzen. Für diese Bewertung bedarf es natürlich Input von z.B. potenziellen Nutzern, Nutznießern und Entwicklern des Datenanwendungsfalls. Je größer der Score für die Machbarkeit, desto einfacher ist der entsprechende Anwendungsfall umzusetzen. Diese Bewertung der Umsatzbarkeit kann sich beispielsweise auf die algorithmische Komplexität und die Risiken, die mit der Entwicklung einhergehen stützten. Die Anwendungsfälle werden dann in einem Koordinatensystem angeordnet, wobei der Mehrwert auf der Y-Achse und die Machbarkeit auf der X-Achse liegen.  Diese Darstellung dient als Ausgangspunkt für die Priorisierung. Zusätzlich können Größe und/oder Farbe der Datenpunkte in der Darstellung weitere relevante Metriken oder Eigenschaften der Anwendungsfälle codieren. Solche weiteren relevanten Größen können z.B. sein: 

  • Strategischer Mehrwert 
  • Datengrundlage 
  • Verwendete Technologie 
  • Nutzervielfalt oder Nutzeranzahl 
  • Monetäres Potenzial 

Auch die Definitionen von Mehrwert und Machbarkeit unterscheiden sich von Organisation zu Organisation, da bei keiner Organisation die Prioritäten und das Verständnis eben dieser Begriffe einheitlich sein wird.  

“Low-Hanging-Fruits” 

Eine bewährte Strategie ist die Umsetzung von “Low-Hanging-Fruits”. Hierbei werden vor allem solche Anwendungsfälle zur Umsetzung priorisiert, die einen hohen Mehrwert bei einfacher Machbarkeit bieten. Warum? Weil sie schnelle Erfolge (Quick-Wins) liefern und das Risiko bei der Umsetzung gering ist. Diese Vorgehensweise eignet sich besonders für die ersten Anwendungsfälle von Organisationen, die noch nicht bereit sind, technologisch komplexe Lösungen zu entwickeln. Durch die Fokussierung auf einfache Machbarkeit können Unternehmen schnell erste Erfolge erzielen, die Akzeptanz für datengetriebene Lösungen steigern und somit eine Datenkultur ausbilden, die den Fortschritt in diesem Bereich fördert und langfristig festigt. 

Die Vor- und Nachteile dieser Strategie sind: 

Vorteile

  • Schnelle Erfolge: Durch die Umsetzung einfacher Anwendungsfälle können Unternehmen schnell erste Erfolge erzielen. Dadurch entsteht bereits kurzfristig ein spürbarer Mehrwert. 
  • Risikominimierung: Die Fokussierung auf einfache Machbarkeit reduziert das Risiko bei der Umsetzung. Dies ist besonders bei den ersten Anwendungsfällen wichtig, da ein Scheitern der Entwicklung oder Implementierung und damit einer Verzögerung des Mehrwerts die Akzeptanz innerhalb der Organisation gefährden kann. 
  • Akzeptanzsteigerung: Die schnellen und spürbaren Erfolge fördern die Akzeptanz datengetriebener Lösungen. 

Nachteile

  • Begrenzter Mehrwert: Diese Strategie priorisiert zwar einfache Fälle, aber der langfristige Mehrwert kann dabei limitiert sein. 

“Harten Nuss” 

Die andere Seite der Medaille ist die Strategie der “Harten Nuss”. Hier liegt der Fokus auf der Technologie. Komplexere Anwendungsfälle mit hohem Mehrwert werden zuerst entwickelt, weil sie die technologische Grundlage für weitere Anwendungsfälle legen. Diese Herangehensweise erfordert initial mehr Ressourcen und Zeit, bietet jedoch langfristig einen höheren Mehrwert aufgrund der geleisteten Vorarbeit. Organisationen, die bereits über eine solide Dateninfrastruktur verfügen und bereit sind, technologische Herausforderungen anzunehmen, können diese Strategie in Betracht ziehen. 

Bei der Strategie der “Harten Nuss” arbeitet man sich schrittweise hin zur einfacheren Machbarkeit vor. Die folgend umgesetzten Anwendungsfälle profitieren von vorhandenen Lösungen, Synergien und der bereits gut ausgebauten Dateninfrastruktur und Architektur. Dies repräsentiert im Grunde den “Top-Down”-Ansatz. 

Die Vor- und Nachteile dieser Strategie sind: 

Vorteile:

  • Technologische Grundlage: Komplexere Anwendungsfälle legen die technologische Basis für weitere aufbauende Implementationen. 
  • Langfristiger Mehrwert: Obwohl diese Strategie ressourcenintensiv ist, bieten sie langfristig einen höheren Mehrwert. 

Nachteile:

  • Ressourcenbedarf: Diese Strategie erfordert mehr Zeit und Ressourcen. 
  • Zeit: Bis der erste Anwendungsfall umgesetzt ist, kann es aufgrund der zu bewältigenden Komplexität lange dauern. 
  • Risiko: Komplexere Datenanwendungsfälle können höhere Risiken mit sich bringen. 

Die Strategie “Wachsen mit den Aufgaben” 

Eine weitere interessante Strategie ist das “Wachsen mit den Aufgaben ”-Modell. Hier liegt der Fokus auf der Generierung von Mehrwert für die Organisation. Zuerst werden Anwendungsfälle mit hohem Mehrwert und hoher Machbarkeit umgesetzt. Im Verlauf darf bei der Umsetzung weiterer Anwendungsfälle die Komplexität der Umsetzung auch höher sein und ansteigen. Dies repräsentiert im Grunde den “Bottom-Up”-Ansatz. Unternehmen, die keine Quick-Wins benötigen, aber dennoch entscheidende Fähigkeiten und Kompetenzen erst noch ausbauen müssen, können von dieser Strategie profitieren. 

Die Vor- und Nachteile dieser Strategie sind: 

Vorteile:

  • Flexibilität: Diese Strategie ermöglicht die schrittweise Umsetzung von Anwendungsfällen. Dabei kann bei auftretenden Problemen kurzfristig auch ein Anwendungsfall herausgenommen werden. 
  • Business-Mehrwert: Hoher Mehrwert für die Organisation wird geliefert und steht dabei im Fokus. 

Nachteile:

  •  Komplexität: Mit der Zeit können komplexere Anwendungsfälle umgesetzt werden, was zusätzliche Herausforderungen mit sich bringt und das Unternehmen an den Herausforderungen inkrementell wachsen lässt. 

Keep it simple: Die Strategie der Metriken-Addition 

Es gibt eine weitere, sehr einfache Strategie zur Priorisierung von Datenanwendungsfällen. Wenn Mehrwert und Machbarkeit als gleichwertig angesehen werden, kann man die Metriken einfach addieren und dann ein Ranking von oben nach unten durchführen. Diese Methode ist besonders nützlich, wenn beide Aspekte – Mehrwert und Machbarkeit – für das Unternehmen gleichermaßen wichtig sind. Durch die Addition der Metriken entsteht ein Gesamtscore für jeden Anwendungsfall, der eine einfache und effektive Priorisierung ermöglicht. Diese Strategie ist unkompliziert und leicht umzusetzen, bietet aber dennoch eine solide Grundlage für die Entscheidungsfindung. Es ist jedoch wichtig zu beachten, dass diese Methode möglicherweise nicht die Nuancen und Komplexitäten jedes Anwendungsfalls vollständig berücksichtigt. Daher sollte sie als ein Werkzeug unter vielen in Ihrem Priorisierungs-Toolkit betrachtet werden. 

Clustering von Anwendungsfällen: Sinnvolle Methode bei technologischen Schnittmengen 

In vielen Organisationen ist es sinnvoll, die Datenanwendungsfälle nach Gemeinsamkeiten wie Technologien oder Datengrundlagen zu clustern. Diese Methode ermöglicht eine effiziente Nutzung von Ressourcen und eine bessere Skalierbarkeit der Lösungen. Durch das Zusammenfassen ähnlicher Anwendungsfälle können Unternehmen Synergien nutzen, die sich aus technologischen Schnittmengen ergeben. Dieser Ansatz erleichtert auch die Wartung und Weiterentwicklung der Lösungen, da Änderungen an einer Technologie oder Datenquelle auf alle relevanten Anwendungsfälle angewendet werden können. 

Die Wahl der richtigen Clustering-Methode hängt von den spezifischen Anforderungen und Zielen der Organisation ab. Einige Unternehmen bevorzugen eine technologiebasierte Gruppierung der Infrastruktur, während andere sich auf gemeinsame Datengrundlagen konzentrieren. Letztendlich geht es darum, die Daten optimal zu nutzen und die strategischen Ziele zu erreichen. 

Diverse Mehrwerte für die Organisation 

Die richtige Priorisierung und Auswahl von Datenanwendungsfällen bietet der Organisation eine Vielzahl an strategischen Vorteilen. Einige davon sind: 

  1. Effiziente Ressourcennutzung: Durch die gezielte Umsetzung von Anwendungsfällen mit hohem Mehrwert und einfacher Machbarkeit werden Ressourcen optimal genutzt. 
  1. Wettbewerbsvorteil: Datengetriebene Lösungen ermöglichen es Unternehmen, schneller auf Marktveränderungen zu reagieren und sich einen Wettbewerbsvorteil zu verschaffen. 
  1. Langfristige Transformation: Die Auswahl von Anwendungsfällen legt den Grundstein für eine langfristige datenbasierte Transformation der Organisation in einem „Bottom-Up“  

Die Priorisierung und Auswahl von Datenanwendungsfällen ist ein entscheidender Schritt auf dem Weg zur datengetriebenen Transformation. Die Wahl der richtigen Strategie – ob “Low-Hanging-Fruits”, “Harte Nuss” oder “Wachsen mit den Aufgaben” – kann den Unterschied zwischen Erfolg und Misserfolg ausmachen. Jede dieser Strategien hat ihre eigenen Vor- und Nachteile und bietet unterschiedliche strategische Vorteile. 

Es ist wichtig zu verstehen, dass es keine richtige Lösung für die Wahl der Strategie gibt. Die beste Strategie hängt von vielen Faktoren ab, darunter die Unternehmenskultur, die vorhandenen Ressourcen und die strategischen Ziele. Eine ausgewogene Mischung aus verschiedenen Ansätzen kann dazu beitragen, den maximalen Wert aus den Daten zu schöpfen. 

Read More
Data Strategy

Die Schlüsselrolle des Data Leaders: Datenexzellenz im Unternehmenserfolg

In der heutigen Ära der Datenrevolution ist die Bedeutung von Daten für den Unternehmenserfolg unbestreitbar. Daten und Analytics sind zu treibenden Kräften für Wachstum und Innovation geworden. In diesem Kontext stellt sich die Frage: Brauchen Unternehmen einen Data Leader? Die Antwort, die sich aus der zunehmenden Komplexität der Datenlandschaft ergibt, lautet eindeutig ja. Der Data Leader, auch bekannt als Chief Data Officer (CDO), spielt eine entscheidende Rolle bei der Gestaltung und Umsetzung einer effektiven Datenstrategie sowie bei der Förderung einer datengetriebenen Kultur im gesamten Unternehmen. 

Die Wichtigkeit des Data Leaders 

Die heutige Geschäftswelt ist von einem Überfluss an Daten geprägt. Unternehmen, die in der Lage sind, diese Daten effektiv zu nutzen, haben einen klaren Wettbewerbsvorteil. Hier kommt der Data Leader ins Spiel. Seine Hauptaufgabe besteht darin, die strategische Ausrichtung und Umsetzung von Daten- und Analytics-Initiativen zu leiten. Darüber hinaus fungiert er als Katalysator, der eine datenexzellente Kultur fördert, in der Daten nicht nur als Ressource betrachtet werden, sondern als strategischer Vorteil genutzt werden. 

Die Herausforderungen des Data Leaders 

Der Weg zum Erfolg als Data Leader ist jedoch mit zahlreichen Herausforderungen verbunden. Die erste Herausforderung besteht darin, die wertstiftende Nutzung von Daten und Künstlicher Intelligenz zu ermöglichen. Dies erfordert die Entwicklung einer umfassenden Datenstrategie, die Sicherstellung der Datenqualität und die Implementierung fortschrittlicher Analytics-Tools. Die Förderung einer datenexzellenten Kultur ist dabei von zentraler Bedeutung. 

Die zweite Herausforderung besteht darin, als Botschafter für Daten und Analytics zu fungieren. Der Data Leader muss sicherstellen, dass die Bedeutung von Daten nicht nur im IT-Bereich, sondern in allen Unternehmensbereichen als unverzichtbar verstanden wird. Dies erfordert eine kontinuierliche Kommunikation und Überzeugungsarbeit, um eine breite Akzeptanz für datengetriebene Entscheidungsfindung zu schaffen. 

Die Kompetenzen des Data Leaders im Detail 

1. Kommunikation und Storytelling

Die Fähigkeit, komplexe Daten und Analytics-Themen für unterschiedliche Zielgruppen aufzubereiten und zu vermitteln, ist von entscheidender Bedeutung. Der Data Leader muss in der Lage sein, Daten in Geschichten zu verwandeln, die das Bewusstsein für den Wert von Daten im gesamten Unternehmen schärfen. Dies erfordert nicht nur technische Kenntnisse, sondern auch eine klare und überzeugende Kommunikation. 

2. Interdisziplinäres Arbeiten

In einer vernetzten Welt, in der Daten in verschiedenen Abteilungen und Funktionen eine Rolle spielen, muss der Data Leader erfolgreich mit Menschen aus verschiedenen Fachbereichen zusammenarbeiten. Die Fähigkeit, diese interdisziplinäre Zusammenarbeit zu orchestrieren und zu koordinieren, gehört zu den grundlegenden Kompetenzen eines effektiven Data Leaders. 

3.Geschäftliche Kompetenz

Ein tiefer Einblick in die Geschäftsprozesse ist unerlässlich. Der Data Leader muss verstehen, wie Daten und Analytics Mehrwert in den Unternehmensprozessen schaffen können, um die strategische Ausrichtung optimal zu unterstützen. Dies erfordert nicht nur technisches Verständnis, sondern auch eine klare Kenntnis der Geschäftsziele und -prozesse. 

4. Transformationskompetenz

Die Fähigkeit zur Erkennung, Initiation und erfolgreichen Umsetzung von Veränderungen im Unternehmen ist von entscheidender Bedeutung. In einem sich ständig wandelnden Geschäftsumfeld muss der Data Leader nicht nur Anpassungen vornehmen, sondern auch proaktiv Veränderungen vorantreiben. Die Transformationskompetenz ist somit eine Schlüsselfähigkeit für langfristigen Erfolg. 

Der Rollencanvas nach Claudia Thonet: 

Ein hilfreiches Werkzeug zur ganzheitlichen Betrachtung der Rolle des Data Leaders ist der Rollencanvas von Claudia Thonet. Dieses strukturierte Instrument bietet eine umfassende Perspektive auf die Rolle: 

Aufgaben und Verantwortlichkeiten: 

Der Rollencanvas definiert klar die Hauptaufgaben und Verantwortlichkeiten des Data Leaders. Dies umfasst die strategische Ausrichtung, Implementierung von Daten- und Analytics-Initiativen, Förderung der Datenkultur und mehr. 

Kompetenzen

Er bietet einen Überblick über die erforderlichen Kompetenzen, die von technischem Verständnis bis hin zur Fähigkeit, Veränderungen zu managen, reichen. Die Kompetenzliste dient als Leitfaden für die individuelle Entwicklung des Data Leaders. 

Beziehungen

Der Rollencanvas zeigt, mit welchen anderen Rollen der Data Leader interagiert und wie er die Zusammenarbeit fördern kann. Dies ist entscheidend, da Daten in verschiedenen Abteilungen und Ebenen relevant sind. 

Wirkung: 

Der Canvas veranschaulicht, welchen Einfluss der Data Leader auf das Unternehmen hat und wie er die Datenexzellenz vorantreibt. Die Wirkung erstreckt sich über die strategische Ebene bis hin zur täglichen operativen Effizienz. 

Zusammenfassend lässt sich feststellen, dass die Rolle des Data Leaders nicht nur wichtig, sondern entscheidend für den Weg zu einem datenexzellenten Unternehmen ist. Durch die geschickte Umsetzung der beschriebenen Aufgaben und die Verankerung der relevanten Kompetenzen kann der Data Leader eine treibende Kraft für den Erfolg des Unternehmens sein. Unternehmen, die diese Rolle vernachlässigen, riskieren nicht nur, die Potenziale von Daten und Analytics zu verpassen, sondern könnten auch den Anschluss in der dynamischen Geschäftswelt verlieren. In der Ära der Datenrevolution ist der Data Leader somit nicht nur eine Notwendigkeit, sondern ein unverzichtbarer Akteur auf dem Weg zum nachhaltigen Unternehmenserfolg. Es wird deutlich, dass der Data Leader nicht nur ein technologischer Experte ist, sondern eine Schlüsselperson, die Brücken zwischen Technologie, Business und Menschen schlägt, um eine umfassende Datenexzellenz zu erreichen. 



Read More
Data Strategy

Die Dimension der Technologie in der Data-Driven Business Transformation

Dies ist der vierte Teil unserer Reihe zu den vier Dimensionen einer Data-Driven Business Transformation. Wenn Sie den vorherigen Teil noch nicht gelesen haben, finden Sie ihn hier. In diesem Beitrag geht es um die Dimension der Technologie. Das Datenstrategie Team des INFORM DataLab nutzt die vier Dimensionen, um die gegenwärtige Situation von Unternehmen einzuschätzen und diese gegen Wunschvorstellungen zu benchmarken. Im Anschluss begleiten die Berater des DataLab ihre Kunden bei der Umsetzung nötiger Transformationsschritte.

 

Die Dimension Technologie  

Die „Technology“-Dimension ist wohl diejenige, die im Allgemeinen am stärksten mit einer Data-Driven Business Transformation assoziiert wird. Intuitiv ist diese Assoziation auch naheliegend, da Business Intelligence (BI), Data Science und Künstliche Intelligenz (KI) computergestützte Methoden sind. Die Technologie-Dimension befasst sich mit modernen Algorithmen, Werkzeugen und IT-Systemen, die das Rückgrat eines datengetriebenen Unternehmens bilden. Hierzu gehört vor allem die Analytics-IT-Architektur wie Computer, Server und Cloud, Tools zur Bearbeitung und Visualisierung von Daten sowie Sicherheitsvorkehrungen zum Schutz von außen und zur Absicherung bei Systemausfällen. Dieser Beitrag soll aber keine Vorstellung und Bewertung verschiedener Tools oder Anbieter sein, sondern eine generelle Perspektive auf die Technologieaspekte einer Data-Driven Business Transformation sowie relevanter Designentscheidungen geben.

Die vorangegangenen Beiträge haben bereits herausgearbeitet, dass jede der vier Dimensionen eine zentrale Bedeutung für ein Unternehmen hat. Dennoch werden datenrelevante Themen oft auf die Technologie-Dimension reduziert und entsprechend auf die Schultern der IT-Abteilung geladen. Hier liegt auch einer der häufigsten Gründe für das Scheitern von Transformationsprogrammen oder einzelnen Dateninitiativen, denn die Wertschöpfung mittels Daten findet letztlich in den Fachbereichen statt. Technologie allein verfolgt niemals einen Selbstzweck, sondern sollte immer nur als Werkzeug betrachtet werden, um Unternehmensziele zu erreichen. Dies gilt auch für die Data-Driven Business Transformation.

Datenhaltung und Pflege

Daten müssen organisiert und gepflegt werden. Hierzu setzen Unternehmen zunehmend auf zentrale Datenplattformen. Beim Aufbau solcher Datenplattformen haben Unternehmen viele Möglichkeiten. Meist setzen Unternehmen auf den Einsatz eines Data Warehouse und/oder eines Data Lake – abhängig von der Art und dem Umfang der Analytics-relevanten Daten. Strukturierte Daten (Tabellen) können in modernen Data Warehouses (DWH) gespeichert werden, die einen zentralen Ablageort für Analytics-relevante Daten in einem Unternehmen darstellen. Für die Speicherung von unstrukturierten Daten, die nicht in die Frameworks von DWHs passen, werden sogenannte Data Lakes genutzt. Sowohl DWHs als auch Data Lakes sind zentrale Speicherorte, die Daten in gesicherter Qualität vorhalten und diese den verschiedenen Fachbereichen zur Verfügung stellen, sofern diese zur Nutzung dieser Daten berechtigt sind. Die Daten werden dabei aus den operativen Quellsystemen (z.B. ERP, CRM oder HR-Systeme) in die Datenplattform kopiert, so dass Analysen die operativen Aufgaben der Quellsysteme nicht beeinflussen.

Datenplattformen werden zunehmend in Cloud-Umgebungen realisiert, um maximale Flexibilität und Skalierbarkeit zu gewährleisten. Die Motivation für zentrale Datenplattformen sind häufig Datensilos im Unternehmen mit unterschiedlichen Ladestrecken (ETL oder ELT) zur Aufbereitung sowie unterschiedliche oder gar widersprechende Analyseergebnisse aus den Datensilos. Zentrale Datenplattformen brechen Datensilos im Unternehmen auf und schaffen eine zentrale Datenbasis für alle Datenprodukte (Single-Point-of-Truth).

Neben der Wahl eines konkreten Cloud-Anbieters und geeigneter Datenbanktechnologien bieten zunehmend Automatisierungskomponenten die Möglichkeit, Datenpipelines und/oder Modellierungstätigkeiten weitestgehend zu automatisieren. Dadurch wird der Aufbau und der Betrieb zentraler Datenplattformen mit minimalem Mitarbeitereinsatz möglich. Traditionell benötigt der Aufbau eines DWH eine große Menge an Data Engineers, die mit Arbeiten zum Aufbau von Pipelines und Datenmodellierung beschäftigt sind. Mit neuer Technologie und Software kann dieser Aufbau größtenteils automatisiert und damit signifikant beschleunigt werden. Gleichzeitig können diverse Data Engineer Stellen eingespart werden, bzw. mit anderen Aufgaben betreut werden.

Analog existieren auch Tools zur Datenpflege, wie z.B. zum Metadatenmanagement oder für eine strukturierte Bereitstellung von Master Data (Stammdaten). Metadaten sind Informationen über die verfügbaren Daten, wie beispielsweise die Bedeutung von Daten im Geschäftskontext oder technische Informationen wie Erfassungs- und Änderungsdatum. Metadatenerfassung und -pflege geht Hand in Hand mit einer effektiven Data Governance. Master Data Management Systeme werden häufig abseits der Analytic für die operativen Systeme eingesetzt, wenn es darum geht, Datensätze aus verschiedenen operativen Systemen zu vereinheitlichen. Ein Beispiel hierfür sind Kundendaten, die sowohl im ERP- als auch im CRM-System vorgehalten werden und in Form eines „Golden Records“ im Master Data Management System vereinheitlicht werden. Existiert im Unternehmen ein Master Data Management System, so kann dieses als Quellsystem für eine zentrale Datenplattform dienen. Ist kein Master Data Management System vorhanden, so werden die Stammdaten innerhalb der Datenplattform harmonisiert, um „Golden Records“ für die aufsetzenden Datenprodukte zu generieren.

Werkzeuge zur Datenauswertung 

Um aus Daten Mehrwerte schöpfen zu können, müssen diese aufbereitet, visualisiert oder auf andere Art verarbeitet werden. Für diese Arbeiten stehen verschiedenste Werkzeuge zur Verfügung, die Daten visualisieren und Kennzahlen berechnen. Die Ergebnisse können dann in Reports zusammengefasst oder in kurzfristigen Intervallen über Dashboards angezeigt werden. Für fortgeschrittene Methoden der Analytik sowie für Data Science oder KI-Anwendungen existieren diverse Produkte & Bibliotheken, die z.B. über die Programmiersprachen Python open source und kostenfrei zur Verfügung stehen.

Zusammenfassung 

Das Spektrum der verfügbaren Lösungen am Markt ist groß, und die Entwicklungen stehen nicht still. Auf einige Designentscheidungen sind wir in diesem Artikel exemplarisch eingegangen. Eine passende Analytics-Technologiewahl ist wichtig für Unternehmen, sollte aber niemals der Startpunkt der Aktivitäten hin zu einem datengetriebenen Unternehmen sein. Die Anforderungen an eine maßgeschneiderte Analytics-IT-Infrastruktur ergeben sich durch die realisierten und geplanten Datenanwendungsfälle. Möchte ein Unternehmen beispielsweise Predictive Maintenance in der Produktion nutzen, ergeben sich andere Anforderungen, als wenn ein Unternehmen ausschließlich BI & Reporting-Anwendungsfälle für Transparenz und datenbasierte Entscheidungsprozesse anstrebt. Daher ist es so wichtig für Organisationen, sich zunächst mit den strategischen Datenanwendungsfällen auseinanderzusetzen, die im Rahmen einer Datenstrategie evaluiert werden. Dazu ist es notwendig zu definieren, was datengetrieben für das Unternehmen eigentlich konkret bedeutet.

Read More
Data Strategy

Die Bedeutung der Prozesse in der Data-Driven Business Transformation

Willkommen zum dritten Teil unserer Reihe zu den vier Dimensionen anhand derer das Datenstrategie-Team des INFORM DataLabs die Data-Driven Business Transformation von Unternehmen plant und bis zum Ende begleitet. Im vorherigen Beitrag haben wir die „People“ Dimension näher beleuchtet und erörtert welche Rolle die Menschen eines Unternehmens bei der Transformation spielen.  In diesem Post beschäftigen wir uns mit der „Process“ Dimension aus „People, Process, Technology & Data“. 

Prozesse & Digitalisierung 

Die „Process“ Dimension befasst sich mit den Prozessen, die innerhalb eines Unternehmens stattfinden. Diese Prozesse bestehen üblicherweise aus einer geordneten Reihe von Aktivitäten und Aufgaben, die eine Organisation durchführt, um ihre Zeile zu erreichen. Verkaufsprozesse erstecken sich üblicherweise von Auftragseingang und -bestätigung über Bereitstellung oder Fertigung hin zu Auslieferung und Abrechnung. Prozesse existieren in allen Bereichen eines Unternehmens wie Vertrieb, HR, Controlling, Management, etc. Für moderne Unternehmen sind effiziente und gut strukturierte Prozesse unerlässlich, um effizient und fehlerfrei arbeiten zu können.  

Eine Möglichkeit Prozesse effizient und robust zu gestalten, bietet die Digitalisierung. Hinter diesem viel verwendeten Stichwort verbirgt sich üblicherweise auf die Überführung unternehmensinterner Prozesse von analogen Medien in die digitale Form. Im simpelsten Fall ist Digitalisierung der Umstieg von Fax oder Brief zu E-Mail. Vollständig digitalisierte Prozesse können jedoch oft einen hohen Grad an Automatisierung erreichen, die zu signifikanten Effizienzsteigerungen führt und sehr gut skaliert.  

Von digitalen Prozessen und nutzbaren Daten 

In dieser Reihe beschäftigten wir uns aber nicht primär mit der Digitalisierung von Prozessen, sondern mit einer gesamtheitlichen Data Driven Business Transformation. Es geht also nicht darum welche Prozesse wie digitalisiert werden können bzw. sollten, sondern um die Daten, die durch diese Prozesse erzeugt werden. Die Verbindung von Daten und Prozessen ist simpel: immer, wenn ein Prozess angestoßen wird, entstehen dabei Daten. Nehmen wir als Beispiel den Bestellprozess eines Onlinehandels. Im ersten Schritt schließt der Kunde die Bestellung im Onlineshop ab. Dabei werden Name, Adresse, Datum und Uhrzeit, Produktkennung, Stückzahlen und einige weitere Punkte als Daten aufgezeichnet. In den folgenden Schritten werden Daten über die Arbeit im Lager und im Versand sowie über die Lieferung aufgezeichnet. All diese Daten beschreiben die einzelnen Schritte des Prozesses und geben rückwirkend Aufschluss über dessen Ablauf. Eine große Menge dieser Daten kann entsprechend genutzt werden, um Prozesse besser zu verstehen und diese zu optimieren.  

„Eine Digitalisierung der Unternehmensprozess ermöglicht die Erfassung, Speicherung und Analyse riesiger Datenmengen, die wertvolle Erkenntnisse liefern, eine bessere Entscheidungsfindung ermöglichen, Geschäftsprozesse optimieren und die Zusammenarbeit und Kommunikation innerhalb des Unternehmens fördern.“  

Dr. Eike Cramer

Die Daten sind somit nicht nur das Beiprodukt digitalisierter Prozesse, sondern sind als wertvolles Unternehmensgut zu verstehen. Für die Auswertung von Prozessdaten ist die Form, in der diese aufgezeichnet wurden, entscheidend. Fehler in den Daten führen automatisch auch zu Fehlern in den darauf basierenden Analysen bzw. Datenprodukten. Im Slang der Data Science Welt nennt man dies dann „Garbage in – Garbage out“.  Im Rahmen einer Data-Driven Business Transformation reicht es daher nicht aus Prozesse einfach irgendwie zu digitalisieren. Die Digitalisierung muss auch so durchgeführt werden, dass a) alle Daten mit Analytics Relevanz erfasst werden und b) die bei den Prozessen anfallenden Daten auch auswertbar sind.  So muss beispielsweise dafür gesorgt werden, dass Datenerfassungsprozesse effektiv gestaltet werden und Freitextfelder möglichst gar nicht oder nur wenn sinnvoll verfügbar sind. . Daten im Freitextformat können zwar alle relevanten Informationen enthalten, diese liegen aber unstrukturiert vor, was eine Auswertung signifikant erschwert oder sogar unmöglich macht. Für ein erfolgreiches Prozessdesign sollten daher sowohl die betroffenen Fachbereiche – im Beispiel der Vertrieb – einbezogen sein, als auch die spätere Auswertbarkeit der entstehenden Daten berücksichtigt werden. Darüber hinaus muss eine strukturierte Grundlage existieren – im Beispiel die Produktstammdaten – auf der die Prozesse aufgesetzt werden können. Hier lohnt es sich häufig auf etablierte und bewährte Tools von Drittanbietern zurückzugreifen. Mehr zu Tools und Technologie finden Sie in unserem Blogpost zur „Technology“ Dimension. Im Allgemeinen gibt häufig es eine Synergie zwischen dem Level der Digitalisierung und Datenqualität. Prozesse mit einem hohen Maß an Automatisieren führen in der Regel auch zu qualitativ hochwertigen Daten. Ein Investment in Prozessdesign und -automatisierung lohnt sich also sowohl aus der Effizienz als auch aus der Datenperspektive.  

Prozesse im Analytics Betriebsmodell 

Neben der Perspektive der Geschäftsprozesse lohnt ebenfalls ein Blick auf die Prozesse zur Generierung von Insights, Analysen und Datenprodukten, die es im Rahmen eines Daten- und Analytics Betriebsmodell als Konkretisierung der Datenstrategie zu entwickeln gilt. Dazu gehören in der Regel die Prozesse zur Entwicklung & Innovation datenbasierter Anwendungsfälle (KI oder BI Produkte), die Priorisierung der Bedarfe, die Anforderungsanalyse, die Entwicklung von Data Marts, Alorithmen und Dashboards, sowie deren Governance und Verwaltung. Wie werden also Datenprodukte im Unternehmen entwickelt, wie sorgt man für die „Single source of truth“ und stellt die Qualität der generierten Insights für datenbasierte Entscheidungen sicher. All das gilt es im Unternehmen abzustimmen, denn noch allzu häufig haben Unternehmen Probleme auf ihrer Reise zum datengetriebenen Unternehmen weil ein dazugehörige Betriebsmodell fehlt oder unvollständig ist. 

Takeaways: Die zentrale Rolle der „Process“ Dimension

Zum Abschluss dieses Beitrags lässt sich folgendes zusammenfassen: Eine Digitalisierung der Unternehmensprozess ermöglicht die Erfassung, Speicherung und Analyse riesiger Datenmengen, die wertvolle Erkenntnisse liefern, eine bessere Entscheidungsfindung ermöglichen, Geschäftsprozesse optimieren und die Zusammenarbeit und Kommunikation innerhalb des Unternehmens fördern. Die „Process“ Dimension bildet damit einen essenziellen Teil einer jeden Data Driven Business Transformation – sowohl aus Sicht der Geschäftsprozesse als auch aus Sicht der Analytics Prozesse, die beschreiben wie aus Daten Mehrwerte generiert werden. 

Read More
Data Strategy

Die „People“ Dimension: Kern einer erfolgreichen Data-Driven Business Transformation

Im Zweiten Teil unserer Reihe zu den vier Dimensionen einer erfolgreichen Data-Driven Business Transformation. In dieser Reihe widmen wir uns der Transformation hin zu einem Unternehmen in dem Daten als Wert anerkannt und auch wertschöpfend eingesetzt werden. Im letzten Beitrag haben wir die vier Dimensionen vorgestellt, die zur Bewertung des IST-Zustandes und zur Planung einer solchen Transformation genutzt werden können: „People, Process, Technology & Data“. In diesem Beitrag widmen wir uns nun der „People“ Dimension – den Menschen und der Organisation, die ein Unternehmen ausmachen.  

Einführendes Beispiel: Herausforderungen in der Praxis 

Zu Beginn ein fiktives Beispiel, dass jedoch in vergleichbarer Form häufig in unserer eigenen Arbeit auftritt: Die Data Science Abteilung eines Unternehmens hat eine künstliche Intelligenz (KI) trainiert, die optimale Zeitpunkte und Ansprechpartner für den eigenen Vertrieb vorhersagt. Die Kosten für den Aufbau der Data Science Abteilung und das Erstellen der nötigen Modelle sind erheblich. Jedoch wird mit einer deutlichen Umsatzsteigerung gerechnet, die die zusätzlichen Kosten schnell wieder ausgleichen wird. Als die neue KI-Methode dem Vertriebspersonal vorgestellt wird, sind die Reaktionen gemischt. „Das passt mir jetzt aber nicht in den Kram“ oder „ich habe da schon meine eigene Methode“ sind häufige Antworten. Die neue KI-Methode wird kaum genutzt und nach kurzer Zeit verschwindet die KI in der digitalen Schublade. Die Entwickler der KI verstehen nicht, warum ihre Methode nicht angenommen wurde. Statt einer Umsatzsteigerung ist das Unternehmen jetzt mit einer großen Menge an verschwendeten Ressourcen und gesteigertem Misstrauen gegenüber der Data Science Abteilung konfrontiert.  

Wie kann es sein, dass ein Produkt, das gut funktioniert und große Gewinnsteigerung verspricht, zu einem so schlechten Ergebnis führt? Das Projekt ist hier nicht an einer mangelnden Qualität des Datenprodukts gescheitert, sondern daran, dass die späteren Nutzer nicht bei der Entwicklung involviert wurden.  Der Vertrieb wurde nicht für den Nutzen eines Datenprodukts sensibilisiert und konnte mit der Anwendung nicht umgehen. Ängste der Mitarbeiter wurden nicht adressiert. 

Die “People” Dimension: Mehr als nur Mitarbeiter und Management 

Die „People“ Dimension bezieht sich also auf das menschliche Element einer Organisation. Dazu gehören Management, Mitarbeiter, Kunden und andere Interessengruppen, die von in der Tätigkeit der Organisation involviert oder von dieser betroffen sind. Dazu gehören des Weiteren auch die Gewinnung und Bindung talentierter Mitarbeiter, die Entwicklung ihrer Fähigkeiten und Fertigkeiten sowie die Schaffung eines positiven und unterstützenden Arbeitsumfelds. Neben dem Umgang mit den eigenen Mitarbeitern gehört auch der effektive Umgang mit Kunden und anderen Interessengruppen zur menschlichen Dimension einer Unternehmenstransformation. Die Bedürfnisse und Erwartungen von Kunden zu verstehen ist essenziell, um Datenprodukte zielgerecht einsetzten zu können. 

„Data-culture eats data-strategy for breakfast”

Dr. Leonie Petry, Consultant Data Culture & Transformation

Unsere (Daten-) Kulturberaterin und Organisationsdesignerin Leonie Petry formuliert es prägnant mit einer Modifikation des Zitats von Peter Drucker: „Data-culture eats data-strategy for breakfast.” Anders formuliert bedeutet dies, dass keine Datenstrategie und keine datengetriebene Transformation erfolgreich sein kann, ohne auf einer positiven Datenkultur zu bauen oder diese zu entwickeln. Zu einer solchen Datenkultur gehören unter anderem die Anerkennung von Daten als Unternehmenswert auf allen Ebenen sowie das Verständnis von und das Vertrauen in datenbasierte Produkte.   

Das Sprichwort – „Der Fisch stinkt vorm Kopf“ – lässt sich ebenfalls auf die Datenwelt eines Unternehmens anwenden. Ein datengetriebenes Unternehmen kann nur funktionieren, wenn das Management das Thema Daten priorisiert und eine Datenkultur vorlebt. Ohne Priorisierung und Zielsetzung durch das Management verlaufen Initiativen häufig unkoordiniert und scheitern fast immer. Es ist Aufgabe des Managements eine  Datenstrategie zu entwickeln, die mit der Unternehmensstrategie im Einklang steht, um so richtungsweisend agieren zu können. Dies bedeutet auch das entsprechende Ressourcen zur Verfügung gestellt werden müssen, um beispielsweise Fortbildungen zu organisieren oder ein Center of Excellence einzurichten. 

Neben dem Top-Down Vorgaben des Managements benötigt ein datengetriebenes Unternehmen ebenso Bottom-Up Strukturen, in denen aus den einzelnen Fachbereichen Mehrwerte geschaffen werden können. Grundsätzlich sollten die Datenprodukte dort entstehen, wo sie auch eingesetzt werden. Dies führt zu maximaler Kompatibilität mit existierenden Strukturen und den involvierten Personen. Hierfür benötigt es jedoch Know-how innerhalb der jeweiligen Fachbereiche. Dies bedeutet nicht unbedingt, dass jeder Angestellte einen Machine-Learning Crash Kurs besuchen muss. Vielmehr muss ein grundlegendes Verständnis zum Arbeiten mit Daten vermittelt werden, damit Datenerhebung in die selbstverständliche Arbeit übergeht und Datenprodukte verstanden und zielgerichtet eingesetzt werden können. Interdisziplinäre Entwicklungsteams sowie Product Owner aus den Fachbereichen haben sich hier in der Praxis bewährt. Die eigentliche Wertschöpfung mit Daten und Analytics findet in den Geschäftsbereichen statt und nicht in einem Kompetenzzentrum oder gar der IT wie oft vermutet. Daher bedarf es einer unternehmensweiten Transformation um Daten wertschöpfend einzusetzen. Der Aufbau eines dedizierten Teams oder der kauf von Tools alleine führt nicht zum Erfolg. 

Takeaways: Die menschliche Dimension als Schlüssel zum Erfolg 

Zusammenfassend lässt sich sagen, dass die Menschliche Dimension eines Unternehmens häufig sehr vielschichtig ist und eventuelle Probleme selten triviale Standardlösungen haben. Gleichzeitig bilden die Menschen eines Unternehmens einen wichtigen Bestandteil in der Datenwertschöpfungskette, denn sie sind letztendlich diejenigen die Werte mittels Daten erschaffen und das Unternehmen weiterentwickeln. Für eine Data Driven Business Transformation ist es daher unerlässlich auch die menschliche Komponente des Unternehmens mit zu berücksichtigen. Der Blick richtet sich dabei auf Führungskräfte, Entscheider, Nutzer von BI oder KI Lösungen, Datenspezialisten und Kunden sowie deren Rolle in einem Analytics-Betriebsmodell. 

Read More
Data Strategy

Die vier Dimensionen der digitalen Transformation

Durch die voranschreitende digitale Transformation fallen in Unternehmen große Mengen an Daten an. Diese Daten können genutzt werden, um Prozesse besser zu verstehen, Vorhersagen zu treffen oder Planbarkeit von Personaleinsatz zu optimieren. Aber Daten schaffen nicht automatisch einen Mehrwert für das Unternehmen. Im Gegenteil, große Datenmengen werden schnell unübersichtlich und schwierig zu beherrschen. Weiter können Daten durch häufig schlechte Qualität oder fehlenden nachvollziehbaren Kontext wertlos sein. Für ein ambitionierte Unternehmen reicht daher die Digitalisierung der Prozesse nicht aus. Vielmehr müssen Unternehmen sich grundlegend transformieren damit Daten den Unterschied machen können. Kurz gesagt: Es braucht eine Data-Driven Business Transformation.  

Sobald das Management das Ziel der Data-Driven Business Transformation ins Auge gefasst hat, stellt sich die Frage, wo man anfängt und wo die Reise genau hingeht. Jedes Unternehmen hat individuelle Geschäftsmodelle und sonstige Anforderungen, die eine Data-Driven Business Transformation zu einem strategischen Problem machen. Daher bedarf die Umsetzung einer Transformation zu einem datengetriebenen Unternehmen einer dedizierten Datenstrategie die Daten und allgemeine Unternehmensstrategie in Einklang bringt. Häufig lohnt es sich dabei einen Schritt zurückzutreten, um sowohl die Ausgangslage und eine Zielvorstellung zu erarbeiten. Im Rahmen einer Datenstrategie können somit dedizierte Transformationspläne entwickelt werden, statt auf generische Blueprints zurückzugreifen. Trotz der Individualität jedes Unternehmens treten häufig ähnlich Probleme auf, die sich in der Regel gut mit etablierten Frameworks analysieren und beheben lassen. Dabei lassen sich sowohl die Erfassung des IST-Zustandes als auch die Transformationsplanung in einer Datenstrategie anhand von vier Dimensionen gut strukturieren.  

In dieser Reihe stellen wir die vier Dimensionen der Data-Driven Business Transformation vor und geben einen Einblick wie das INFORM DataLab anhand von People, Process, Technology & Data eine erfolgreiche Data-Driven Business Transformation begleitet. 

 

Die 4 Dimensionen: People, Process, Technology & Data 

Häufig werden Digitalisierung und Daten auf die technologische Komponente reduziert und die Umsetzung als Aufgabe der IT-Abteilung verstanden. Ohne Zweifel muss ein Unternehmen neue digitale Infrastruktur schaffen, um erfolgreich die Data-Driven Business Transformation meistern zu können. Aber – die Entwicklung von datengetriebenen Entscheidungsmechanismen ist kein reines Technologieproblem und die IT-Abteilung allein kann die gesamte Transformation eines Unternehmens nicht meistern. Eine Unternehmenstransformation – so auch die date Driven Business Transformation – adressiert alle Unternehmensbereiche und involviert Einkäufer, Verkaufspersonal, Produktionsmitarbeiter und Top-Management gleichermaßen. Entsprechend bedarf es Transformationsfähigkeiten in allen Bereichen eines modernen Unternehmens. Die Dimensionen des PPT-Frameworks – People, Process, Technology – sind ein weit verbreiteter und anerkannter Ansatz für die Planung und Bewertung von Transformationsvorhaben. Jede der drei Dimensionen spiegelt einen essenziellen Teil eines jeden Unternehmens wider. Für eine Data-Driven Business Transformation lohnt es sich Daten und Analytics selbst einen höheren Stellenwert beizumessen und sie als vierte Dimension mit zu berücksichtigen.   

„Die Entwicklung von datengetriebenen Entscheidungsmechanismen ist ohne entsprechende Technologie nicht machbar, aber kein reines Technologieproblem. Die Menschen, die letztlich Entscheidungen treffen, sowie die Prozesse und Daten, die zu den Entscheidungen führen, sind ebenfalls entscheidende Erfolgsfaktoren.“  

Dr. Jens Linden

Die „People“ Dimension bezieht sich auf die Personen in einem Unternehmen: ihr Know-How, ihre Einstellung zur Transformation und den damit einhergehenden Neuerungen sowie dem Organisationsdesign. Eine Data-Driven Business Transformation bedarf hier zunächst zwingend ein aktives Vorantreiben von Seiten des Vorstands, denn ohne Führsprecher im Management verlaufen selbst die am besten geplanten Transformationen oft im Sand. Weiter müssen auch die Mitarbeiter des Unternehmens die Ziele der Transformation verstehen und anerkennen damit niemand auf der Strecke bleibt. Ggf. müssen auch Kunden in die Transformation mit eingebunden werden, denn sie sind die wichtigsten Maß Geber für die zukünftige Entwicklung eines Unternehmens. 

Die „Process“ Dimension beschriebt die Aktivitäten rund um die Digitalisierung der Unternehmensprozesse. Dies beinhaltet nicht nur die Digitalisierung der einzelnen Prozesse, sondern auch eine Anpassung von Arbeitsweisen und Methodiken für eine stetige Prozessoptimierung. Beispiele für Arbeitsweisen in einem datengetriebenen Unternehmen könne z.B. agile Methoden oder die systematische Entwicklung und Priorisierung von Analytics/KI Anwendungsfällen sein.  

Zuletzt bleibt im PPT-Framework noch die „Technology“ Dimension, die zwar nicht den einzigen aber eine zentrale und notwendige Dimension einer jeden Transformation bildet. Im Rahmen der Technologie Dimension muss häufig eine neue IT-Infrastruktur und Cloud-Architektur aufgebaut werden oder Bestehendes überarbeitet werden. Weiter bieten diverse Tools für z.B. Visualisierung oder Dash-Boarding die Möglichkeit zur Beschleunigung oder Automatisierung von Vertriebs-, Produktions- oder Entscheidungsprozessen. 

In Bezug auf eine Data-Driven Business Transformation ignorieren die PPT-Dimensionen jedoch die wichtigste Komponente einer erfolgreichen Datenwertschöpfung – die Daten. Daten sind der Rohstoff für moderne KPIs, Business Intelligence (BI) und künstliche Intelligenz (KI)-basierte Vorhersagen. Unternehmen müssen ihre Daten daher als Unternehmenswert anerkennen und sie entsprechend wie auch Geistiges Eigentum, Personal oder materielle Werte behandeln und pflegen. Genau wie mit jeder anderen Dimension steht und fällt eine erfolgreiche Transformation mit den Daten. Qualität, Sicherheit, Management und Verfügbarkeit sind essenzielle Faktoren, die gewährleistet werden müssen und ohne die Daten nicht wertschöpfend eingesetzt werden können. Für eine erfolgreiche Data-Driven Business Transformation muss es daher heißen: People, Process, Technology, and Data. 

Ausblick 

In den folgenden Blogposts dieser Reihe widmen wir uns jeder der vier Dimensionen und untersuchen die jeweilige Bedeutung für eine erfolgreiche und nachhaltig Datenwertschöpfung. Wir diskutieren typische Stolperfallen und zeigen in Richtungen, um diese zu umgehen. Wir wüschen viel Spaß beim Lesen. Wenn Sie Fragen haben oder auch in Ihrem Unternehmen Daten wertschöpfend einsetzen möchten, melden Sie sich bei uns oder laden Sie sich unser Data First Aid Kid herunter.  

Read More