Data Strategy

Why Agility and Design Thinking are Game Changers for User Acceptance of Data Products

Agile methods are as diverse in their application as the projects and industries in which they are used. Originally developed in the automotive industry by the Japanese manufacturer Toyota in the form of the Kanban method to increase production efficiency, a diverse landscape of agile methods has developed over many years. Today, these are an integral part of modern software projects. The Scrum framework has become the long-standing industry standard in software development

example of a kanban board
Example Kanban board for developing a dashboard

Variety of Frameworks

In the practical implementation of agile working methods, various frameworks are used, which are also continuously developed. In addition to Scrum, there are many other agile frameworks such as Objectives and Key Results (OKRs). These two frameworks, in particular, place very different emphases. Scrum focuses more on optimizing operational collaboration (e.g., with the role of the Scrum Master, retrospectives, and the daily scrum), whereas OKRs have a strategic focus that centers less on the “how” and more on the “why.” The idea is that combining both frameworks makes teamwork more efficient and measurable within an overall context that keeps the bigger picture in mind.

Agility is not a Framework

Agility is not just a collection of frameworks or a toolbox; it is a mindset born from the realization that complexity is unpredictable and, therefore, not controllable in the long term (see, e.g., Cone of Uncertainty). Within the agile mindset, flexibility, adaptability, and a culture of continuous improvement are promoted. This thinking enables organizations to respond quickly to changes and drive innovative solutions. Frameworks, their artifacts, and roles help practically implement an agile mindset and approach. They provide a possible means to do so but do not claim to be suitable in every situation or organization.

Frameworks provide good guidelines for collaboration and, above all, create conditions that can serve as a starting aid for companies that have not yet worked according to agile principles. They pave the way for an agile mindset and the corresponding principles to develop, including loosening previous structures and entrenched working methods. Spaces and opportunities arise to focus not only on what is being worked on but also on how it is being worked on, allowing teams to learn and continuously improve their collaboration.

Complexity in Developing Data Products

source systems, challenges in data quality, and the availability of internal and external resources. Agile methods help manage this complexity by promoting iterative development, cross-functional teams, and continuous learning. Through the iterative approach, where requirements are implemented step by step and regular user feedback (if it’s a product accessible to the market, user feedback from the market is the ultimate test) is collected, it is also avoided that recorded requirements and user expectations drift too far apart, resulting in a data product that the user does not use at all in the end. This would be fatal because the active use of a data product is ultimately the step crucial for generating added value from a use case.

Where does complexity come from?

Unavailable and decentralized dataFrequent changes in requirements
Lengthy decision-making processesUnavailability of essential resources

Actively Managing Complexity

The difficulty in measuring the complexity of a project in advance or expressing it in absolute terms leads to many problems. For instance, assessing complexity largely depends on the project team’s experience, which itself is a factor influencing complexity. The positive consequence is that each project team makes an assessment of complexity that suits them. To actively manage complexity based on this assessment, especially when the scope or requirements are not final, a simple means is to increase the frequency of feedback loops. In the context of the Scrum framework, you would shorten the sprint length (e.g., from four to two weeks) if it is estimated that complexity would otherwise be too high. This way, the fuzziness between the developed product and user expectations is actively managed through additional feedback loops.

User-Centeredness and Design Thinking

Involving users is crucial for the acceptance and success of a data product. By collecting early and regular feedback, developer teams can ensure that the final product meets the actual needs of users and thus provides real added value. This starts with gathering the initial requirements because, to ensure a user uses the data product, it must not only provide added value to the organization but also to the user, ideally making the user’s work easier. This is achieved through a design thinking approach, where a solution is conceived that includes both the users’ problems and pains and the potential added value for the company. Such an approach not only saves resources but also increases the likelihood that the data product will be positively received and used for value creation.

Transparency Builds Trust

Just like the topic of digitization, data in the context of a transformation towards data excellence can also evoke fears among some employees. These fears are detrimental to the acceptance of both the transformation process and the development efforts for individual use cases, including user acceptance. Therefore, it is important to make the process transparent and clearly communicate that there will be changes, including how people work together, but also that the goal is to address employees’ pains (e.g., boring repetitive tasks) within data use cases.

Lessons Learned

Agile methods are an important tool on the path to success. In essence, agile working represents a change in the mindset of how we collaborate. It helps companies become and remain flexible and innovative. The entirety of agile frameworks and methods is so vast that we have focused on prominent examples in this presentation. In all the mentioned frameworks, we have extensive expertise and practical experience in our team. Our team of organizational designers for agile companies, Scrum Masters, Product Owners, and agile coaches accompanies you on the path to transforming into a data-excellent organization and realizing data use cases.

Read More
Data Analytics, Data Strategy

Wann datenbasierte Methoden zur Lösung geschäftlicher Probleme der richtige Ansatz sind und wann nicht: Das Problem selbst zu verstehen ist entscheidend 

Mark Twain sagte einmal: „Wer als Werkzeug nur einen Hammer hat, sieht in jedem Problem einen Nagel“. Dieses Phänomen, dass Menschen aus verschiedenen Gründen dazu neigen ungeeignete Werkzeuge zu verwenden hat im Englischen den Namen „Law of the instrument“ und hat auch im Zeitalter digitaler Technologien weiterhin Gültigkeit.   

Künstliche Intelligenz (KI) ist seit Jahren in aller Munde. Dennoch ist es wichtig, sich daran zu erinnern, dass es neben KI und datenbasierten Methoden auch andere Lösungen für moderne Probleme gibt. Die Wahl des richtigen Werkzeugs erfordert zunächst den Einsatz des eigenen anstelle eines künstlichen Verstandes „Natürliche Intelligenz“ (NI). Bevor wir uns also auf die neuesten technologischen Lösungen stürzen, sollten wir uns die Zeit nehmen, um das zu lösende Problem wirklich zu verstehen und aus den sich ergebenden Anforderungen die beste Methode zur Lösung zu bestimmen anstelle die Anforderungen auf die Lösungsmethode zu hämmern. Es ist unerlässlich zu betonen, dass das Lösen eines Problems mit den richtigen Werkzeugen nicht nur effektiver, sondern auch kosteneffizienter ist. Durch die Wahl des richtigen Werkzeugs kann sich die benötigte Arbeitszeit drastisch reduzieren.  

Nicht alles was man machen kann, sollte man auch tun 

Um technisch zu werden: Natürlich kann man die eigene Datenauswertung in Maschinencode schreiben und jedes Pixel, einer Visualisierung, dadurch manuell setzen. Bis die erste Darstellung jedoch existiert, könnten mithilfe dieses Ansatzes Jahre vergehen. Man muss dies jedoch gar nicht tun. Im Vergleich zur vorgenannten Vorgehensweise verringert die Verwendung von Excel als Werkzeug die Zeit bis zur ersten fertigen Darstellung auf unter einen Tag Arbeitszeit. Bereits jetzt eine wahnsinnige Effizienzsteigerung. Mit einem Tool wie Qlik Sense lässt sich die Visualisierung in wenigen Stunden sogar interaktiv und mit Drill-Down Funktionalitäten gestalten. Nicht nur eine Effizienzsteigerung, sondern auch ein echter Mehrwert durch die Verwendung eines geeigneten Werkzeugs.

Daher: Bevor wir uns auf die Suche nach Lösungen für ein Problem begeben, ist es von entscheidender Bedeutung, dass wir zuerst das zugrundeliegende Problem verstehen. Dies erfordert sowohl Verständnis als auch Wissen als die zwei wesentlichen Säulen, auf denen unsere Fähigkeit zur Problemlösung beruht. Die vier verschiedenen Kombinationen dieser beiden Aspekte bilden fundamental unterschiedliche Problemstellungen für einen Lösungsansatz.

Ob wir ein Problem verstehen oder nur das Ergebnis kennen macht den Unterschied 

Verständnis und Wissen stehen in einer komplexen Beziehung zueinander. Wissen kann aus Erfahrung resultieren, selbst wenn jemandem das zugrundeliegende Funktionsprinzip oder die ursächlichen Mechanismen unklar bleiben. Ein erfahrener Fischer könnte wissen, dass Fische bei Sonnenaufgang aktiver sind, ohne die biologischen Ursachen dessen zu verstehen. Andererseits kann ein Verständnis existieren, selbst wenn die Ergebnisse unbekannt oder gar nicht eindeutig bestimmbar bzw. deterministisch sind, wie z.B. bei der Quantenmechanik. Wir können die beschreibenden mathematischen Modelle und Prinzipien verstehen, aber die konkreten Ergebnisse sind oft probabilistischer Natur und daher weder vorhersehbar noch intuitiv. Daher ist es wichtig, sich nicht nur auf unser Wissen zu verlassen, sondern auch ein tieferes Verständnis der Probleme zu erlangen, die wir lösen möchten. Selbst wenn wir über das notwendige Wissen verfügen, kann ein Mangel an Verständnis dazu führen, dass wir das Problem falsch angehen und damit übertragen einen Hammer zum Sägen nutzen.  

Nicht auf jedes Problem muss man draufhauen 

Außerdem sollten wir uns daran erinnern, dass das Ziel nicht darin besteht, jedes Problem zu lösen, das wir treffen, sondern die richtigen Probleme zu lösen. Bei der Auswahl gilt es auch zu berücksichtigen, welche Implikationen jedes geschäftliche Problem hat und wie es sich in den Gesamtkontext fügt. Diese Priorisierung muss mit Augenmaß und Sachverstand vorgenommen werden, damit die Zeit und Energie in eben jene Probleme investiert wird, bei denen die entwickelten Lösungen den größten Mehrwert stiften. Aus diesem Grund setzen wir in einem interdisziplinären Team auf einen holistischen Ansatz, der den Gesamtkontext des Unternehmens berücksichtigt und sich ebenfalls mit den Themen Datenkultur und Data Leadership auseinandersetzt.  

Wenn man im Trüben fischt… 

Es gibt Situationen, in denen sowohl die ursächlichen Mechanismen als auch die Resultate ungewiss sind. Diese stellen eine besondere Herausforderung für datengetriebene Lösungsansätze dar, da es an bekannten Ergebnissen mangelt, die als Trainingsdaten für entsprechende Lernalgorithmen herangezogen werden könnten. In solchen Fällen können unüberwachte Lernalgorithmen (z.B. zur Clusteridentifikation und Bestimmung von Gemeinsamkeiten) manchmal hilfreich sein, um Muster in vorhandenen ungelabelten Daten zu erkennen und Hypothesen für weitere Untersuchungen zu generieren. Dennoch gilt hier in den meisten Fällen, dass zu wenig über das Problem bekannt ist, um es selbst effektiv zu lösen. Statt an einer Lösung zu arbeiten kann es helfen das Problem und seine Ursache besser zu verstehen. Sei es durch eigene Arbeit oder durch externes Know-How. An dieser Stelle wird auch klar, dass datenbasierte Lösungen nicht die einzige Option darstellen. Manchmal kann ein qualitativer Ansatz oder Expertenwissen wertvolle Einblicke liefern, insbesondere wenn die Daten begrenzt oder nicht vorhanden sind. Bei uns finden Sie dieses Expertenwissen, ebenso wie langjährige Erfahrung mit datenbasierten Lösungen für eine Vielzahl an Branchen von der Finanz- und Versicherungsbranche und der produzierenden Industrie bis hin zum Energiesektor. 

Algorithmische Lösungen vs. datenbasierte Lösungen 

Deterministische Problemstellungen, bei denen der zugrundeliegende Mechanismus bekannt ist, bieten eine ideale Anwendungsmöglichkeit für datenagnostische Algorithmen, wie zum Beispiel Operations-Research, die den Lösungsweg direkt modellieren. Selbst wenn uns eine optimale Lösung (Ergebnis) im konkreten Fall nicht bekannt ist, kann man mithilfe dieser Algorithmen eine Optimierung in diese Richtung angehen. So zum Beispiel bei den Themen Routenplanung, Ressourcen- und Auslastungsmanagment oder Schichteinteilung. Im Gegensatz dazu kommen datengetriebene Methoden und Künstliche Intelligenz ins Spiel, wenn der zugrundeliegende Mechanismus unbekannt ist, aber ausreichend Ergebnisse zur Verfügung stehen, um einen lernenden Algorithmus zu trainieren. Schlussendlich stellen auch die Methoden und Modelle des maschinellen Lernens (engl. Maschine-Learning) generalisierte Optimierungsalgorithmen da, die ein flexibles Modell im Hinblick auf die vorhandenen Daten (Ergebnisse) ergeben, dass die Trainingsdaten bestmöglich modelliert. Bei beiden Ansätzen wird eine Optimierung vorgenommen. In einem Fall ohne Erfahrungswerte, dafür mit Hilfe von Problemverständnis, im anderen Fall ohne Kenntnis der grundlegenden Problemzusammenhänge, dafür unter Betrachtung von Erfahrungswerten. Je nach Komplexität des Problems werden mehr oder weniger „Erfahrungswerte“ (Datenpunkte) benötigt um das Problem datenbasiert zu adressieren. Ob genug davon vorhanden ist, können unsere Experten mit Ihnen zusammen erarbeiten. 

Wann Daten der richtige Ansatz sind 

In letzteren Fällen, in denen ausreichend Datenpunkte vorhanden sind, können datenbasierte Methoden ihre Stärken ausspielen, indem sie aus Erfahrungen lernen und uns verborgene Muster aufdecken. Sie passen sich an neue Situationen an und verbessern ihre Leistung im Laufe der Zeit mit steigender Verfügbarkeit und Qualität von Daten. Durch das Lernen aus historischen Daten können sie zukünftige Ereignisse oder Ergebnisse vorhersagen, was besonders nützlich in Bereichen wie der Finanzanalyse oder der Wettervorhersage ist. 

Darüber hinaus können datengetriebene Methoden und KI verborgene Muster und Zusammenhänge in den Daten aufdecken, die für den Menschen nicht offensichtlich sind. Dies kann zu neuen Erkenntnissen und Verbesserungen in verschiedenen Bereichen führen. Unter Umständen lassen sich diese, dem Modell zugrundeliegenden, Muster sogar erklären und so nachträglich verstehen. Auf diese Weise kann von datenbasierten Methoden profitiert werden, sogar wenn Bedenken gegen die Implementation dieser Methoden auf operationeller Ebene bestehen. 

Wrap-up 

In der Welt der Technologie und des maschinellen Lernens ist es, wie überall im Leben, wichtig, die richtigen Werkzeuge für Probleme zu verwenden. Es ist meistens nicht die beste Lösung, jedes Problem mit dem immer gleichen Werkzeug zu bearbeiten. Stattdessen sollten wir den Kontext berücksichtigen und die effektivste Lösung suchen. Datengetriebene Methoden, einschließlich maschinellen Lernens, können verborgene Muster aufdecken und zukünftige Ereignisse auf Basis vorhandener Daten und Erfahrung vorhersagen. Aber das menschliche Verständnis des Problems bleibt wesentlich, um zu entscheiden, ob diese Methode die richtige ist. Nicht jedes Problem muss gelöst werden und es ist essenziell schonend mit den eigenen Ressourcen umzugehen und sich auf die Lösung der richtigen und wichtigen Probleme zu konzentrieren, indem man die Auswirkungen berücksichtigt und dadurch den Wert der eigenen Bemühungen maximiert. Mit anderen Worten; Wir sollten unsere angeborene natürliche Intelligenz nutzen, bevor wir datengetriebene Methoden oder künstliche Intelligenz blind anwenden.  

Read More
Data Strategy

Unterschätzte Strategien zur Priorisierung von Datenanwendungsfällen 

Die Auswahl und Priorisierung von Datenanwendungsfällen ist ein kritischer Schritt für Unternehmen, die ihre Daten effektiv nutzen möchten. Oftmals werden die verschiedenen Strategien und ihre Implikationen sowie Vor- und Nachteile jedoch nicht ausreichend berücksichtigt. In diesem Artikel beleuchten wir einige Strategien und Ansätze und für welche Unternehmen sie geeignet sind. 

Verschiedene Strategien zur Priorisierung 

Es gibt verschiedene Ansätze, um Datenanwendungsfälle zu priorisieren. Vor der Priorisierung selbst jedoch, werden die einzelnen Anwendungsfälle genauer beleuchtet und mithilfe eines Scorings bewertet. Dieses Scoring basiert typischerweise auf Metriken, die sowohl die Machbarkeit (Umsetzbarkeit) als auch den Business-Mehrwert abschätzen. Für diese Bewertung bedarf es natürlich Input von z.B. potenziellen Nutzern, Nutznießern und Entwicklern des Datenanwendungsfalls. Je größer der Score für die Machbarkeit, desto einfacher ist der entsprechende Anwendungsfall umzusetzen. Diese Bewertung der Umsatzbarkeit kann sich beispielsweise auf die algorithmische Komplexität und die Risiken, die mit der Entwicklung einhergehen stützten. Die Anwendungsfälle werden dann in einem Koordinatensystem angeordnet, wobei der Mehrwert auf der Y-Achse und die Machbarkeit auf der X-Achse liegen.  Diese Darstellung dient als Ausgangspunkt für die Priorisierung. Zusätzlich können Größe und/oder Farbe der Datenpunkte in der Darstellung weitere relevante Metriken oder Eigenschaften der Anwendungsfälle codieren. Solche weiteren relevanten Größen können z.B. sein: 

  • Strategischer Mehrwert 
  • Datengrundlage 
  • Verwendete Technologie 
  • Nutzervielfalt oder Nutzeranzahl 
  • Monetäres Potenzial 

Auch die Definitionen von Mehrwert und Machbarkeit unterscheiden sich von Organisation zu Organisation, da bei keiner Organisation die Prioritäten und das Verständnis eben dieser Begriffe einheitlich sein wird.  

“Low-Hanging-Fruits” 

Eine bewährte Strategie ist die Umsetzung von “Low-Hanging-Fruits”. Hierbei werden vor allem solche Anwendungsfälle zur Umsetzung priorisiert, die einen hohen Mehrwert bei einfacher Machbarkeit bieten. Warum? Weil sie schnelle Erfolge (Quick-Wins) liefern und das Risiko bei der Umsetzung gering ist. Diese Vorgehensweise eignet sich besonders für die ersten Anwendungsfälle von Organisationen, die noch nicht bereit sind, technologisch komplexe Lösungen zu entwickeln. Durch die Fokussierung auf einfache Machbarkeit können Unternehmen schnell erste Erfolge erzielen, die Akzeptanz für datengetriebene Lösungen steigern und somit eine Datenkultur ausbilden, die den Fortschritt in diesem Bereich fördert und langfristig festigt. 

Die Vor- und Nachteile dieser Strategie sind: 

Vorteile

  • Schnelle Erfolge: Durch die Umsetzung einfacher Anwendungsfälle können Unternehmen schnell erste Erfolge erzielen. Dadurch entsteht bereits kurzfristig ein spürbarer Mehrwert. 
  • Risikominimierung: Die Fokussierung auf einfache Machbarkeit reduziert das Risiko bei der Umsetzung. Dies ist besonders bei den ersten Anwendungsfällen wichtig, da ein Scheitern der Entwicklung oder Implementierung und damit einer Verzögerung des Mehrwerts die Akzeptanz innerhalb der Organisation gefährden kann. 
  • Akzeptanzsteigerung: Die schnellen und spürbaren Erfolge fördern die Akzeptanz datengetriebener Lösungen. 

Nachteile

  • Begrenzter Mehrwert: Diese Strategie priorisiert zwar einfache Fälle, aber der langfristige Mehrwert kann dabei limitiert sein. 

“Harten Nuss” 

Die andere Seite der Medaille ist die Strategie der “Harten Nuss”. Hier liegt der Fokus auf der Technologie. Komplexere Anwendungsfälle mit hohem Mehrwert werden zuerst entwickelt, weil sie die technologische Grundlage für weitere Anwendungsfälle legen. Diese Herangehensweise erfordert initial mehr Ressourcen und Zeit, bietet jedoch langfristig einen höheren Mehrwert aufgrund der geleisteten Vorarbeit. Organisationen, die bereits über eine solide Dateninfrastruktur verfügen und bereit sind, technologische Herausforderungen anzunehmen, können diese Strategie in Betracht ziehen. 

Bei der Strategie der “Harten Nuss” arbeitet man sich schrittweise hin zur einfacheren Machbarkeit vor. Die folgend umgesetzten Anwendungsfälle profitieren von vorhandenen Lösungen, Synergien und der bereits gut ausgebauten Dateninfrastruktur und Architektur. Dies repräsentiert im Grunde den “Top-Down”-Ansatz. 

Die Vor- und Nachteile dieser Strategie sind: 

Vorteile:

  • Technologische Grundlage: Komplexere Anwendungsfälle legen die technologische Basis für weitere aufbauende Implementationen. 
  • Langfristiger Mehrwert: Obwohl diese Strategie ressourcenintensiv ist, bieten sie langfristig einen höheren Mehrwert. 

Nachteile:

  • Ressourcenbedarf: Diese Strategie erfordert mehr Zeit und Ressourcen. 
  • Zeit: Bis der erste Anwendungsfall umgesetzt ist, kann es aufgrund der zu bewältigenden Komplexität lange dauern. 
  • Risiko: Komplexere Datenanwendungsfälle können höhere Risiken mit sich bringen. 

Die Strategie “Wachsen mit den Aufgaben” 

Eine weitere interessante Strategie ist das “Wachsen mit den Aufgaben ”-Modell. Hier liegt der Fokus auf der Generierung von Mehrwert für die Organisation. Zuerst werden Anwendungsfälle mit hohem Mehrwert und hoher Machbarkeit umgesetzt. Im Verlauf darf bei der Umsetzung weiterer Anwendungsfälle die Komplexität der Umsetzung auch höher sein und ansteigen. Dies repräsentiert im Grunde den “Bottom-Up”-Ansatz. Unternehmen, die keine Quick-Wins benötigen, aber dennoch entscheidende Fähigkeiten und Kompetenzen erst noch ausbauen müssen, können von dieser Strategie profitieren. 

Die Vor- und Nachteile dieser Strategie sind: 

Vorteile:

  • Flexibilität: Diese Strategie ermöglicht die schrittweise Umsetzung von Anwendungsfällen. Dabei kann bei auftretenden Problemen kurzfristig auch ein Anwendungsfall herausgenommen werden. 
  • Business-Mehrwert: Hoher Mehrwert für die Organisation wird geliefert und steht dabei im Fokus. 

Nachteile:

  •  Komplexität: Mit der Zeit können komplexere Anwendungsfälle umgesetzt werden, was zusätzliche Herausforderungen mit sich bringt und das Unternehmen an den Herausforderungen inkrementell wachsen lässt. 

Keep it simple: Die Strategie der Metriken-Addition 

Es gibt eine weitere, sehr einfache Strategie zur Priorisierung von Datenanwendungsfällen. Wenn Mehrwert und Machbarkeit als gleichwertig angesehen werden, kann man die Metriken einfach addieren und dann ein Ranking von oben nach unten durchführen. Diese Methode ist besonders nützlich, wenn beide Aspekte – Mehrwert und Machbarkeit – für das Unternehmen gleichermaßen wichtig sind. Durch die Addition der Metriken entsteht ein Gesamtscore für jeden Anwendungsfall, der eine einfache und effektive Priorisierung ermöglicht. Diese Strategie ist unkompliziert und leicht umzusetzen, bietet aber dennoch eine solide Grundlage für die Entscheidungsfindung. Es ist jedoch wichtig zu beachten, dass diese Methode möglicherweise nicht die Nuancen und Komplexitäten jedes Anwendungsfalls vollständig berücksichtigt. Daher sollte sie als ein Werkzeug unter vielen in Ihrem Priorisierungs-Toolkit betrachtet werden. 

Clustering von Anwendungsfällen: Sinnvolle Methode bei technologischen Schnittmengen 

In vielen Organisationen ist es sinnvoll, die Datenanwendungsfälle nach Gemeinsamkeiten wie Technologien oder Datengrundlagen zu clustern. Diese Methode ermöglicht eine effiziente Nutzung von Ressourcen und eine bessere Skalierbarkeit der Lösungen. Durch das Zusammenfassen ähnlicher Anwendungsfälle können Unternehmen Synergien nutzen, die sich aus technologischen Schnittmengen ergeben. Dieser Ansatz erleichtert auch die Wartung und Weiterentwicklung der Lösungen, da Änderungen an einer Technologie oder Datenquelle auf alle relevanten Anwendungsfälle angewendet werden können. 

Die Wahl der richtigen Clustering-Methode hängt von den spezifischen Anforderungen und Zielen der Organisation ab. Einige Unternehmen bevorzugen eine technologiebasierte Gruppierung der Infrastruktur, während andere sich auf gemeinsame Datengrundlagen konzentrieren. Letztendlich geht es darum, die Daten optimal zu nutzen und die strategischen Ziele zu erreichen. 

Diverse Mehrwerte für die Organisation 

Die richtige Priorisierung und Auswahl von Datenanwendungsfällen bietet der Organisation eine Vielzahl an strategischen Vorteilen. Einige davon sind: 

  1. Effiziente Ressourcennutzung: Durch die gezielte Umsetzung von Anwendungsfällen mit hohem Mehrwert und einfacher Machbarkeit werden Ressourcen optimal genutzt. 
  1. Wettbewerbsvorteil: Datengetriebene Lösungen ermöglichen es Unternehmen, schneller auf Marktveränderungen zu reagieren und sich einen Wettbewerbsvorteil zu verschaffen. 
  1. Langfristige Transformation: Die Auswahl von Anwendungsfällen legt den Grundstein für eine langfristige datenbasierte Transformation der Organisation in einem „Bottom-Up“  

Die Priorisierung und Auswahl von Datenanwendungsfällen ist ein entscheidender Schritt auf dem Weg zur datengetriebenen Transformation. Die Wahl der richtigen Strategie – ob “Low-Hanging-Fruits”, “Harte Nuss” oder “Wachsen mit den Aufgaben” – kann den Unterschied zwischen Erfolg und Misserfolg ausmachen. Jede dieser Strategien hat ihre eigenen Vor- und Nachteile und bietet unterschiedliche strategische Vorteile. 

Es ist wichtig zu verstehen, dass es keine richtige Lösung für die Wahl der Strategie gibt. Die beste Strategie hängt von vielen Faktoren ab, darunter die Unternehmenskultur, die vorhandenen Ressourcen und die strategischen Ziele. Eine ausgewogene Mischung aus verschiedenen Ansätzen kann dazu beitragen, den maximalen Wert aus den Daten zu schöpfen. 

Read More
Data Strategy

Die Schlüsselrolle des Data Leaders: Datenexzellenz im Unternehmenserfolg

In der heutigen Ära der Datenrevolution ist die Bedeutung von Daten für den Unternehmenserfolg unbestreitbar. Daten und Analytics sind zu treibenden Kräften für Wachstum und Innovation geworden. In diesem Kontext stellt sich die Frage: Brauchen Unternehmen einen Data Leader? Die Antwort, die sich aus der zunehmenden Komplexität der Datenlandschaft ergibt, lautet eindeutig ja. Der Data Leader, auch bekannt als Chief Data Officer (CDO), spielt eine entscheidende Rolle bei der Gestaltung und Umsetzung einer effektiven Datenstrategie sowie bei der Förderung einer datengetriebenen Kultur im gesamten Unternehmen. 

Die Wichtigkeit des Data Leaders 

Die heutige Geschäftswelt ist von einem Überfluss an Daten geprägt. Unternehmen, die in der Lage sind, diese Daten effektiv zu nutzen, haben einen klaren Wettbewerbsvorteil. Hier kommt der Data Leader ins Spiel. Seine Hauptaufgabe besteht darin, die strategische Ausrichtung und Umsetzung von Daten- und Analytics-Initiativen zu leiten. Darüber hinaus fungiert er als Katalysator, der eine datenexzellente Kultur fördert, in der Daten nicht nur als Ressource betrachtet werden, sondern als strategischer Vorteil genutzt werden. 

Die Herausforderungen des Data Leaders 

Der Weg zum Erfolg als Data Leader ist jedoch mit zahlreichen Herausforderungen verbunden. Die erste Herausforderung besteht darin, die wertstiftende Nutzung von Daten und Künstlicher Intelligenz zu ermöglichen. Dies erfordert die Entwicklung einer umfassenden Datenstrategie, die Sicherstellung der Datenqualität und die Implementierung fortschrittlicher Analytics-Tools. Die Förderung einer datenexzellenten Kultur ist dabei von zentraler Bedeutung. 

Die zweite Herausforderung besteht darin, als Botschafter für Daten und Analytics zu fungieren. Der Data Leader muss sicherstellen, dass die Bedeutung von Daten nicht nur im IT-Bereich, sondern in allen Unternehmensbereichen als unverzichtbar verstanden wird. Dies erfordert eine kontinuierliche Kommunikation und Überzeugungsarbeit, um eine breite Akzeptanz für datengetriebene Entscheidungsfindung zu schaffen. 

Die Kompetenzen des Data Leaders im Detail 

1. Kommunikation und Storytelling

Die Fähigkeit, komplexe Daten und Analytics-Themen für unterschiedliche Zielgruppen aufzubereiten und zu vermitteln, ist von entscheidender Bedeutung. Der Data Leader muss in der Lage sein, Daten in Geschichten zu verwandeln, die das Bewusstsein für den Wert von Daten im gesamten Unternehmen schärfen. Dies erfordert nicht nur technische Kenntnisse, sondern auch eine klare und überzeugende Kommunikation. 

2. Interdisziplinäres Arbeiten

In einer vernetzten Welt, in der Daten in verschiedenen Abteilungen und Funktionen eine Rolle spielen, muss der Data Leader erfolgreich mit Menschen aus verschiedenen Fachbereichen zusammenarbeiten. Die Fähigkeit, diese interdisziplinäre Zusammenarbeit zu orchestrieren und zu koordinieren, gehört zu den grundlegenden Kompetenzen eines effektiven Data Leaders. 

3.Geschäftliche Kompetenz

Ein tiefer Einblick in die Geschäftsprozesse ist unerlässlich. Der Data Leader muss verstehen, wie Daten und Analytics Mehrwert in den Unternehmensprozessen schaffen können, um die strategische Ausrichtung optimal zu unterstützen. Dies erfordert nicht nur technisches Verständnis, sondern auch eine klare Kenntnis der Geschäftsziele und -prozesse. 

4. Transformationskompetenz

Die Fähigkeit zur Erkennung, Initiation und erfolgreichen Umsetzung von Veränderungen im Unternehmen ist von entscheidender Bedeutung. In einem sich ständig wandelnden Geschäftsumfeld muss der Data Leader nicht nur Anpassungen vornehmen, sondern auch proaktiv Veränderungen vorantreiben. Die Transformationskompetenz ist somit eine Schlüsselfähigkeit für langfristigen Erfolg. 

Der Rollencanvas nach Claudia Thonet: 

Ein hilfreiches Werkzeug zur ganzheitlichen Betrachtung der Rolle des Data Leaders ist der Rollencanvas von Claudia Thonet. Dieses strukturierte Instrument bietet eine umfassende Perspektive auf die Rolle: 

Aufgaben und Verantwortlichkeiten: 

Der Rollencanvas definiert klar die Hauptaufgaben und Verantwortlichkeiten des Data Leaders. Dies umfasst die strategische Ausrichtung, Implementierung von Daten- und Analytics-Initiativen, Förderung der Datenkultur und mehr. 

Kompetenzen

Er bietet einen Überblick über die erforderlichen Kompetenzen, die von technischem Verständnis bis hin zur Fähigkeit, Veränderungen zu managen, reichen. Die Kompetenzliste dient als Leitfaden für die individuelle Entwicklung des Data Leaders. 

Beziehungen

Der Rollencanvas zeigt, mit welchen anderen Rollen der Data Leader interagiert und wie er die Zusammenarbeit fördern kann. Dies ist entscheidend, da Daten in verschiedenen Abteilungen und Ebenen relevant sind. 

Wirkung: 

Der Canvas veranschaulicht, welchen Einfluss der Data Leader auf das Unternehmen hat und wie er die Datenexzellenz vorantreibt. Die Wirkung erstreckt sich über die strategische Ebene bis hin zur täglichen operativen Effizienz. 

Zusammenfassend lässt sich feststellen, dass die Rolle des Data Leaders nicht nur wichtig, sondern entscheidend für den Weg zu einem datenexzellenten Unternehmen ist. Durch die geschickte Umsetzung der beschriebenen Aufgaben und die Verankerung der relevanten Kompetenzen kann der Data Leader eine treibende Kraft für den Erfolg des Unternehmens sein. Unternehmen, die diese Rolle vernachlässigen, riskieren nicht nur, die Potenziale von Daten und Analytics zu verpassen, sondern könnten auch den Anschluss in der dynamischen Geschäftswelt verlieren. In der Ära der Datenrevolution ist der Data Leader somit nicht nur eine Notwendigkeit, sondern ein unverzichtbarer Akteur auf dem Weg zum nachhaltigen Unternehmenserfolg. Es wird deutlich, dass der Data Leader nicht nur ein technologischer Experte ist, sondern eine Schlüsselperson, die Brücken zwischen Technologie, Business und Menschen schlägt, um eine umfassende Datenexzellenz zu erreichen. 



Read More
Data Strategy

Die Dimension der Technologie in der Data-Driven Business Transformation

Dies ist der vierte Teil unserer Reihe zu den vier Dimensionen einer Data-Driven Business Transformation. Wenn Sie den vorherigen Teil noch nicht gelesen haben, finden Sie ihn hier. In diesem Beitrag geht es um die Dimension der Technologie. Das Datenstrategie Team des INFORM DataLab nutzt die vier Dimensionen, um die gegenwärtige Situation von Unternehmen einzuschätzen und diese gegen Wunschvorstellungen zu benchmarken. Im Anschluss begleiten die Berater des DataLab ihre Kunden bei der Umsetzung nötiger Transformationsschritte.

 

Die Dimension Technologie  

Die „Technology“-Dimension ist wohl diejenige, die im Allgemeinen am stärksten mit einer Data-Driven Business Transformation assoziiert wird. Intuitiv ist diese Assoziation auch naheliegend, da Business Intelligence (BI), Data Science und Künstliche Intelligenz (KI) computergestützte Methoden sind. Die Technologie-Dimension befasst sich mit modernen Algorithmen, Werkzeugen und IT-Systemen, die das Rückgrat eines datengetriebenen Unternehmens bilden. Hierzu gehört vor allem die Analytics-IT-Architektur wie Computer, Server und Cloud, Tools zur Bearbeitung und Visualisierung von Daten sowie Sicherheitsvorkehrungen zum Schutz von außen und zur Absicherung bei Systemausfällen. Dieser Beitrag soll aber keine Vorstellung und Bewertung verschiedener Tools oder Anbieter sein, sondern eine generelle Perspektive auf die Technologieaspekte einer Data-Driven Business Transformation sowie relevanter Designentscheidungen geben.

Die vorangegangenen Beiträge haben bereits herausgearbeitet, dass jede der vier Dimensionen eine zentrale Bedeutung für ein Unternehmen hat. Dennoch werden datenrelevante Themen oft auf die Technologie-Dimension reduziert und entsprechend auf die Schultern der IT-Abteilung geladen. Hier liegt auch einer der häufigsten Gründe für das Scheitern von Transformationsprogrammen oder einzelnen Dateninitiativen, denn die Wertschöpfung mittels Daten findet letztlich in den Fachbereichen statt. Technologie allein verfolgt niemals einen Selbstzweck, sondern sollte immer nur als Werkzeug betrachtet werden, um Unternehmensziele zu erreichen. Dies gilt auch für die Data-Driven Business Transformation.

Datenhaltung und Pflege

Daten müssen organisiert und gepflegt werden. Hierzu setzen Unternehmen zunehmend auf zentrale Datenplattformen. Beim Aufbau solcher Datenplattformen haben Unternehmen viele Möglichkeiten. Meist setzen Unternehmen auf den Einsatz eines Data Warehouse und/oder eines Data Lake – abhängig von der Art und dem Umfang der Analytics-relevanten Daten. Strukturierte Daten (Tabellen) können in modernen Data Warehouses (DWH) gespeichert werden, die einen zentralen Ablageort für Analytics-relevante Daten in einem Unternehmen darstellen. Für die Speicherung von unstrukturierten Daten, die nicht in die Frameworks von DWHs passen, werden sogenannte Data Lakes genutzt. Sowohl DWHs als auch Data Lakes sind zentrale Speicherorte, die Daten in gesicherter Qualität vorhalten und diese den verschiedenen Fachbereichen zur Verfügung stellen, sofern diese zur Nutzung dieser Daten berechtigt sind. Die Daten werden dabei aus den operativen Quellsystemen (z.B. ERP, CRM oder HR-Systeme) in die Datenplattform kopiert, so dass Analysen die operativen Aufgaben der Quellsysteme nicht beeinflussen.

Datenplattformen werden zunehmend in Cloud-Umgebungen realisiert, um maximale Flexibilität und Skalierbarkeit zu gewährleisten. Die Motivation für zentrale Datenplattformen sind häufig Datensilos im Unternehmen mit unterschiedlichen Ladestrecken (ETL oder ELT) zur Aufbereitung sowie unterschiedliche oder gar widersprechende Analyseergebnisse aus den Datensilos. Zentrale Datenplattformen brechen Datensilos im Unternehmen auf und schaffen eine zentrale Datenbasis für alle Datenprodukte (Single-Point-of-Truth).

Neben der Wahl eines konkreten Cloud-Anbieters und geeigneter Datenbanktechnologien bieten zunehmend Automatisierungskomponenten die Möglichkeit, Datenpipelines und/oder Modellierungstätigkeiten weitestgehend zu automatisieren. Dadurch wird der Aufbau und der Betrieb zentraler Datenplattformen mit minimalem Mitarbeitereinsatz möglich. Traditionell benötigt der Aufbau eines DWH eine große Menge an Data Engineers, die mit Arbeiten zum Aufbau von Pipelines und Datenmodellierung beschäftigt sind. Mit neuer Technologie und Software kann dieser Aufbau größtenteils automatisiert und damit signifikant beschleunigt werden. Gleichzeitig können diverse Data Engineer Stellen eingespart werden, bzw. mit anderen Aufgaben betreut werden.

Analog existieren auch Tools zur Datenpflege, wie z.B. zum Metadatenmanagement oder für eine strukturierte Bereitstellung von Master Data (Stammdaten). Metadaten sind Informationen über die verfügbaren Daten, wie beispielsweise die Bedeutung von Daten im Geschäftskontext oder technische Informationen wie Erfassungs- und Änderungsdatum. Metadatenerfassung und -pflege geht Hand in Hand mit einer effektiven Data Governance. Master Data Management Systeme werden häufig abseits der Analytic für die operativen Systeme eingesetzt, wenn es darum geht, Datensätze aus verschiedenen operativen Systemen zu vereinheitlichen. Ein Beispiel hierfür sind Kundendaten, die sowohl im ERP- als auch im CRM-System vorgehalten werden und in Form eines „Golden Records“ im Master Data Management System vereinheitlicht werden. Existiert im Unternehmen ein Master Data Management System, so kann dieses als Quellsystem für eine zentrale Datenplattform dienen. Ist kein Master Data Management System vorhanden, so werden die Stammdaten innerhalb der Datenplattform harmonisiert, um „Golden Records“ für die aufsetzenden Datenprodukte zu generieren.

Werkzeuge zur Datenauswertung 

Um aus Daten Mehrwerte schöpfen zu können, müssen diese aufbereitet, visualisiert oder auf andere Art verarbeitet werden. Für diese Arbeiten stehen verschiedenste Werkzeuge zur Verfügung, die Daten visualisieren und Kennzahlen berechnen. Die Ergebnisse können dann in Reports zusammengefasst oder in kurzfristigen Intervallen über Dashboards angezeigt werden. Für fortgeschrittene Methoden der Analytik sowie für Data Science oder KI-Anwendungen existieren diverse Produkte & Bibliotheken, die z.B. über die Programmiersprachen Python open source und kostenfrei zur Verfügung stehen.

Zusammenfassung 

Das Spektrum der verfügbaren Lösungen am Markt ist groß, und die Entwicklungen stehen nicht still. Auf einige Designentscheidungen sind wir in diesem Artikel exemplarisch eingegangen. Eine passende Analytics-Technologiewahl ist wichtig für Unternehmen, sollte aber niemals der Startpunkt der Aktivitäten hin zu einem datengetriebenen Unternehmen sein. Die Anforderungen an eine maßgeschneiderte Analytics-IT-Infrastruktur ergeben sich durch die realisierten und geplanten Datenanwendungsfälle. Möchte ein Unternehmen beispielsweise Predictive Maintenance in der Produktion nutzen, ergeben sich andere Anforderungen, als wenn ein Unternehmen ausschließlich BI & Reporting-Anwendungsfälle für Transparenz und datenbasierte Entscheidungsprozesse anstrebt. Daher ist es so wichtig für Organisationen, sich zunächst mit den strategischen Datenanwendungsfällen auseinanderzusetzen, die im Rahmen einer Datenstrategie evaluiert werden. Dazu ist es notwendig zu definieren, was datengetrieben für das Unternehmen eigentlich konkret bedeutet.

Read More
Data Strategy

Die Bedeutung der Prozesse in der Data-Driven Business Transformation

Willkommen zum dritten Teil unserer Reihe zu den vier Dimensionen anhand derer das Datenstrategie-Team des INFORM DataLabs die Data-Driven Business Transformation von Unternehmen plant und bis zum Ende begleitet. Im vorherigen Beitrag haben wir die „People“ Dimension näher beleuchtet und erörtert welche Rolle die Menschen eines Unternehmens bei der Transformation spielen.  In diesem Post beschäftigen wir uns mit der „Process“ Dimension aus „People, Process, Technology & Data“. 

Prozesse & Digitalisierung 

Die „Process“ Dimension befasst sich mit den Prozessen, die innerhalb eines Unternehmens stattfinden. Diese Prozesse bestehen üblicherweise aus einer geordneten Reihe von Aktivitäten und Aufgaben, die eine Organisation durchführt, um ihre Zeile zu erreichen. Verkaufsprozesse erstecken sich üblicherweise von Auftragseingang und -bestätigung über Bereitstellung oder Fertigung hin zu Auslieferung und Abrechnung. Prozesse existieren in allen Bereichen eines Unternehmens wie Vertrieb, HR, Controlling, Management, etc. Für moderne Unternehmen sind effiziente und gut strukturierte Prozesse unerlässlich, um effizient und fehlerfrei arbeiten zu können.  

Eine Möglichkeit Prozesse effizient und robust zu gestalten, bietet die Digitalisierung. Hinter diesem viel verwendeten Stichwort verbirgt sich üblicherweise auf die Überführung unternehmensinterner Prozesse von analogen Medien in die digitale Form. Im simpelsten Fall ist Digitalisierung der Umstieg von Fax oder Brief zu E-Mail. Vollständig digitalisierte Prozesse können jedoch oft einen hohen Grad an Automatisierung erreichen, die zu signifikanten Effizienzsteigerungen führt und sehr gut skaliert.  

Von digitalen Prozessen und nutzbaren Daten 

In dieser Reihe beschäftigten wir uns aber nicht primär mit der Digitalisierung von Prozessen, sondern mit einer gesamtheitlichen Data Driven Business Transformation. Es geht also nicht darum welche Prozesse wie digitalisiert werden können bzw. sollten, sondern um die Daten, die durch diese Prozesse erzeugt werden. Die Verbindung von Daten und Prozessen ist simpel: immer, wenn ein Prozess angestoßen wird, entstehen dabei Daten. Nehmen wir als Beispiel den Bestellprozess eines Onlinehandels. Im ersten Schritt schließt der Kunde die Bestellung im Onlineshop ab. Dabei werden Name, Adresse, Datum und Uhrzeit, Produktkennung, Stückzahlen und einige weitere Punkte als Daten aufgezeichnet. In den folgenden Schritten werden Daten über die Arbeit im Lager und im Versand sowie über die Lieferung aufgezeichnet. All diese Daten beschreiben die einzelnen Schritte des Prozesses und geben rückwirkend Aufschluss über dessen Ablauf. Eine große Menge dieser Daten kann entsprechend genutzt werden, um Prozesse besser zu verstehen und diese zu optimieren.  

„Eine Digitalisierung der Unternehmensprozess ermöglicht die Erfassung, Speicherung und Analyse riesiger Datenmengen, die wertvolle Erkenntnisse liefern, eine bessere Entscheidungsfindung ermöglichen, Geschäftsprozesse optimieren und die Zusammenarbeit und Kommunikation innerhalb des Unternehmens fördern.“  

Dr. Eike Cramer

Die Daten sind somit nicht nur das Beiprodukt digitalisierter Prozesse, sondern sind als wertvolles Unternehmensgut zu verstehen. Für die Auswertung von Prozessdaten ist die Form, in der diese aufgezeichnet wurden, entscheidend. Fehler in den Daten führen automatisch auch zu Fehlern in den darauf basierenden Analysen bzw. Datenprodukten. Im Slang der Data Science Welt nennt man dies dann „Garbage in – Garbage out“.  Im Rahmen einer Data-Driven Business Transformation reicht es daher nicht aus Prozesse einfach irgendwie zu digitalisieren. Die Digitalisierung muss auch so durchgeführt werden, dass a) alle Daten mit Analytics Relevanz erfasst werden und b) die bei den Prozessen anfallenden Daten auch auswertbar sind.  So muss beispielsweise dafür gesorgt werden, dass Datenerfassungsprozesse effektiv gestaltet werden und Freitextfelder möglichst gar nicht oder nur wenn sinnvoll verfügbar sind. . Daten im Freitextformat können zwar alle relevanten Informationen enthalten, diese liegen aber unstrukturiert vor, was eine Auswertung signifikant erschwert oder sogar unmöglich macht. Für ein erfolgreiches Prozessdesign sollten daher sowohl die betroffenen Fachbereiche – im Beispiel der Vertrieb – einbezogen sein, als auch die spätere Auswertbarkeit der entstehenden Daten berücksichtigt werden. Darüber hinaus muss eine strukturierte Grundlage existieren – im Beispiel die Produktstammdaten – auf der die Prozesse aufgesetzt werden können. Hier lohnt es sich häufig auf etablierte und bewährte Tools von Drittanbietern zurückzugreifen. Mehr zu Tools und Technologie finden Sie in unserem Blogpost zur „Technology“ Dimension. Im Allgemeinen gibt häufig es eine Synergie zwischen dem Level der Digitalisierung und Datenqualität. Prozesse mit einem hohen Maß an Automatisieren führen in der Regel auch zu qualitativ hochwertigen Daten. Ein Investment in Prozessdesign und -automatisierung lohnt sich also sowohl aus der Effizienz als auch aus der Datenperspektive.  

Prozesse im Analytics Betriebsmodell 

Neben der Perspektive der Geschäftsprozesse lohnt ebenfalls ein Blick auf die Prozesse zur Generierung von Insights, Analysen und Datenprodukten, die es im Rahmen eines Daten- und Analytics Betriebsmodell als Konkretisierung der Datenstrategie zu entwickeln gilt. Dazu gehören in der Regel die Prozesse zur Entwicklung & Innovation datenbasierter Anwendungsfälle (KI oder BI Produkte), die Priorisierung der Bedarfe, die Anforderungsanalyse, die Entwicklung von Data Marts, Alorithmen und Dashboards, sowie deren Governance und Verwaltung. Wie werden also Datenprodukte im Unternehmen entwickelt, wie sorgt man für die „Single source of truth“ und stellt die Qualität der generierten Insights für datenbasierte Entscheidungen sicher. All das gilt es im Unternehmen abzustimmen, denn noch allzu häufig haben Unternehmen Probleme auf ihrer Reise zum datengetriebenen Unternehmen weil ein dazugehörige Betriebsmodell fehlt oder unvollständig ist. 

Takeaways: Die zentrale Rolle der „Process“ Dimension

Zum Abschluss dieses Beitrags lässt sich folgendes zusammenfassen: Eine Digitalisierung der Unternehmensprozess ermöglicht die Erfassung, Speicherung und Analyse riesiger Datenmengen, die wertvolle Erkenntnisse liefern, eine bessere Entscheidungsfindung ermöglichen, Geschäftsprozesse optimieren und die Zusammenarbeit und Kommunikation innerhalb des Unternehmens fördern. Die „Process“ Dimension bildet damit einen essenziellen Teil einer jeden Data Driven Business Transformation – sowohl aus Sicht der Geschäftsprozesse als auch aus Sicht der Analytics Prozesse, die beschreiben wie aus Daten Mehrwerte generiert werden. 

Read More
Data Strategy

Die „People“ Dimension: Kern einer erfolgreichen Data-Driven Business Transformation

Im Zweiten Teil unserer Reihe zu den vier Dimensionen einer erfolgreichen Data-Driven Business Transformation. In dieser Reihe widmen wir uns der Transformation hin zu einem Unternehmen in dem Daten als Wert anerkannt und auch wertschöpfend eingesetzt werden. Im letzten Beitrag haben wir die vier Dimensionen vorgestellt, die zur Bewertung des IST-Zustandes und zur Planung einer solchen Transformation genutzt werden können: „People, Process, Technology & Data“. In diesem Beitrag widmen wir uns nun der „People“ Dimension – den Menschen und der Organisation, die ein Unternehmen ausmachen.  

Einführendes Beispiel: Herausforderungen in der Praxis 

Zu Beginn ein fiktives Beispiel, dass jedoch in vergleichbarer Form häufig in unserer eigenen Arbeit auftritt: Die Data Science Abteilung eines Unternehmens hat eine künstliche Intelligenz (KI) trainiert, die optimale Zeitpunkte und Ansprechpartner für den eigenen Vertrieb vorhersagt. Die Kosten für den Aufbau der Data Science Abteilung und das Erstellen der nötigen Modelle sind erheblich. Jedoch wird mit einer deutlichen Umsatzsteigerung gerechnet, die die zusätzlichen Kosten schnell wieder ausgleichen wird. Als die neue KI-Methode dem Vertriebspersonal vorgestellt wird, sind die Reaktionen gemischt. „Das passt mir jetzt aber nicht in den Kram“ oder „ich habe da schon meine eigene Methode“ sind häufige Antworten. Die neue KI-Methode wird kaum genutzt und nach kurzer Zeit verschwindet die KI in der digitalen Schublade. Die Entwickler der KI verstehen nicht, warum ihre Methode nicht angenommen wurde. Statt einer Umsatzsteigerung ist das Unternehmen jetzt mit einer großen Menge an verschwendeten Ressourcen und gesteigertem Misstrauen gegenüber der Data Science Abteilung konfrontiert.  

Wie kann es sein, dass ein Produkt, das gut funktioniert und große Gewinnsteigerung verspricht, zu einem so schlechten Ergebnis führt? Das Projekt ist hier nicht an einer mangelnden Qualität des Datenprodukts gescheitert, sondern daran, dass die späteren Nutzer nicht bei der Entwicklung involviert wurden.  Der Vertrieb wurde nicht für den Nutzen eines Datenprodukts sensibilisiert und konnte mit der Anwendung nicht umgehen. Ängste der Mitarbeiter wurden nicht adressiert. 

Die “People” Dimension: Mehr als nur Mitarbeiter und Management 

Die „People“ Dimension bezieht sich also auf das menschliche Element einer Organisation. Dazu gehören Management, Mitarbeiter, Kunden und andere Interessengruppen, die von in der Tätigkeit der Organisation involviert oder von dieser betroffen sind. Dazu gehören des Weiteren auch die Gewinnung und Bindung talentierter Mitarbeiter, die Entwicklung ihrer Fähigkeiten und Fertigkeiten sowie die Schaffung eines positiven und unterstützenden Arbeitsumfelds. Neben dem Umgang mit den eigenen Mitarbeitern gehört auch der effektive Umgang mit Kunden und anderen Interessengruppen zur menschlichen Dimension einer Unternehmenstransformation. Die Bedürfnisse und Erwartungen von Kunden zu verstehen ist essenziell, um Datenprodukte zielgerecht einsetzten zu können. 

„Data-culture eats data-strategy for breakfast”

Dr. Leonie Petry, Consultant Data Culture & Transformation

Unsere (Daten-) Kulturberaterin und Organisationsdesignerin Leonie Petry formuliert es prägnant mit einer Modifikation des Zitats von Peter Drucker: „Data-culture eats data-strategy for breakfast.” Anders formuliert bedeutet dies, dass keine Datenstrategie und keine datengetriebene Transformation erfolgreich sein kann, ohne auf einer positiven Datenkultur zu bauen oder diese zu entwickeln. Zu einer solchen Datenkultur gehören unter anderem die Anerkennung von Daten als Unternehmenswert auf allen Ebenen sowie das Verständnis von und das Vertrauen in datenbasierte Produkte.   

Das Sprichwort – „Der Fisch stinkt vorm Kopf“ – lässt sich ebenfalls auf die Datenwelt eines Unternehmens anwenden. Ein datengetriebenes Unternehmen kann nur funktionieren, wenn das Management das Thema Daten priorisiert und eine Datenkultur vorlebt. Ohne Priorisierung und Zielsetzung durch das Management verlaufen Initiativen häufig unkoordiniert und scheitern fast immer. Es ist Aufgabe des Managements eine  Datenstrategie zu entwickeln, die mit der Unternehmensstrategie im Einklang steht, um so richtungsweisend agieren zu können. Dies bedeutet auch das entsprechende Ressourcen zur Verfügung gestellt werden müssen, um beispielsweise Fortbildungen zu organisieren oder ein Center of Excellence einzurichten. 

Neben dem Top-Down Vorgaben des Managements benötigt ein datengetriebenes Unternehmen ebenso Bottom-Up Strukturen, in denen aus den einzelnen Fachbereichen Mehrwerte geschaffen werden können. Grundsätzlich sollten die Datenprodukte dort entstehen, wo sie auch eingesetzt werden. Dies führt zu maximaler Kompatibilität mit existierenden Strukturen und den involvierten Personen. Hierfür benötigt es jedoch Know-how innerhalb der jeweiligen Fachbereiche. Dies bedeutet nicht unbedingt, dass jeder Angestellte einen Machine-Learning Crash Kurs besuchen muss. Vielmehr muss ein grundlegendes Verständnis zum Arbeiten mit Daten vermittelt werden, damit Datenerhebung in die selbstverständliche Arbeit übergeht und Datenprodukte verstanden und zielgerichtet eingesetzt werden können. Interdisziplinäre Entwicklungsteams sowie Product Owner aus den Fachbereichen haben sich hier in der Praxis bewährt. Die eigentliche Wertschöpfung mit Daten und Analytics findet in den Geschäftsbereichen statt und nicht in einem Kompetenzzentrum oder gar der IT wie oft vermutet. Daher bedarf es einer unternehmensweiten Transformation um Daten wertschöpfend einzusetzen. Der Aufbau eines dedizierten Teams oder der kauf von Tools alleine führt nicht zum Erfolg. 

Takeaways: Die menschliche Dimension als Schlüssel zum Erfolg 

Zusammenfassend lässt sich sagen, dass die Menschliche Dimension eines Unternehmens häufig sehr vielschichtig ist und eventuelle Probleme selten triviale Standardlösungen haben. Gleichzeitig bilden die Menschen eines Unternehmens einen wichtigen Bestandteil in der Datenwertschöpfungskette, denn sie sind letztendlich diejenigen die Werte mittels Daten erschaffen und das Unternehmen weiterentwickeln. Für eine Data Driven Business Transformation ist es daher unerlässlich auch die menschliche Komponente des Unternehmens mit zu berücksichtigen. Der Blick richtet sich dabei auf Führungskräfte, Entscheider, Nutzer von BI oder KI Lösungen, Datenspezialisten und Kunden sowie deren Rolle in einem Analytics-Betriebsmodell. 

Read More
Data Strategy

Die vier Dimensionen der digitalen Transformation

Durch die voranschreitende digitale Transformation fallen in Unternehmen große Mengen an Daten an. Diese Daten können genutzt werden, um Prozesse besser zu verstehen, Vorhersagen zu treffen oder Planbarkeit von Personaleinsatz zu optimieren. Aber Daten schaffen nicht automatisch einen Mehrwert für das Unternehmen. Im Gegenteil, große Datenmengen werden schnell unübersichtlich und schwierig zu beherrschen. Weiter können Daten durch häufig schlechte Qualität oder fehlenden nachvollziehbaren Kontext wertlos sein. Für ein ambitionierte Unternehmen reicht daher die Digitalisierung der Prozesse nicht aus. Vielmehr müssen Unternehmen sich grundlegend transformieren damit Daten den Unterschied machen können. Kurz gesagt: Es braucht eine Data-Driven Business Transformation.  

Sobald das Management das Ziel der Data-Driven Business Transformation ins Auge gefasst hat, stellt sich die Frage, wo man anfängt und wo die Reise genau hingeht. Jedes Unternehmen hat individuelle Geschäftsmodelle und sonstige Anforderungen, die eine Data-Driven Business Transformation zu einem strategischen Problem machen. Daher bedarf die Umsetzung einer Transformation zu einem datengetriebenen Unternehmen einer dedizierten Datenstrategie die Daten und allgemeine Unternehmensstrategie in Einklang bringt. Häufig lohnt es sich dabei einen Schritt zurückzutreten, um sowohl die Ausgangslage und eine Zielvorstellung zu erarbeiten. Im Rahmen einer Datenstrategie können somit dedizierte Transformationspläne entwickelt werden, statt auf generische Blueprints zurückzugreifen. Trotz der Individualität jedes Unternehmens treten häufig ähnlich Probleme auf, die sich in der Regel gut mit etablierten Frameworks analysieren und beheben lassen. Dabei lassen sich sowohl die Erfassung des IST-Zustandes als auch die Transformationsplanung in einer Datenstrategie anhand von vier Dimensionen gut strukturieren.  

In dieser Reihe stellen wir die vier Dimensionen der Data-Driven Business Transformation vor und geben einen Einblick wie das INFORM DataLab anhand von People, Process, Technology & Data eine erfolgreiche Data-Driven Business Transformation begleitet. 

 

Die 4 Dimensionen: People, Process, Technology & Data 

Häufig werden Digitalisierung und Daten auf die technologische Komponente reduziert und die Umsetzung als Aufgabe der IT-Abteilung verstanden. Ohne Zweifel muss ein Unternehmen neue digitale Infrastruktur schaffen, um erfolgreich die Data-Driven Business Transformation meistern zu können. Aber – die Entwicklung von datengetriebenen Entscheidungsmechanismen ist kein reines Technologieproblem und die IT-Abteilung allein kann die gesamte Transformation eines Unternehmens nicht meistern. Eine Unternehmenstransformation – so auch die date Driven Business Transformation – adressiert alle Unternehmensbereiche und involviert Einkäufer, Verkaufspersonal, Produktionsmitarbeiter und Top-Management gleichermaßen. Entsprechend bedarf es Transformationsfähigkeiten in allen Bereichen eines modernen Unternehmens. Die Dimensionen des PPT-Frameworks – People, Process, Technology – sind ein weit verbreiteter und anerkannter Ansatz für die Planung und Bewertung von Transformationsvorhaben. Jede der drei Dimensionen spiegelt einen essenziellen Teil eines jeden Unternehmens wider. Für eine Data-Driven Business Transformation lohnt es sich Daten und Analytics selbst einen höheren Stellenwert beizumessen und sie als vierte Dimension mit zu berücksichtigen.   

„Die Entwicklung von datengetriebenen Entscheidungsmechanismen ist ohne entsprechende Technologie nicht machbar, aber kein reines Technologieproblem. Die Menschen, die letztlich Entscheidungen treffen, sowie die Prozesse und Daten, die zu den Entscheidungen führen, sind ebenfalls entscheidende Erfolgsfaktoren.“  

Dr. Jens Linden

Die „People“ Dimension bezieht sich auf die Personen in einem Unternehmen: ihr Know-How, ihre Einstellung zur Transformation und den damit einhergehenden Neuerungen sowie dem Organisationsdesign. Eine Data-Driven Business Transformation bedarf hier zunächst zwingend ein aktives Vorantreiben von Seiten des Vorstands, denn ohne Führsprecher im Management verlaufen selbst die am besten geplanten Transformationen oft im Sand. Weiter müssen auch die Mitarbeiter des Unternehmens die Ziele der Transformation verstehen und anerkennen damit niemand auf der Strecke bleibt. Ggf. müssen auch Kunden in die Transformation mit eingebunden werden, denn sie sind die wichtigsten Maß Geber für die zukünftige Entwicklung eines Unternehmens. 

Die „Process“ Dimension beschriebt die Aktivitäten rund um die Digitalisierung der Unternehmensprozesse. Dies beinhaltet nicht nur die Digitalisierung der einzelnen Prozesse, sondern auch eine Anpassung von Arbeitsweisen und Methodiken für eine stetige Prozessoptimierung. Beispiele für Arbeitsweisen in einem datengetriebenen Unternehmen könne z.B. agile Methoden oder die systematische Entwicklung und Priorisierung von Analytics/KI Anwendungsfällen sein.  

Zuletzt bleibt im PPT-Framework noch die „Technology“ Dimension, die zwar nicht den einzigen aber eine zentrale und notwendige Dimension einer jeden Transformation bildet. Im Rahmen der Technologie Dimension muss häufig eine neue IT-Infrastruktur und Cloud-Architektur aufgebaut werden oder Bestehendes überarbeitet werden. Weiter bieten diverse Tools für z.B. Visualisierung oder Dash-Boarding die Möglichkeit zur Beschleunigung oder Automatisierung von Vertriebs-, Produktions- oder Entscheidungsprozessen. 

In Bezug auf eine Data-Driven Business Transformation ignorieren die PPT-Dimensionen jedoch die wichtigste Komponente einer erfolgreichen Datenwertschöpfung – die Daten. Daten sind der Rohstoff für moderne KPIs, Business Intelligence (BI) und künstliche Intelligenz (KI)-basierte Vorhersagen. Unternehmen müssen ihre Daten daher als Unternehmenswert anerkennen und sie entsprechend wie auch Geistiges Eigentum, Personal oder materielle Werte behandeln und pflegen. Genau wie mit jeder anderen Dimension steht und fällt eine erfolgreiche Transformation mit den Daten. Qualität, Sicherheit, Management und Verfügbarkeit sind essenzielle Faktoren, die gewährleistet werden müssen und ohne die Daten nicht wertschöpfend eingesetzt werden können. Für eine erfolgreiche Data-Driven Business Transformation muss es daher heißen: People, Process, Technology, and Data. 

Ausblick 

In den folgenden Blogposts dieser Reihe widmen wir uns jeder der vier Dimensionen und untersuchen die jeweilige Bedeutung für eine erfolgreiche und nachhaltig Datenwertschöpfung. Wir diskutieren typische Stolperfallen und zeigen in Richtungen, um diese zu umgehen. Wir wüschen viel Spaß beim Lesen. Wenn Sie Fragen haben oder auch in Ihrem Unternehmen Daten wertschöpfend einsetzen möchten, melden Sie sich bei uns oder laden Sie sich unser Data First Aid Kid herunter.  

Read More
Techniker und Investor gehen durch ein Feld von Solarmodulen
Data Strategy, Use Case, Use Case - EN

Sustainable data strategy for a German market leader in energy management

Challenge

One of our customers in the field of energy management had inefficient and limited access to its corporate data. A lack of transparency regarding requirements and existing solutions for generating data value made it even more difficult to uncover and leverage all data potential in the company in a targeted manner. In addition, a business intelligence team was set up, but without clearly defined objectives and tasks.

Solution

First, a data maturity analysis was conducted. For example, the status quo of existing data solutions was recorded, and challenges and potentials were identified and prioritized. For this purpose, the data experts from INFORM DataLab conducted interviews with various departments and stakeholders. Subsequently, an analytics vision for a central "Analytics Center of Excellence" was developed and agreed upon. How the newly established analytics unit will interact with the departments in the future was defined in the form of an analytics operating model (target operating model), which defines processes, tasks and roles. Finally, a target image for a central analytics IT architecture was developed and the feasibility of the new data platform was verified by means of proof-of-concept and tests.

Added value

  • Clear and coordinated roadmap for sustainable data value creation as part of the digital transformation

  • Transparency about data potentials, investment costs and challenges

  • Clear mandates and responsibilities for data and analytics

  • Sustainable concept for a central data platform as "single source of truth" in the company

  • Foundation for data innovation, efficiency gains, employee satisfaction and competitive advantages

  • Reduction of data-related business risks

More information
Read More
Data Strategy, Use Case, Use Case - EN

Winning AI use cases as well as clear target picture of the analytics IT infrastructure for a leading German telecommunications service provider

Challenge

A leading German telecommunications service provider lacked efficient access to machine data for failure analysis. The company also wanted to find out what potential existed for efficiency increases and automation through artificial intelligence (AI) and needed a central data platform for analytics.

Solution

First, all of the requirements and use cases in the relevant departments were worked out and collected together. Based on the requirements and challenges identified, the existing analytics tools were evaluated and a target operating model for data-driven decision making in the company was developed. Ultimately, a target picture for the analytics IT infrastructure was developed and various technological options were evaluated.

Added value

  • Transparency about barriers and potentials for data-driven analytics and automation to achieve efficiency gains

  • Support for decision making for the evaluation and selection of analytics tools

  • Target image and roadmap for the development of a modern and future-proof data platform

More information
Read More