Cloud
Data Management

Cloud-Migration – ein wichtiger Schritt auf dem Weg der digitalen Transformation

Entscheidungen in Unternehmen werden komplexer und müssen immer schneller getroffen werden. Gleichzeitig finden auf jeder Hierarchiestufe Entscheidungen statt​. Die Demokratisierung von Daten beschleunigt die Entwicklung hin zur Cloud. Daten-Demokratisierung bedeutet, dass Mitarbeiter Zugriff auf diese entscheidungsrelevanten Daten benötigen, und zwar:

  • ohne Hindernisse​,
  • von verschiedenen funktionalen Entitäten​,
  • mit Sicherheit und Governance-Richtlinien​,
  • On-Demand​,
  • pünktlich​.

Voraussetzung dafür ist eine Organisationskultur, die offen und datenbasiert ist.

Möchten Unternehmen den Schritt in die Cloud gehen, zahlt sich das schnell aus. Laut einer Studie von Microsoft und Forrester Consulting wird durch die Migration in die Cloud bei den befragten Unternehmen eine Steigerung des Return on Investment von 238 Prozent drei Jahre nach dem Projektstart prognostiziert. Darüber hinaus rechnen die befragten Unternehmen mit einer Produktivitätssteigerung in der IT um bis zu 25 Prozent, in den Teams der Datenbankadministratoren um bis zu 40 Prozent. Hinzukamen Einsparungen bei Hardware, Netzwerk, Speicher und Wartung in Millionenhöhe. ​

Und das sind nur die harten, wirtschaftlichen Vorteile. Hinzukommt Transparenz durch eine zentrale Datenplattform, eine sogenannte Single Source of Truth, in die alle relevanten Datenquellen im Unternehmen einfließen und wo Daten so aufbereitet sind, dass sie direkt für aussagekräftige Analysen und weitere Datenanwendungen genutzt werden können.

Gründe für die Cloud-Migration

So ist einer der Gründe für den Umzug in die Cloud, dass zeitintensive Entwicklungen wegfallen. Erfolgen beispielsweise Akquisitionen oder weitere Standorte kommen hinzu, die an die On-Premise-Umgebung gekoppelt werden müssen, vereinfacht die Cloud durch ihre flexible Skalierbarkeit diese Ankoppelung. Dadurch entsteht zusätzlich eine schnelle Reaktionsfähigkeit bei unerwartetem oder rapidem Unternehmenswachstum.

Die Skalierbarkeit wirkt sich auch positiv auf die Innovationsfähigkeit von Unternehmen aus:  Benötigt ein Unternehmen beispielsweise eine Data-Science-Komponente, ist dies in der Cloud schnell umsetzbar. Innovative Entwicklungen werden so nicht mehr zu umfangreichen, zeitintensiven Projekten, sondern können agil erprobt werden. Denn die schnelle Implementierung der Cloud erlaubt Unternehmen, weitere Datenlösungen ohne viel Zeit und Kosten umzusetzen. Die Time-to-Market wird hier auf ein Minimum reduziert.

Außerdem bietet die Cloud eine sehr schnelle Reaktionsfähigkeit für Unternehmen. Der Aufwand, eine virtuelle Maschine aufzusetzen, reduziert sich im Vergleich zur On-Premise-Lösung auf wenige Minuten. Dementsprechend schnell können Unternehmen reagieren, wenn zusätzlicher Data-Center-Space benötigt wird.

Häufig kommt die Frage nach On-Premise oder Cloud auch erst mit dem Ende von Verträgen in Unternehmen auf. Egal, ob das Auslaufen des Vertrags für Data-Center-Leasing, Software, Hardware, Software-Support oder notwendige Aktualisierungen der Grund für die Cloud sind – beim Vergleich der Vor- und Nachteile beider Lösungsversionen überzeugt die Cloud meist durch geringere Kosten und Implementierungszeit sowie bessere Skalierbarkeit.

Zusätzlich verfügen die bekannten Cloud-Anbieter im Gegensatz zu den meisten Unternehmen oft über Tausende Mitarbeiter, die sich nur um die Sicherheit der Lösungen kümmern und schließen folglich Sicherheitslücken. Ebenso ernst genommen wird bei diesen Anbietern das Thema Compliance – so können die meisten Unternehmen in Bezug auf Zertifizierungen und Datenrichtlinien aus Kapazitätsgründen kaum mit renommierten Cloud-Anbietern mithalten.

Ab in die Cloud – aber wie?

Der Schritt in die Cloud muss nicht zwangsläufig großer Aufwand sein – wenn man die nötige Expertise mitbringt. Vielen Unternehmen fehlt dieses Know-how für eine schnelle, reibungslose Migration noch. Denn hier sind einige Faktoren zu beachten. So sind die am Markt zu findenden Tools für die Migration nur zielführend, wenn sie für den richtigen Zweck an der richtigen Stelle eingesetzt werden.

Gerade in Zeiten des Internet of Things können die zu migrierenden Daten mehrere Gigabyte die Stunde bedeuten. Um standardisierte Hubs für die Migration dieser Milliarden Datensätze zu bauen, muss man wissen, wie die genaue Cloud-Architektur aussieht und wie die Abfragen optimal laufen sollten. Komponenten-Mapping und den Aufbau der Architektur für die Migration legt man also am besten in die Hände von Datenmanagement-Experten, um den höchstmöglichen Nutzen zu erzielen. Der erste Schritt hierfür kann eine Analyse der bestehenden Softwarelandschaft und die Definition der Ziele und Projektschritte sein.

Fazit

Es gibt einige Gründe, die für die Cloud sprechen. Häufig warten Unternehmen nur auf die richtige Motivation, um den Weg in die Cloud zu starten, um endlich von den Vorteilen zu profitieren. Für eine reibungslose Migration ist jedoch Expertenwissen notwendig. Denn die Datensätze und die Architektur der Cloud können je nach Unternehmen und den Anforderungen an Datenlösungen komplex werden. Unternehmen sollten den Schritt also mit entsprechender Unterstützung proaktiv angehen.

Möchten Sie in die Cloud migrieren? Oder sich weitergehend informieren? Laden  Sie hier unser Infopaper zum Thema Cloud-Migration herunter. 
Read More
Datenstrom aus den Zahlen 1 und 0
Data Management, Use Case, Use Case - EN

Central data management ensures single source of truth despite worldwide locations

Challenge

A globally active company in the field of insulation and access technology as well as interior design services operates with individual data silos at its various locations. Since there is no central single source of truth for this data in the company, these silos are to be migrated and consolidated into a common cloud platform together with the data from the company headquarters. This should enable all employees to access and analyze the same data centrally - at site level and across sites. The data was prepared in complex ETL routes prior to the project.

Solution

Using CDC (Change Capture Data), data was transferred to the Azure Cloud in real time. For this, the data from the landing zone is merged into a data vault, a data warehouse. In the last step, the data is provisioned in a data mart for the reporting view. The entire platform is secured by a security & governance concept.

Added value

  • Installation both on-premise and in the cloud

  • Creation of an analytical cloud platform

  • Data staging and model for the platform

  • Design of security and governance models and best practices

  • Significantly increased efficiency

  • Reduction of time-to-market

  • Centralized, enterprise-wide single source of truth

  • Reduction of manual efforts for data management by up to 70%

  • Real-time data provisioning

Highlights

  • Various sources including SQL server and SAP on HANA.

  • Target is the cloud data warehouse Snowflake

  • Real-time migration of data using Qlik Data Integration

  • Incremental, scalable data warehouse

  • Complex governance and security aspects considered

  • Power BI Reporting

More information
Read More
Abstrakter Binärcode in Wellenform
Data Management, Use Case, Use Case - EN

Unified data management reduces planning errors by 45%

Challenge

As an internationally active supplier of engine and turbine technology with over 8,000 employees in various production areas, our customer has various upstream systems for production. Providing the data from these systems for further use, e.g. master data in gold standard or cleaned transaction data, is very time-consuming due to the multitude of technologies used.

Solution

For uniform data management and smooth control of the production processes, the linking and consolidation of the various data sources was a basic prerequisite. To address this challenge, the data was first extracted from the diverse sources via various interfaces and merged into a common data warehouse. Here, the data is cleaned and made available for further steps. The generated information is also merged and stored to enable conclusions to be drawn about the planning process.

Added value

  • Consolidation and cleansing of data

  • Clearly defined interface for subsequent application

  • Mapping of complex ETL and planning routes

  • 45% reduction in planning errors

  • 5 minutes of accurate data delivery

  • Reduction of error tolerance to 0.1%

Highlights

  • SAP R/3 data migration

  • Migration of various data from previous systems based on Oracle, SQL Server, etc.

  • Interface for various subsequent systems

  • Consolidation of data in a data warehouse using Talend and SSIS

  • Enrichment of data with complex planning logics

  • Creation of various reporting applications

  • Provision of information and data for external service providers and partners

More information
Read More
Data Management, On Demand Webinar

On-Demand-Webinar: Prinzipien der Cloud Analytics Data Migration

Effiziente Datenmigration ist die Grundvoraussetzung für Analytics in der Cloud. Die Übertragung von Daten von beliebigen Systemen in die Cloud kann sich dabei einfach bis sehr schwierig gestalten. Die Herausforderungen liegen im Detail. Wie aktuell müssen die Daten sein? Welche Richtlinien (Compliance) sind zu befolgen? Sind Quelldaten mit dem Ziel-System kompatibel?

Der Gedanke hinter Cloud-Datenmigration besteht darin, das Leistungspotenzial und die Wettbewerbsfähigkeit eines Unternehmens zu steigern. Um dies zu erreichen, empfiehlt es sich ein fundiertes Konzept für die Migration zu erstellen. Die dabei zu berücksichtigenden Grundprinzipien gelten für alle Public Cloud Anbieter gleichermaßen und sind somit universell.

In unserem On-Demand-Webinar erläutert Ihnen Data-Management-Experte Philipp Ziemer den Begriff „Datenmigration“ und welche Grundlage Sie dabei berücksichtigen sollten. 

Fordern Sie hier kostenfrei das komplette On-Demand-Webinar an! 



Read More
Data Analytics, Data Management, Data Science, Data Strategy

Datenwelt 2022 – Was können Sie erwarten?

Die Corona-Pandemie hat unsere Welt stark beeinflusst. Auch die Welt der Daten. Denn in vielen Unternehmen hat die Krise dazu geführt, dass bestehende Prozesse überdacht und neue Technologien für eine bessere Transparenz und Reaktionsfähigkeit integriert wurden. Durch die unsichere Situation haben Unternehmen vermehrt gespürt, wie wichtig es ist, schnell herauszufinden, was genau irgendwo – beispielsweise in Lieferketten oder bei Kunden – passiert und es möglichst genau vorhersagen zu können.

Cloud-Dienste

So ist auch die Bedeutung von Cloud-Diensten und deren Akzeptanz bei Mitarbeitern durch das vermehrte Arbeiten im Homeoffice stark gestiegen. Von überall unkompliziert auf alle Daten zugreifen können, rückt zunehmend in den Vordergrund. Die wichtigsten Auslöser für eine Migration in die Cloud sind meist wirtschaftlicher Druck und die zunehmende Komplexität von Innovationsprojekten. Denn Cloud-Dienste reduzieren zum einen die Gesamtkosten einer Lösung und den administrativen Aufwand für diese erheblich, zum anderen erleichtern sie Sicherheit, Verfügbarkeit und Handhabung. Hinzukommen einfache Skalierbarkeit und eine eingebaute Redundanz. Dies ist ein wichtiger Punkt. Denn was sich trotz Ausbreitung von Datenanalyse-Lösungen in Unternehmen immer wieder zeigt: mangelnde Datenqualität. Daher beeinflussen Stammdaten- und Datenqualitätsmanagement weiterhin unter anderem die Trends in der Datenwelt.

Data Governance

Auch das Thema Data Governance ist nach wie vor im neuen Jahr von großer Bedeutung für Unternehmen. Hauptmotivation für den Start von Data Governance sind Compliance und Datenqualität. Denn die Einhaltung von Gesetzen und Richtlinien spielt in Zeiten der DSGVO eine immer stärkere Rolle und auch die Bußgelder bei Missachtung steigen. Außerdem ist Data Governance ein wichtiger Bestandteil in der digitalen Transformation eines Unternehmens, da Datenwertschöpfung nur funktionieren kann, wenn auch die Daten stimmen.

Bei Data Governance geht es größtenteils um Richtlinien und Prozesse, die festlegen, wie die tägliche Pflege der Daten wie Sammeln, Organisieren, Speichern, Teilen und Schützen stattfinden soll. Mitarbeiter, die mit Daten arbeiten, müssen diese Vorgaben dementsprechend einhalten.

Data Literacy und Change Management

Und damit sind wir auch schon beim nächsten wichtigen Faktor, der auch im Jahr 2022 den Erfolg von Datenprojekten maßgeblich beeinflussen wird: Mitarbeiter. Denn diese sollten natürlich verstehen, warum sie diese Regeln einhalten, sie mit den Daten überhaupt arbeiten und wie sie dies am besten tun. Data Governance im Unternehmen beschreibt kein zeitlich begrenztes Projekt, sondern es müssen kontinuierlich Rahmenbedingungen und Strukturen im Unternehmen geschaffen werden. Dazu müssen Mitarbeiter geschult werden und das im besten Fall nicht nur für die tägliche Arbeit mit den Daten. Darüber hinaus sollte nämlich ein Verständnis etabliert werden, warum man mit den Daten arbeitet, wie man sinnvoll mit ihnen umgeht, sie hinterfragt und in einen Kontext setzt – sogenannte Data Literacy. Die Ausgangssituationen in Unternehmen sind hier sehr unterschiedlich. Dementsprechend variiert auch der Grad, wie stark hier Change Management betrieben werden muss. Das Ergebnis einer umfassenden Data Literacy im Unternehmen und einem gezielten Change Management sind klare Rollen, Verantwortlichkeiten und Prozesse für die Governance und das Management von Daten sowie ein Verständnis, warum diese Aufgaben und Prozesse zu der Datenwertschöpfung und einer datengetriebenen Entscheidungsfindung beitragen.

KI – vor allem Forecasting

Auch wenn präzise Prognosen schon vor der Krise ein wichtiges Thema für Unternehmen waren, hat die Corona-Pandemie diesen Anwendungen nochmal wesentlich Aufwind verliehen. Denn es zeigte sich, dass vorhandene Planungen nicht mehr stimmten. Hohe Unsicherheit sorgte dafür, dass Prognosen engmaschiger gefahren werden mussten. Künstliche Intelligenz unterstützt Unternehmen unter anderem im Bereich Forecasting und erlaubt einen schnellen Blick in die Zukunft.

Laut einer Studie des INFORM DataLab zusammen mit der Computerwoche setzen bereits zwei Drittel der befragten Firmen aktuell Machine Learning ein. Die Anwendungsfälle werden sich aus meiner Sicht hier kontinuierlich steigern und weiterhin Einzug in den Alltag der Unternehmen finden.

Datenstrategie entwickeln

Egal, was kommt, egal, was bleibt – alle Trends oder Impulse brauchen einen Fahrplan, um letztendlich erfolgreich zu sein. Eine Strategie für Unternehmen, die datenbasiert Entscheidungen treffen und aus ihren Daten Mehrwert schaffen wollen, besteht jedoch aus mehr als Technologiefragen. Zusätzlich kümmert sich eine Datenstrategie auch um die organisatorischen und inhaltlichen Aspekte im Rahmen eines umfassenden Zielbildes. Deshalb sollte schon vor der eigentlichen Technologieauswahl am besten ein Zielbild entwickelt und definiert werden. Teil dieser Strategieentwicklung ist außerdem eine Bestandsaufnahme der bestehenden Daten und deren Qualität, weshalb sie auch die Grundlage für Data-Governance- und Management-Prozesse vorgibt.

Fazit

Das letzte Jahr hat Unternehmen wieder gezeigt, was unsichere Zeiten bewirken können. Auch die Data-Analytics- oder Business-Intelligence-Abteilungen haben stark gespürt, wie gut sie eigentlich aufgestellt sind. Mobiles Arbeiten fördert die Bedeutung der Cloud und das Verständnis für Daten und der konforme Umgang mit diesen wird immer wichtiger für datengetriebene Unternehmen. Um realen Mehrwert aus Daten zu schaffen, hilft eine Datenstrategie, ein Leitbild und Ziele zu entwickeln, die in die Unternehmensstrategie integriert sind. Künstliche Intelligenz ist kein Trendthema mehr und hat sich in den Unternehmen bereits in den ersten Zügen weitgehend etabliert. Ich bin gespannt, wie es dieses Jahr mit erfolgreichen Anwendungen weitergeht!

Bleiben Sie gesund!

Read More
Data Management

Data Stack – Wie setzen Unternehmen den modernen Ansatz für die Datenintegration am besten ein?

Um das Potenzial ihrer Daten vollständig ausschöpfen zu können, sollten Unternehmen auf ein modernes Data Stack setzen. Der Begriff „Data Stack“ löst bei Ihnen aber noch Verwirrung aus? Dann möchte ich Ihnen im folgenden Beitrag erklären, was der Begriff eigentlich umfasst und wie Unternehmen einen Mehrwert daraus generieren können. 

Woraus besteht ein Data Stack? 

Ein Data Stack ist ein mehrschichtiges Tool-Portfolio, das hilft, Daten im Unternehmen gezielt zu verarbeiten. Dies umfasst in der Regel folgende Schritte: 

  • Die Daten werden zentral in einer Data-Platform, z.B. einem Data Lake oder Data Warehouse, gespeichert. Dabei ermöglichen vorgefertigte Konnektoren zu allen Datenquellen eine schnelle und einfach skalierbare Datenintegration; API- oder Schemaänderungen können einfach berücksichtigt werden.  
  • Die Rohdaten werden aus den Quellsystemen angebunden. Hier sollte beachtet werden, dass das Datenziel problemlos in der Lage ist, sowohl die Rechenleistung als auch den Speicher auf Knopfdruck zu skalieren, um den heutigen und zukünftigen Datenspeicher- und Analyseanforderungen des Unternehmens gerecht zu werden. Zusätzliche Funktionen wie z. B. eine rollenbasierte Zugriffskontrolle oder Data Policies für Audits sollten im Portfolio von Beginn an berücksichtigt werden.  
  • Die transformierten Daten werden analysiert. Das verwendete Transformations-Tool sollte mit dem Ziel kompatibel sein und über Funktionen verfügen, mit denen sich die Datenherkunft leicht zurückverfolgen lässt, z. B. in einer One-Click-Dokumentation, die die Auswirkungen der Transformation auf Tabellen verdeutlicht. Die Möglichkeit, Transformationen zu orchestrieren und zu planen, ist ebenfalls wichtig. 

Wichtig:  Dies geschieht bei einem modernen Data Stack alles in einer Cloud-Umgebung! Die Umsetzung in der Cloud ist zeitsparend und kosteneffizienter als eine On-Premise-Lösung.  Als neuer Ansatz für die Datenintegration kann so enorm Zeit für die Entwicklung eingespart werden. Außerdem begünstigt die Cloud die Zugänglichkeit für den Endnutzer sowie die Skalierbarkeit, um den wachsenden Datenbedarf im Unternehmen schnell zu decken, ohne die kostspieligen, langwierigen Ausfallzeiten, die mit der Skalierung lokaler Serverinstanzen verbunden sind.  

Was sind die Vorteile eines modernen Data Stacks? 

Der moderne Data Stack spart Zeit, Geld und Mühe. Die niedrigen und weiter sinkenden Kosten für Cloud Computing und Speicherplatz sind ein starker Vorteil gegenüber On-Premise-Lösungen. Unter anderem sparen außerdem Standardkonnektoren beträchtliche Zeit, die ansonsten für die Entwicklung, Erstellung und Wartung von Datenkonnektoren aufgewendet werden muss. Analytics-Experten, Data Scientists und Datenmanager im Unternehmen können sich dementsprechend anderen, wichtigeren Aufgaben wie Data-Science-Projekten widmen. 

Außerdem ist die Einrichtung eines modernen Data Stacks sehr einfach und kann weniger als eine Stunde dauern, da durch den Cloud-Betrieb Komplikationen bei der Konfiguration der Infrastruktur wegfallen.  

Cloud-Migration – wer und wann? 

Vor allem größere oder ältere Unternehmen haben oft noch eine On-Premise-Infrastruktur, die zeitnah in die Cloud migriert werden sollte, um von deren Vorteilen zu profitieren. Startups und kleine Unternehmen setzen bereits häufig auf einen modernen, Cloud-basierten Data Stack, um durch die leichte Skalierbarkeit besser mitwachsen zu können.  

Daten in Unternehmen wachsen bekanntermaßen unaufhaltsam und die Data-Analytics- und anderen Daten-Lösungen in Unternehmen nehmen zu. Alle Mitarbeiter, die Daten nutzen, sollten Visualisierungen, Dashboards und Berichte so selbsterklärend wie möglich erhalten und in ihre tägliche Arbeit integrieren können. 

Der moderne Data Stack sollte außerdem berücksichtigen, wer ihn nutzt und wie die Daten verwaltet werden. Gerade in großen Unternehmen mit mehreren Abteilungen, die sich nicht unbedingt einig sind, was die Daten angeht (und möglicherweise sogar aktiv miteinander konkurrieren), liefert ein moderner Data Stack eine zentralisierte Datenspeicherebene, zusammen mit einem unternehmensweiten Datenkatalog und einem konsistenten Satz von Governance-Richtlinien für eine datenbasierte Entscheidungsfindung. 

Fazit 

Die große Mehrheit der Unternehmen sammelt und analysiert Daten bereits in Hülle und Fülle – häufig jedoch nur für simple Analysen. Ein moderner Data Stack hilft Unternehmen, das volle Potenzial ihrer Daten zu nutzen und alle relevanten Datenquellen einfach in die Datenanalyse zu integrieren und für darauf aufbauende Datenlösungen gezielt zur Verfügung zu stellen.  

Sie interessieren sich für das Thema „Data Stack“ in Ihrem Unternehmen? Kontaktieren Sie uns! 

Read More
Data Management, Data Strategy

Welchen Stellenwert sollte Data Governance für Unternehmen haben und warum?

Das Schlagwort „Data Governance” ist in aller Munde. Anfang Dezember 2021 haben sich das Europäische Parlament und die Mitgliedsstaaten auf den sogenannten „Data Governance Act“ geeinigt. Höchste Zeit also, sich mit dem Thema auseinanderzusetzen.

Weder in der Industrie noch in der Literatur ist der auch im Deutschen benutzte Begriff Data Governance einheitlich definiert. Das Wort „Governance” (Führung, Steuerung) allein wird häufig unscharf verwendet, wie schon bei Wikipedia vermerkt wird. Daher liefern wir hier zunächst unsere eigene Definition, bevor wir das Thema vertiefen:

Data Governance betrifft das gesamtheitliche Management, die Verfügbarkeit, Nutzbarkeit, Integrität und Sicherheit von Daten.

Motivation sind Compliance & Datenqualität

In diesem Blog fokussieren wir die Bedeutung von Data Governance für Unternehmen. Es gibt typischerweise zwei Motivationen, sich mit dem Thema auseinanderzusetzen:

Die erste ist die unternehmerische Compliance, also die Einhaltung von Gesetzen und Richtlinien. Hier spielt unter anderem der Umgang mit personenbezogenen Daten, der in der DSVGO geregelt ist, eine wichtige Rolle. Mit Bußgeldern von bis zu 20 Millionen Euro und zunehmenden Kontrollen ist die Motivation für Unternehmen hoch, ihre Datenlandschaft konform zu halten.

Die zweite Motivation ist die wertstiftende Nutzung von Daten in Organisationen mittels Business Intelligence oder Künstlicher Intelligenz, häufig unter dem Begriff „Analytics” zusammengefasst. Die hier angesprochene Datenwertschöpfung ist Teil der digitalen Transformation von Unternehmen, die neben der Digitalisierung der Geschäftsprozesse meist ebenfalls das Ziel verfolgt, das Unternehmen in eine datengetriebene Organisation zu überführen. Das Zielbild für solch eine Organisation ist, dass wichtige Entscheidungen anhand von Fakten getroffen und neue digitale Produkte und Dienstleistungen für interne oder externe Kunden entwickelt werden. Es geht somit darum, Effizienz- und Umsatzpotenziale zu identifizieren und zu heben und teilweise auch darum, neue digitale Geschäftsmodelle zu entwickeln. Daten sollten dabei wortwörtlich als Wirtschaftsgut (Asset) angesehen werden. Dieses Asset muss gehegt und gepflegt werden, damit die Datenverfügbarkeit und -qualität stimmt und die cleveren Algorithmen auch brauchbare Ergebnisse erzeugen. Stimmt nämlich die Datenqualität nicht, dann gilt das Garbage-In-Garbage-Out Prinzip und die Algorithmen können zu falschen Aussagen und Handlungsempfehlungen führen.

Data Governance & Management

Der Autor John Ladley beschreibt Data Governance und Management in seinem Buch „Data Governance – How to design, deploy and sustain an effective Data Governance Program” trefflich als zwei Seiten derselben Münze. Data Management kümmert sich um die tägliche Pflege der Daten. Hiermit sind Tätigkeiten wie Sammeln, Organisieren, Speichern, Teilen und Schützen der Daten gemeint. Dabei halten sich die Fachkräfte an existierende Regeln. Diese Regeln (Policies) werden von der Data Governance entworfen, kommuniziert und kontrolliert. Data Governance sorgt also vereinfacht gesagt dafür, dass die Daten richtig organisiert werden. Bei der Trennung der beiden Gebiete handelt es sich um eine Art von Gewaltenteilung: Die Rollen der Data-Governance- und -Management-Aktivitäten müssen von getrennten Mitarbeitern durchgeführt werden.

Data Governance im Unternehmen verankern

Die Mehrwerte effektiver Data Governance sollten somit klar sein: Hohe Datenqualität als Basis für Datenwertschöpfung, reduzierte Kosten bei der Aufbereitung und Verwendung von Daten (und somit effizienter Einsatz von wertvollen Analytics-Ressourcen), sowie das aktive Risikomanagement im Unternehmen. Wie verankert man nun eine effektive Data Governance im Unternehmen?

Zunächst ist es wichtig, zu verstehen, dass Data Governance kein Projekt mit definiertem Anfang und Ende ist. Es geht darum, Strukturen im Unternehmen zu etablieren und das Verhalten der Mitarbeiter zu steuern. Hierfür gibt es glücklicherweise bewährte Frameworks (Rahmenpläne), die man als Grundlage nutzen kann. Darin werden üblicherweise notwendige Tätigkeiten wie Strategieentwicklung, Design, Implementierung und Betrieb berücksichtigt. Diese Frameworks kann man als eine Art Checkliste nutzen, sie sind jedoch kein Rezept, welches man in gleicher Art und Weise bei verschiedenen Unternehmen anwenden kann. Dafür sind die Anforderungen, Ausgangssituationen und die Unternehmen selbst zu verschieden. Es bedarf also einer sorgfältigen Analyse sowie Fingerspitzengefühl bei der Gestaltung eines spezifischen Data-Governance-Ansatzes, um erfolgreich zu sein.

Allein beim Umfang können sich Data-Governance-Initiativen erheblich unterscheiden: So ist es beispielsweise möglich, lediglich einzelne Datendomänen (z.B. Kundendaten) unter Governance zu setzen oder sich bei der Einführung eines neuen Systems  auf die darin befindlichen Daten zu beschränken.

Ergebnis einer erfolgreichen Data-Governance-Initiative ist dann nicht eine neu etablierte Data Governance Abteilung, sondern klare Rollen, Verantwortlichkeiten sowie Prozesse für die Governance und das Management von ausgewählten Datenbeständen. Häufig werden Entscheidungen in einem sogenannten Data-Governance-Committee getroffen, an das die jeweiligen verantwortlichen Eigentümer der Datendomänen sowie die Data Stewards berichten.

Die kritischen Erfolgsfaktoren liegen dabei meist nicht in der Technologie, wie beispielsweise der Wahl eines geeigneten Datenkatalogs, sondern eher im Bereich des Change Management.

Interessieren Sie sich für das Thema Data Governance und möchten die  Datenwertschöpfung in Ihrem Unternehmen starten? Fordern Sie hier die  Aufzeichnung meines Webinars zu dem Thema an!
Read More
Data Analytics, Data Management, Data Science, Data Strategy

Datenstrategie – „Nice-to-have“ oder eine Notwendigkeit in Unternehmen?

Eine Datenstrategie ist der Wegbereiter für eine datengetriebene Entscheidungsfindung in Unternehmen. Sie ist die Basis für intelligente Datenlösungen mittels Business Intelligence (BI) oder Künstlicher Intelligenz (KI) mit dem Ziel, Daten als wertvolles Gut im Unternehmen zu etablieren und deren Mehrwert freizulegen. Dabei stehen vor allem der Nachhaltigkeitsaspekt und eine effiziente sowie rechtskonforme Arbeitsweise im Umgang mit Daten im Vordergrund.

Viele Unternehmen setzen bereits BI-Lösungen ein, die schnelle Einblicke in die Unternehmensdaten und deren Entwicklung erlauben. Diese Einblicke helfen den Fachabteilungen, ein verlässliches Reporting und Controlling umzusetzen und Chancen und Risiken direkt zu erkennen. Hier geht es in erster Linie um die Visualisierung der Daten und tiefere Einblicke in diese. Entscheidungen beispielsweise im Bereich Marketing oder Vertrieb werden nicht mehr aus reinem Bauchgefühl heraus getroffen, sondern anhand von eindeutigen Kennzahlen verschiedener Kampagnen.

Künstliche Intelligenz oder Business Intelligence?

KI-Lösungen werten im Gegensatz zu reinen BI- oder Datenanalyse-Systemen neben strukturierten Daten aus Tabellen und Datenbanken auch unstrukturierte Daten wie Bild, Ton oder Texte aus. Es werden Insights mittels statistischer Modelle offengelegt, die nicht durch eine visuelle Betrachtung mit BI-Werkzeugen möglich ist.  Dadurch bietet KI ein völlig neues Spektrum an mehrwertstiftenden Anwendungen wie zum Beispiel Ausschusserkennung in der Produktion oder autonomes Fahren. Es heißt jedoch nicht KI statt BI, sondern BI mit KI. Denn sowohl die KI- als auch Business Intelligence-Lösungen sind wichtige Instrumente, um Effizienzpotenziale zu identifizieren und umzusetzen sowie strategische Insights zur Unternehmenssteuerung zu generieren.

Ob BI oder KI von einem Unternehmen eingesetzt wird, hängt individuell von den jeweiligen Bedarfen, Herausforderungen und verfügbaren Daten des Unternehmens ab.

Datenstrategie als Fundament für nachhaltige Datenwertschöpfung

Häufig stehen Unternehmen bei der Identifizierung, Entwicklung oder Operationalisierung von Datenlösungen vor Herausforderungen. Statt einer sauber aufgeräumten unternehmensweiten Datenplattform, die qualitätsgesicherte und kurierte Daten für alle möglichen Anwendungsfälle konform zur Verfügung stellt, liegen Daten in verschiedenen Systemen (oder gar lokalen Dateien), sind teilweise inkonsistent und werden nicht zielführend organisiert. Teure Analytics-Ressourcen führen redundante Datenextraktionen und -Aufbereitungen durch und vernachlässigen dadurch die eigentliche analytische Arbeit. Der wirtschaftliche Effekt bleibt dadurch hinter den Erwartungen zurück. Analytische Teams sind nicht abgestimmt, Rollen und Verantwortungen für Datenqualität und -management sind nicht definiert. Es fehlt an Orchestrierung, einem Zielbild für Datenwertschöpfung.

Eine Datenstrategie kann man hier als eine Art Wegweiser betrachten, der technologische und organisatorische Rahmenbedingungen berücksichtigt, Prozesse für die Umsetzung von Anwendungsfällen definiert und wichtige Fragestellungen beantwortet. Denn Fragen wie „Welche Probleme kann und möchte ich mit der Analyse von Daten lösen?“, „Welche Daten benötige ich für die Beantwortung meiner Fragen?“ oder „Lohnen sich die Kosten für die Umsetzung überhaupt in Relation zu dem Nutzen?“ werden mit ihr vorab beantwortet.

Welche Anwendungsfälle letztlich sinnvoll für ein Unternehmen sind, hängt mit verschiedenen Faktoren wie Branche, Größe oder Wettbewerber zusammen. Innerhalb einer Datenstrategie wird ebenfalls erarbeitet, wie sinnvolle Anwendungen am besten priorisiert werden.

Welche Maßnahmen ein Unternehmen angehen sollte, ermitteln wir durch eine strukturierte Reifegradanalyse des Unternehmens. Dabei inspizieren wir im INFORM DataLab vier Dimensionen:

  • Daten: Diese Dimension beschäftigt sich mit den vorhandenen datenspezifischen Aspekten und Tätigkeiten.
  • Technologie: Identifikation der Technologie, die für eine reibungslose Umsetzung der Lösungen benötigt wird.
  • Menschen und Organisation: Bestandsaufnahme vorhandener Mitarbeiterfähigkeiten im Bereich Daten und gegebenenfalls Bedarfsermittlung von Schulungen und Weiterbildungen, um ein Verständnis für die Arbeit mit Daten zu schaffen. Diese Dimension verlangt besondere Aufmerksamkeit, da die Integration von Management und Mitarbeiter in die Veränderungsprozesse für die erfolgreiche Entwicklung und Umsetzung einer Datenstrategie notwendig sind.
  • Prozesse: Bestimmung und Entwicklung bestimmter Prozesse, die in Zusammenhang mit den Datenlösungen stehen

Fazit

Eine Datenstrategie ist die Grundlage für gezielte Datenlösungen in Unternehmen Sie ist der Fahrplan für die Transformation hin zu einem datengetriebenen Unternehmen, das wichtige strategische und taktische Entscheidung anhand von Fakten trifft und seine Performance kontinuierlich durch datengetriebene Lösungen verbessert.

Sie interessieren sich für das Thema Datenstrategie und möchten sich weitergehend informieren, wie man sie gewinnbringend einsetzt?

Fragen Sie hier die Aufzeichnung meines Webinars „Data Strategy – Ziehen Sie  mehr Nutzen aus Ihren Unternehmensdaten" an!
Read More
3D Modell Cloud
Data Management

Chancen der Cloud – Schöpfen Unternehmen bereits ihr volles Potenzial aus?

Viele Unternehmen, gerade in Deutschland, haben immer noch Vorbehalte gegen die Cloud. Die größte Sorge hierbei ist, die eigenen Daten und Produkte aus der Hand zu geben. Um dieser Sorge entgegenzuwirken, gibt es jedoch zahlreiche Gegenmaßnahmen der großen Cloud-Anbieter. Zu nennen sind zum Beispiel GDPR Compliance und regionale Datenhaltung. Dabei bietet die Cloud große Chancen, um Innovation in Unternehmen voranzutreiben. Diese Chancen und mögliche erste Schritte in Richtung Cloud betrachten wir in diesem Blogbeitrag. Der Fokus liegt dabei auf den Daten und dem Informationsgewinn. Die gewonnenen Erkenntnisse lassen sich jedoch auch auf andere IT- und Informatik-Bereiche ausdehnen.

Demokratisierung von Entscheidungen

In den letzten Jahren ist die Komplexität der täglichen Welt um uns herum dramatisch gestiegen. In Mickey McManus Buch “Trillions” ist zu lesen, dass die Halbleiter-Industrie schon vor 10 Jahren den Punkt erreicht hat, an dem sie mehr Transistoren herstellt, als Reiskörner produziert werden. Die globale Verknüpfung von allem – Menschen und Maschinen – verstärkt die Komplexität durch die Erschließung und den Verbund immer neuer Domänen. Ein Beispiel dafür ist das “Internet der Dinge”: Mobile Endgeräte sind mit allen möglichen Geräten, z. B. Kühlschränken, Produktionswerkzeugen oder Autos verknüpft, treiben Innovation. Gleichzeitig werden wir mit immer mehr Informationen überflutet – ganz egal, wo wir sind. Der Trend erreicht uns zu Hause, genauso wie im Büro oder der Fabrik.

Die Welt-Ökonomie ist ebenfalls komplex geworden. Verschiedene Länder und Handelswege sind global miteinander verknüpft und beeinflussen sich wechselseitig. Durch die Lösung von alten Problemen haben wir uns neue geschaffen, die es nun zu lösen gilt. Zusätzlich werden zeitliche Fenster für die Entscheidungsfindung immer kleiner. In Unternehmen finden täglich Entscheidungen auf jeder Hierarchiestufe statt. Das bedeutet im Umkehrschluss, dass Mitarbeiter ohne Hindernisse, von verschiedenen funktionalen Entitäten aus, On-Demand, pünktlich und geschützt durch Sicherheits- und Governance-Richtlinien Zugriff auf Daten benötigen. Dies führt hin zu einer offenen und datenbasierten Organisationskultur.

In der folgenden Grafik von Gartner lässt sich dieser Trend sehr deutlich ablesen.

Data Assets dienen in vielen Firmen bereits der Verbesserung von internen Prozessen, der Ergänzung der bestehenden Produkte und Dienstleistengen oder zur Erschließung neuer Geschäftsfelder. Auch neuere Trends wie die Verknüpfung mit Geschäftspartnern oder die Monetarisierung von Daten nehmen an Bedeutung weiter zu.

Ein zentrales Datenlager mit Daten bereit zur Analyse

Diese Trends müssen in modernen IT-Architekturen von Unternehmen berücksichtigt werden. Es gilt eine analytische Plattform zu schaffen, die jedem Mitarbeiter mit analytischen Bedarfen offensteht. Dabei ist das Schlüsselwort „eine“ besonders hervorzuheben. Damit verschiedene unternehmerische Einheiten kohärente Entscheidungen treffen können, gilt es, einen „Single Point Of Truth“ zu schaffen. Die Daten an diesem Punkt müssen dabei konsolidiert und harmonisiert werden, um sie überhaupt gemeinsam betrachten zu können. Weiter sollte diese Plattform alle relevanten Datenquellen eines Unternehmens einschließen. Dabei ist nicht jeder Anwender in der Lage, die Daten für seine Zwecke zu bearbeiten. Deshalb sollten die Daten schon für Analyse-Zwecke vorbereitet sein, sei es im Roh-Format oder in dedizierten Data-Analytics-Tools wie Power BI, Qlik Sense oder Tableau.

Hinzukommt, dass Entscheidungen immer schneller getroffen werden müssen. Daher entsteht hoher zeitlicher Druck bei der Datenbereitstellung und eine zuverlässige Quelle mit globaler Verfügbarkeit gewinnt an Bedeutung. Die Faktoren „Verfügbarkeit“ und „Erreichbarkeit“ schreien geradezu nach einer zentralen Cloud-Lösung.

Ein weiterer Vorteil: TCO – Total Cost of Ownership

Doch die Cloud bringt auch handfeste finanzielle Vorteile. Dies zeigt eine TCO-Rechnung, die nicht nur das initiale Investment, sondern auch alle begleiteten Leistungen sowie den Betrieb einer Plattform betrachtet. Dabei gibt es beim initialen Investment schon Potenzial, Geld zu sparen. Cloud-Technologien sind elastisch und unterstützen dadurch flexibel heutige und zukünftige Anwendungsfälle. Folgende Grafik zeigt, wie sich dieses Prinzip auswirkt.

Quelle: https://aws.amazon.com/de/economics/

Während bei klassischer Hardware-Provisionierung ein hohes Initial-Investment eingesetzt werden muss, gibt es mit Cloud-Lösungen die Möglichkeit, flexibel entsprechend des Bedarfs zu skalieren und über die Zeit mitzuwachsen. Dadurch ergeben sich zwei direkte Vorteile:

  • Durch das sogenannte „Pay-as-you-go“-Prinzip wird Über-Provisionierung verhindert. Man muss nicht für die größte Ausbaustufe oder den täglichen Peak planen, sondern zahlt immer nur das, was aktuell konsumiert wird.
  • In klassischen Deployments werden die Maximal-Bedarfe vorher abgeschätzt. Dies führt dazu, dass bei unerwartet steigenden Anforderungen nicht flexibel reagiert und somit das erhöhte Aufkommen nicht bewältigt werden kann. Im schlimmsten Fall sind die Dienste dadurch nicht erreichbar.

Neben der Frage der Bereitstellungskosten gibt es weitere Einflussfaktoren. Generell erreichen Cloud-Deployments schneller Marktreife, da weniger an Architektur und administrativer Bereitstellung gearbeitet werden muss. Reduzierte Time-to-Market schafft schneller Transparenz und dadurch wird der eigentliche Business-Case auch schneller bewältigt. Zusätzlich spart die schnelle Implementierung von analytischen Anwendungsfällen Zeit und Geld für teure Entwicklungsarbeit. Auch das Hinzufügen neuer Datenquellen ist, vor allem international, einfach und somit günstig. Dies liegt vor allem an den fest definierten Architektur- und Migrationspfaden, die mit weitreichenden Best-Practices etabliert und erprobt sind.

Zu guter Letzt wird die Sicherheit des Rechenzentrums durch den Cloud-Anbieter sichergestellt. Folgt man deren Richtlinien sind diese Umgebungen extrem gut geschützt. Microsoft gibt jedes Jahr 1 Milliarden Euro für die Sicherheit seiner Rechenzentren aus und beschäftigt hierzu einen Stab aus über 1.000 Experten. Damit können die wenigsten Unternehmen mithalten. So müssen sich Kunden von Cloud-Anbietern zwar auch mit Security auseinandersetzen, aber die fixen Sicherheitsmerkmale der Cloud reduzieren Risiken drastisch und sind schnell und einfach umzusetzen.

Fazit

Die Skepsis gegenüber Cloud-Lösungen ist nach wie vor groß. Diese Bedenken sind jedoch unbegründet, da die Sicherheit gerade bei großen Cloud-Anbietern wesentlich besser ist als in einem Großteil der Unternehmen. Hinzukommen Vorteile wie einfache Skalierbarkeit und finanzielle Benefits.

Möchten Sie in die Cloud migrieren? Oder sich weitergehend informieren? Laden  Sie hier unser Infopaper zum Thema Cloud-Migration herunter. 
Read More
Obere Hälfte der Weltkugel mit Scheiben aus Binärcode darüber
Data Management, Data Strategy

Modern Cloud Data Migration – wieso eigentlich in die Cloud?

Die zwei wichtigsten Auslöser für die Cloud-Migration in Unternehmen sind meist ökonomischer Druck und die zunehmende Komplexität von Innovations-Projekten. Beide Faktoren zeigen auch die großen Stärken von Cloud-Plattformen auf. Die zahlreichen Platform-as-a-Service (PaaS)- und Software-as-a-Service (SaaS)-Dienste reduzieren die Gesamtkosten einer Lösung erheblich. Gleichzeitig kommt diese Art von Diensten auch ohne Betriebssystem (PaaS) und teilweise ohne Plattform (SaaS) aus. Dies spart administrativen Aufwand ein und erleichtert die Sicherheit, Verfügbarkeit und Handhabung dieser Dienste.

Andere Vorteile der Cloud lassen sich leider nicht direkt messen. So sind Cloud-Dienste durch moderne Architekturen und große Rechenzentren einfach skalierbar und haben eine eingebaute Redundanz. Was bedeutet das konkret? Betrachten wir dazu beispielhaft ein paar Szenarien.

Szenario 1: Zukünftige Innovation

Es ist unmöglich, heute schon alle zukünftig möglichen Innovationen und Anwendungsfälle im Datenumfeld zu kennen. Doch in der Cloud können bereits jetzt Daten ohne großen Aufwand dauerhaft persistiert werden, um sie für zukünftig mögliche Anwendungsfälle zu sammeln. Die Abfrage eines Terabyte des Speichertyps „kalter“ Storage ist im Millisekunden-Bereich möglich und kostet in Europa ca. 20€ im Monat. Dieser Preis kann durch verschiedene Verfahren, z. B. Reservierung von Kapazitäten über 1 oder 3 Jahre, Archivierung als Speichertyp usw. nochmal deutlich gesenkt werden.

Szenario 2: (On-Demand-)Skalierbarkeit

Angenommen sie haben einen Anwendungsfall für einen bestimmten Use Case von Anfang bis Ende für eine Niederlassung entwickelt. Sukzessive sollen nun weitere Standorte integriert werden. Bei einer klassischen Lösung müssen diese von Anfang an in der Hardware und in den Lizenzen mit eingerechnet werden. Dies führt oft zu konservativen Abschätzungen zu Spitzenzeiten mit dem Ergebnis der Über-Provisionierung. In der Cloud zahlt man den Anwendungsfall heute und die verwendeten Ressourcen lassen sich bei Bedarf hoch und wieder herunterskalieren. Dies führt zu einer viel präziseren Provisionierung. Außerdem können durch Automation zu Spitzenzeiten mehr Ressourcen vorgehalten werden, die auch nur dann bezahlt werden müssen.

Szenario 3: Trennung von Compute & Storage

Dieses Szenario ermöglicht im Prinzip Szenario 2 als zugrundeliegende Architektur. Aber die Trennung von Compute & Storage bringt auch weitere praktische Vorteile, da diese getrennt voneinander betrachtet werden können. Das bedeutet im Klartext: Benötigen sie mehr Rechenkraft, um komplexe Kalkulationen zu bewältigen, brauchen sie nicht automatisch deshalb eine größere Lizenz oder mehr Speicher. Benötigen sie mehr Speicher, um eine größere Datenmenge zu bewältigen, benötigen sich nicht gleich mehr Compute. Klassische Systeme skalieren jedoch in der Regel in beide Dimensionen.

Szenario 4: Versionslos & redundant

So gut wie alle SaaS- und PaaS-Lösungen sind versionslos. Das bedeutet, dass die Systeme nicht manuell repariert werden müssen oder eine Downtime für Wartungsfenster durchlaufen. Zusätzlich haben diese Architekturen für geringe Mehrkosten zur Persistenz eine eingebaute Redundanz über Rechenzentren, Zonen oder Kontinente hinweg. Diese sind so gebaut, dass sie im Fall der Fälle die redundante Instanz ohne zeitlichen oder informativen Verlust übernehmen.

Hinzukommt, dass laut einer Studie von mit Forrester Consulting in Auftrag gegeben von Microsoft Unternehmen drei Jahre nach der Erstinvestition der Cloud-Migration eine Kapitalrendite von bis zu 238 % erzielen und erhebliche Produktivitätssteigerungen in ihren IT- und internen Database Administrator Teams verzeichnen.

Datenmigration VS Datenbankmigration

Die Anwendungsfälle in der Cloud sind zahlreich. Wir legen bei unseren Kunden den Fokus dabei auf Daten für analytische Zwecke. Es gibt dabei wichtige Unterschiede von Datenmigration und Datenbankmigration.

Datenbankmigration hat immer eine Applikation, die auf diese Datenbank aufsetzt mit im Fokus. So sind die Bedürfnisse – Skalierbarkeit und Sicherheit – sicher in beiden Anwendungsfällen ähnlich, aber der praktische Nutzen liegt hier nicht im analytischen, sondern im transaktionalen Bereich. Das bedeutet, dass die Verfügbarkeit hier nochmal wichtiger ist, denn steht die Datenbank, steht auch die Applikation. Zusätzlich müssen die Zugriffe durch Applikationen parametrisiert und vereinfacht werden. Datenbank-Innovation ohne Applikations-Innovation ist somit nicht möglich.

Die Migration von Daten beschäftigt sich üblicherweise mit dem Extrahieren, Laden und Transformieren von Daten. In der Regel stehen hier analytische Bedürfnisse im Vordergrund. Ein Beispiel wäre die Vereinheitlichung von verschiedenen bestehenden ERP-Systemen zweier Standorte in einem definierten Zielsystem, so dass gemeinsame Auswertungen dieses Datenbestands möglich werden. Kern-Technologien sind hier OLAP Datenbanken und Data Lakes, sowie analytische Tools zur Visualisierung und diverse APIs zur Bereitstellung für Dritt-Systeme.

Möchten Sie in die Cloud migrieren? Oder sich weitergehend informieren? Laden  Sie hier unser Infopaper zum Thema Cloud-Migration herunter. 
Read More