Zeitgemäßes Datenmanagement für Unternehmen

PrintMailRate-it

Eine Einordnung für Unternehmensarchitekturen (mit SAP)

Die Erkenntnis, dass Daten für unternehmerische Entscheidungen und zur Steuerung von Unternehmensprozessen die essentielle Grundlage sind, ist heute anerkannte Praxis in allen Branchen und Unternehmensgrößen. Wie allerdings Daten zur nutzengenerierenden Verwendung richtig gespeichert, verwendet und bereitgestellt werden, ist weniger eindeutig beantwortet und komplexer. Die liegt an variierenden Rahmenbedingungen, wechselnden Anforderungen und nicht zuletzt in einer Vielzahl von IT-Werkzeugen, die allesamt häufig die alleinige Lösung für ein Datenmanagement versprechen. Der folgende Artikel ordnet verschiedene Ansätze ein und gibt so Hinweise zur zielgerichteten Gestaltung anhand konkreter Erfahrungswerte aus unserer Beratungspraxis.

Daten, Daten, Daten – worum geht es eigentlich?

​In jeder Aktivität unternehmerischer Tätigkeit werden Daten erzeugt und in IT-Systemen oder organisatorisch verwalteten Dateiablagen gespeichert. In operativen Unternehmensprozessen sind die Daten ein wichtiges Instrument, um Kundenkommunikation, Leistungserbringung und notwendiges Berichtswesen umzusetzen. Inhaltlich lassen sich so für jeden Bereich im Unternehmen typische Datenbeispiele finden und deren Wichtigkeit und Relevanz zur Prozessdurchführung begründen. In den Kernwertschöpfungs- und Kernquerschnittsaufgaben im Unternehmen liegen die verbundenen Daten in der Regel in einer zentralen IT-Lösung (meist ein ERP-System) ab. Zusätzlich ist aber ein Trend erkennbar, Daten zu ergänzenden Prozessen außerhalb des ERPs zu speichern oder auch zusätzliche IT-Lösungen mit getrennter Datenablage einzusetzen (z.B. IT-Systeme für Personalwesen, zur Produktionsfeinplanung oder auch Systeme zur Steuerung von Marketingmaßnahmen). So entstehen häufig parallele Datenwelten, die die operativen Teilgeschäftsprozesse zwar abbilden, eine prozess- und unternehmensübergreifende Datenanalyse aber erschweren.

Anders stellt sich die Herausforderung dezentraler Datenbestände für die Unternehmensaufgabe der Entscheidungsfindung dar. Für übergreifende und strategische Entscheidungen müssen zur Entscheidungsunterstützung Daten aus allen Subbereichen zusammengefasst und so verknüpft werden, dass eine prozessübergreifende Sicht auf Wertschöpfung, Unternehmensleistung und Potentialentwicklung entsteht. Mit dieser Sicht wird eine Objektivierung der Entscheidung auf Basis solider Daten und Informationen möglich und so der langfristige Erfolg des Unternehmens sichergestellt. Durch die Trennung der Datenhaltung in Systemen, Ablagen oder selbst innerhalb eines ERP-Systems in „Modulen“ müssen diese Daten in Analyse- und Reportingwerkzeugen zunächst zusammengeführt werden, bevor der Einsatz im Entscheidungsprozess möglich wird.

Entscheidungsfokus als Ausgangspunkt – das Ziel ist wichtig!

​Doch vor der Lösungsdarstellung einen Schritt zurück: Formen der Datenanalyse zur Entscheidungsunterstützung sind vielfältig und dürfen für die Ausprägung eines Lösungsdesigns nicht unter einem Generalbegriff zusammengefasst werden. Grundsätzlich lassen sich folgende Verwendungsbereiche unterscheiden und voneinander abgrenzen:
  • Entscheidung innerhalb der operativen Prozessschrittdurchführung, z.B. Annahme einer Kundenanfrage, kurzfristige Produktionsplanung, kurzfristige Cash-Flow-Steuerung, Wahl der Anspracheform von Neukunden
  • Entscheidung zur taktischen Unternehmenssteuerung, z.B. deckungsbeitragsorientierte Kundenauftragspriorisierung, mittelfristige Produktionsoptimierung & Ausschussvermeidung, Marketing-Kampagnenplanung, Cash-Flow-Forecast über mehrere Wochen/ Monate
  • Langfristige (strategische) Unternehmensentscheidungen, z.B. Investitionsplanung, Marktentwicklung, Kundensegment-Analysen, Entscheidung zu Optimierungsprogrammen


Zusätzlich zu den typischen Entscheidungsbegriffen lassen sich in der Auffassung des Autors weitere Aufgaben ergänzen, die im Kern zwar keine „echten“ Entscheidungen sind, aber mit ähnlichen Datenverarbeitungsherausforderungen auskommen müssen:

  • Datenverarbeitung zu Prozessen, die NICHT im IT-Standard abgebildet sind, z.B. Erfüllung rechtlicher/ regulatorischer Anforderungen im Bereich Finanzwesen, Steuerdeklaration, Verrechnungspreisdokumentation
  • Datenverarbeitung im Controlling mit speziellen, individuellen Verfahren wie Produktkalkulation, Nachkalkulation von Unternehmensmaßnahmen oder Umlagerechnungen


Die bewusste Einteilung der Datenverarbeitungsaufgabe in diese Gruppen hilft, die richtigen Anforderungen an IT-Lösungen zu definieren und die direkt von der Aufgabe abhängigen Unterkriterien Wichtigkeit (im Sinne von Kritikalität für die Unternehmensexistenz), Bereitstellungszyklen, Grad der gewünschten Automatisierung, rechtlichen Anforderungen (Erfüllungspflicht, Dokumentation) und Grad des notwendigen Expertenwissens abzuleiten. Festzuhalten ist weiterhin, dass die dargestellten Verwendungsbereiche in der Regel von einer Vielzahl an Rollen und Personen im Unternehmen durchgeführt werden. Dies führt naturgemäß zu verschiedenen und redundanten Lösungsansätzen, obwohl die Grunddaten und die Grundaufgabe sehr ähnlich ist.

Die Lösungswege sind vielfältig

​In der Praxis finden sich verschiedene Lösungswege, um die zuvor beschriebenen Entscheidungs- und Datenverwendungsaufgaben zu erfüllen. Die verschiedenen Varianten werden nun folgend kurz vorgestellt und bewertet.

Zu allererst ist die Anwendung von Standardfunktionen der eingesetzten IT-Lösungen zu nennen, da diese ohne wesentliche Individualaufwände verfügbar sind. Moderne ERP-Lösungen verfügen über eine Vielzahl enthaltener Berichte, Analysen und Datenabfragen, die relativ einfach, flexibel und intuitiv bedienbar sind. So sind beispielweise mit SAP S/4HANA und dem Begriff „embedded Analytics“ umfangreiche Analysefunktionen enthalten, die sogar moderne visuelle Analysen ermöglichen. Der wesentliche Zeitaufwand bei dieser Variante besteht darin, die benötigte Funktion zu finden und entsprechend der Anforderung deren Einsatz zu üben/ trainieren. Diese Form der Datenanalyse eignet sich immer dann, wenn alle relevanten Daten in dem entsprechenden IT-System vorhanden, die Unternehmensprozesse am Herstellerstandard ausgerichtet sind und somit auch die Analysen direkt funktionieren. Weiterhin ist dieser Lösungsweg vor allem für die Verwendungsarten der operativen Analysen anzuwenden, da die Standardfunktionen häufig auf Daten eines Bereiches/ Moduls ausgerichtet sind. Unternehmensindividuelle Entwicklungen erweitern bei Bedarf den Standardumfang. Dies ist in der Regel direkt mit IT-Entwicklungsaufwänden verbunden.


Reicht die Funktion im ERP-System nicht aus, ist des erste Mittel der Wahl häufig Microsoft Excel. Dies liegt daran, dass damit verschiedene Daten zusammenführbar sind und so ohne weitere Softwareinstallationen die Datenverarbeitung und Nutzung stattfinden kann. Aus Sicht des Autors ist Microsoft Excel aber maximal ein Werkzeug, um einmalige Ad-Hoc-Anforderungen zu bedienen oder prototypisch zu agieren. Für einen langfristigen, kollaborativen und nachhaltigen Datenanalyseeinsatz eignet sich das Werkzeug hingegen nicht.


Alternativ zu Microsoft Excel werden heute häufig Business-Intelligence-Analysewerkzeuge zur (in der Regel) visuellen Datenanalyse genutzt. Softwarelösungen dafür gibt es reichlich und mit mittlerweile sehr vergleichbaren Funktionsumfang. Um nur einige typische Lösungen und ohne Anspruch auf Vollständigkeit anzuführen, können Microsoft Power BI, SAP Business Objects, SAP Analytics Cloud, Tableau, Qlik, oder Microstrategy genannt werden. Alle Werkzeuge versprechen mit einem Self-Service-Ansatz die direkte und visuell-moderne Erstellung von Datenanalysen mit hohem Nutzungsgrad visueller Elemente. Das ist grundsätzlich auch gut und nicht verwerflich; vor der Analyse steht dennoch die zuvor diskutierte Aufgabe der Datensammlung und -verarbeitung. Dies gilt speziell in den Szenarien, wenn Daten heterogen, modulweise und damit nicht aufbereitet für den jeweiligen Anwendungsfall vorliegen. Auch für diese Aufgaben bietet die erwähnte Werkzeuggattung Unterstützung. Daten lassen sich über Uploads und Verknüpfungen bearbeiten und so die gewünschte Datenbasis schaffen. Insgesamt „heilen“ die Werkzeuge so System- und Datenbrüche und können für die Anwendungsbereiche operativer und taktischer Analysen genutzt werden. Kritisch zu bewerten ist allerdings, dass durch den (unbestritten auch guten) Self-Service-Ansatz so weiterhin individuelle Analyselösungen entstehen, Datenaufbereitungen mehrfach durchgeführt werden und damit einhergehend die Vergleichbarkeit sowie Konsistenz von analyserelevanten Kenngrößen erschwert wird.


Aus diesem Grund nutzen bereits heute viele Unternehmen zentrale Datenintegrations- und Datenverarbeitungsplattformen – oder im technischen Fachbegriff: Data-Warehouse-Umgebungen (DWH-Umgebungen). Diese Systeme bieten genau das, was operative Systeme aus eingangs beschriebenen Gründen nicht leisten können: die Bereitstellung einer unternehmensweiten, system- sowie prozessübergreifenden Datenlandschaft und damit eine eindeutige Datengrundlage für verschiedene Anwendungsfälle. Dieser Lösungsansatz ist durchaus mit hohen Aufwänden in der Implementierung verbunden. Objektiv betrachtet ist dieser aber im Vergleich zu den zuvor genannten Ansätzen nicht höher, sondern nur greifbarer, da die Einführung eines DWH-Systems oft als Projekt mit definiertem Budget umgesetzt wird. Self-Service-Ansätze oder die Entwicklung von Insellösungen hingegen verschwinden häufig unter dem Radar, sodass die Tätigkeiten und deren Umfang in der Gesamtsicht verdeckt bleibt. Aus Sicht des Autors ist die Etablierung einer Data-Warehouse-Lösung dennoch der mittelfristig richtige Weg, um so für alle datengetriebenen Aufgaben und Analysewerkezuge eine direkte Grundlage zu schaffen. Technologievertreter sind für diese Systeme SAP BW/4HANA, einer datenbankbasierten Lösung über Microsoft SQL oder auch Speziallösungen für bestimmte Datenbereiche wie IBM Hyperion oder Lucanet genannt. Wichtig bei der Auswahl der richtigen Lösung sind Kriterien wie:

  • der Funktionsumfang,
  • die Bereitstellungsform (Cloud oder onPremise),
  • das Entwicklungsvorgehen (Programmierung, Low Code, Kombination),
  • die Integration und Schnittstellen in die operative Systemumgebung sowie
  • Lizenzaufwendungen.

Weiterhin sei erwähnt, dass der Fokus von DWH-Systemen in strukturierten Daten liegt.

Data-Warehouse-Systeme – wirklich relevant oder doch nicht?

​Die Fragestellung, ob die soeben als langfristig sinnvollste Lösung beschriebenen DWH-Systeme wirklich notwendig und richtig sind, beschäftigt die Welt der Datenanalyse seit Jahren mit einer kontroversen Diskussion. Befeuert werden die Argumente der „Contra-DWH-Seite“ durch die gute Evolution operativer Analysefunktionen von ERP-Systemen und fortschrittlichen BI-Self-Service-Analysewerkzeugen.

Als Überlegungsanstoß hilft der Blick auf die ursprünglichen Merkmale und Ziele der DWH-Idee. Demnach stellt ein solches System Daten fachorientiert (1), integriert (2), zeitüberdauernd (3) und nicht-flüchtig (4) zur Verfügung. Ergänzen lassen sich hier noch die Eigenschaften der Analyseorientierung (5), der Sicherheit (6) und Offenheit zur Weiterverwendung (7).

Die vorangegangenen Ausführungen zeigen, dass genau diese Punkte für Anforderungen der übergreifenden Datenanalyse auch heute noch Gültigkeit haben, wenn die Quell-Dateninfrastruktur insgesamt oder auch in Teilen folgende Charakteristik aufweist:

  • Quelldaten liegen in mehreren IT-Systemen oder Ablagen vor und sind NICHT in einem zentralen ERP vorhanden
  • Quelldaten sind modular organisiert und müssen zur Analyseerfüllung verknüpft werden
  • in den operativen Systemen wird regelmäßig archiviert, entweder aus Gründen der Dateneinsparung oder aus rechtlichen Gesichtspunkten
  • der Personenkreis der operativen Datenbearbeitung ist ein anderer als jener der Analyse und es gilt somit ein gesondertes Berechtigungssystem zu schaffen


In der Praxis sind meist einer oder mehrere dieser Punkte direkt erkennbar und damit häufig schon die Argumentation für einen sinnhaften DWH-Einsatz geschaffen. Richtig ist hingegen aber auch, dass die Rechtfertigung der Performance oder die analyseoptimierte Datenablage kein hinreichender Grund für den Einsatz einer DWH-Lösung (mehr) ist, da dies direkt auch die anderen Lösungsalternativen mitbringen.

Nur Datenbereitstellung? Moderne DWH-Systeme können mehr!

​Zusätzlich zu den beschriebenen Gründen lassen sich aus Sicht des Autors weitere gute Gründe des Einsatzes einer modernen DWH-Lösung anführen. Systeme wie SAP BW/4HANA sind nicht ausschließlich Datensammler und -aufbereiter, sondern bringen direkt im Herstellerstandard umfangreiche und nützliche Zusatzfunktionen mit. Auch hier soll eine exemplarische Aufzählung Überlegungsanstöße geben, wie datengetriebene Unternehmensaufgaben direkt vom Einsatz der Softwarelösungen profitieren können:
  • direkte Funktionen zur Abbildung von Planungsszenarien mit Dateneingabe und Automatisierung von Planschritten
  • enthaltene Zugangs- und Kollaborationsplattformen für einen zentralen Zugang zu allen Anwendungen, Analysen, Funktionen an einer Stelle (bei SAP BW/4HANA ist das Fiori)
  • integrierte Berechtigung- und Datenschutzfunktionen
  • Schnittstellen zu operativen Systemen, um so Daten nach der Bearbeitung im DWH zurück an das operative System zur dortigen Prozessteuerung zu übergeben
  • Versionierung von Entwicklungsständen (und Daten)
  • Dokumentationsfunktionen für die Entwicklung


All diese direkt enthaltenen Funktionen führen dazu, dass moderne DWH-Systeme mehr als nur eine Umgebung zur Strukturierung der Datenanalyse sind. Sie können vielmehr DIE zentrale Datendrehscheibe im Unternehmen sein. In dieser Funktion und in Verbindung mit verbreiteten Low-Code-Ansätzen der Entwicklung sind die Systeme ein äußerst gutes Werkzeug, um Digitalisierungsvorhaben von datengetriebenen Prozessen zu unterstützen.

Data Lake, Data Goverance und Data-Mining

​Bisher behandelte der Artikel klassische Ansätze und bewertete deren heutigen Einsatz. Doch wie fügen sich aktuellere Begriffe wie Data Lakes und/ oder Data-Mining in das Gesamtbild? Diese Überführung soll hier angerissen sein, um die entsprechend Einordnung zu geben.

Ein Data Lake ist eine „Sammlung von Rohdaten in [sehr] großem Umfang, für die noch keine weitere Verwendung festgelegt wurde“. Mit dieser Beschreibung ist die direkte Einordnung bereits gemacht – ein Data Lake ist die Vorstufe für die spätere Verwendung der Daten für konkrete Anwendungsszenarien und soll zunächst technisch die Daten sichern und sammeln. Im zweiten großen Unterschied zu den zuvor besprochenen Ansätzen umfassen Ansätze des Data Lakes alle Datenarten; also explizit strukturierte UND unstrukturierte Daten wie Dokumente oder Bilder. Hilft ein Data Lake also für die Datenarchitektur im Unternehmen? Ja, er hilft um Datenübernahmen an einer zentralen Stelle technisch sauber abzubilden und so für die weitere Verwendung eine einzige Grundlage zu stellen. Ein Data Lake setzt aber keine inhaltlich-fachlichen Datenverarbeitungen um und eignet sich daher kaum als Werkzeug zur Datenanalyse oder der direkten Entscheidungsunterstützung. Im konkreten Fall ist also die Frage zu stellen, ob der Einsatz eines Data Lakes aufgrund der hohen Quelldatenablage, des Datenumfangs oder der Datenübernahmeanforderung (mitunter auch in auch Echtzeit) technisch sinnvoll ist und so späteren Verwendungen hilft.


In der genau anderen Betrachtungsrichtung agiert Data-Mining (oder häufig, aber nicht ganz korrekt auch Künstliche Intelligence, Maschine Learning). Die Aufgabe von Verfahren des Data-Minings ist es, auf einer Menge von Daten automatisiert Strukturen und Zusammenhänge zu erkennen. Diese Zusammenhänge gilt es später zu interpretieren und so Entscheidungen abzuleiten. Zusammengefasst ist Data-Mining also ein Werkzeug, um schneller (da automatisiert) Daten zu interpretieren. Wichtig für den Einsatz sind Kenntnisse zu den Verfahren, den Werkzeugen (wie SAP Predictive Analytics oder Funktionen der SAP Analytics Cloud) und vor allen die Verfügbarkeit richtiger, aufbereiteter Daten. Letztere bereit zu stellen, ist der Hauptaufwandspunkt und erfolgskritische Faktor in jedem Data-Mining-Vorhaben. Genau aus diesem Grund ist die Symbiose aus Datenplattform (DWH-Umgebung) und Data-Mining naheliegend. Sind Daten für Berichte, Analysen und Reportings sauber vorhanden, können diese in einem zweiten Schritt auch für Verfahren des Data-Mining mitverwendet werden.

Fazit: Wie fügen sich die verschiedenen Themen und Ansätze nun zusammen?

​Ganz generell ist die Aussage „es kommt darauf an“ leider die erste Wahrheit. Eine allgemeingültige Datenlandschaft unternehmensübergreifend zu definieren ist nach aktuellem Kenntnisstand kaum möglich. Es gilt im Zuge einer Datenstrategie und Datenstrukturgestaltung unter Berücksichtigung der aktuellen und geplanten Anwendungsfelder, der Quelldatenstruktur und der spezifischen Zielstellungen eine passende Architektur zu gestalten. Die Umsetzung dieser kann (und sollte) schrittweise erfolgen, um so mit den erweiterten Funktionen zu wachsen.


Der Artikel stellt dar, welche Ansätze grundsätzlich existieren und argumentiert durchaus für einen Einsatz einer Datenplattform mittels eines Data-Warehouse-Systems. Letztlich ist dies aber nicht das alleinige Mittel der Wahl. Wesentlich ist den passenden Werkzeugkasten bestehend aus Standardanalysen (im ERP), Ad-Hoc-Werkzeugen, Visualisierungswerkzeugen, Datenplattformen und modernen Data-Mining-Verfahren zu finden und die Werkzeuge entsprechend ihrer Kernaufgabe einzusetzen. Eine mögliche Hilfestellung und Zusammenfassung der hier besprochenen Varianten gibt die abschließende Abbildung.


Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu