Daten als Produktionsfaktor

Geschäftliche Transaktionen sind eingebunden in Informations- und Telekommunikationstechnologien. Die dabei generierten, transformierten, transportierten und gespeicherten Daten haben hierbei einen eigenen wirtschaftlichen Wert. Daten sind zu einem wesentlichen Produktionsfaktor geworden und ermöglichen u.a. Kostenersparnisse, Produktivitäts­erhöhungen sowie effektivere und effizientere Prognosen. Weiterhin bieten Daten die Basis für die Entwicklung neuer Produkte und Dienstleistungen bis hin zu neuen Geschäftsideen und Geschäftsmodellen.
 

Big Data

Unternehmen verfügen bereits seit Jahrzehnten über Massendaten, die mit Business Intelligence und Data-Warehousing ausgewertet werden. „Big Data” geht dabei über den Begriff der Massendaten hinaus. „Big Data” bezeichnet mehr eine Sammlung von entwickelten Methoden und Technologien zur Erfassung, Speicherung und Auswertung unterschiedlich strukturierter Daten.
 
In den Bereichen des klassischen Data-Warehousing und des Business Intelligence werden Daten in relationalen Datenbanken verarbeitet. Diese Datenbanken setzen strukturierte Daten voraus z.B. Lieferantenstammdaten wie Telefonnummern und Emailadressen.
 
Für unstrukturierte Daten hingegen existieren i.d.R. weder Datenmodelle noch Metadaten. Wenn Daten unstrukturiert vorliegen, z.B. Texte in Emails, Audio- und Videodateien, Fotos (insbesondere in Social-Media-Plattformen), so werden entsprechende Programme benötigt, um diese Daten erst auswertbar zu machen.
 
Die Verbindung und Analyse von bisher getrennt betrachteten Daten (strukturierte und unstrukturierte) ermöglichen neue Ansichten und Erkenntnisse. Big Data setzt neben den technischen Herausforderungen auch Anforderungen an die Mitarbeiter. Komplexe statistische Analyseverfahren müssen von den Mitarbeitern angewandt werden können, um valide Aussagen und Entscheidungsgrundlagen zu generieren.
 

Neue Anforderungen

Neben der Herausforderung der unterschiedlichen Datenbeschaffenheit („Variety”) sind insbesondere die enorme Datenmenge („Volume”) und die Verarbeitungs- bzw. Analysegeschwindigkeit („Velocity”) zu nennen. Die auch als die 3 „V´s” bezeichneten Eigenschaften erfordern neue technische Lösungsansätze. Die entsprechenden technologischen Konzepte, Infrastrukturen sowie auch konkrete Softwareprodukte sind bereits verfügbar.
 
Das Apache Hadoop Framework, welches inzwischen von einer Reihe namhafter Anbieter vertrieben wird, ermöglicht u.a. die Ablage von Daten in einem verteilten, skalierbaren File-System. Die Spaltenunabhängigkeit bietet dabei auch die Speicherung von unstrukturierten Daten.
 
MapReduce, ursprünglich von Google entwickelt, ist ein spezieller Algorithmus, der das Aufsplitten großer Datenmengen und die parallele Verarbeitung auf mehreren Rechnern ermöglicht. MapReduce stellt einen wesentlichen Baustein im Hadoop Framework dar.
 
Die sog. NoSQL Datenbanken folgen einem nicht-relationalen Ansatz und brechen mit dem Tabellenschema der klassischen relationalen Datenbanken.
 
Eine Möglichkeit, die Verarbeitungsgeschwindigkeit großer Datenmengen zu erhöhen, bieten In-Memory-Datenbanken, welche durch die gesunkenen Speicherkosten für Unternehmen zunehmend attraktiver werden. Hier erfolgt ein Caching der Daten im Hauptspeicher des Servers. Mit dem In-Memory-Verfahren und mit Hilfe von speziellen Datenbank-Systemen lassen sich wesentlich höhere Zugriffsgeschwindigkeiten erreichen als in konventionellen, festplattenbasierten Datenbanken.
 

BI-Systeme und Big Data

Big Data-Anwendungen sollten sich nach Möglichkeit an bestehende, für strukturierte Daten ausgelegte, Systeme anbinden lassen. Vorhandene Systeme können dabei die Qualität von Big Data-Analysen, welche auf unstrukturierten oder semistrukturierten Daten basieren, sichern und verbessern. Weiterhin lassen sich Ergebnisse durch schon vorhandene Daten aus den BI-Systemen bestätigen. Zur Sicherung dieser Synergieeffekte ist der Austausch von Daten über Systeme hinweg entscheidend. Das Ziel sollte dabei sein, bestehende und neue Datenquellen zu kombinieren und mithilfe moderner Algorithmen effizientere Auswertungen und Lösungen zu genieren.
 
Dabei ist zu beachten: Je unstrukturierter die Daten sind, desto mehr Verarbeitungsschritte sind im Vorfeld zu leisten. Ebenfalls erzeugt die Verwendung externer Datenquellen erhöhten Validierungs- sowie Implementierungsaufwand.
 
Das wachsende Datenvolumen sowie die zunehmende Datenvielfalt wird die Ergänzung konventioneller Data-Warehouse-System durch Big Data Technologien und Anwendungen notwendig machen.
 

Value

Neben den 3 „V´s” (​Variety, Volume, Velocity) stellt sich die Frage nach dem Mehrwert („Value”) der neu erfassten Daten für Geschäftsprozesse und Geschäftsfelder. Welche konkreten Problemstellungen können mit Hilfe von Big Data im Unternehmen gelöst werden? Einen guten Einblick liefert die Studie „Big Data im Praxiseinsatz – Szenarien, Beispiele, Effekte” (Quelle: BITKOM 2012):
 
Für Marketing und Vertrieb eines Medienunternehmens sind die Nutzungszahlen von Videos (des eigenen Unternehmens sowie der Konkurrenz) auf verschieden Medienplattformen relevant. Hohe Datenmengen und unterschiedliche Datenformate erforderten Big Data Lösungen auf Basis von Apache Hadoop. Die erfolgreiche Umsetzung ermöglichte, neben der Reduktion des Aufwands der Marktforschungsabteilung, tiefgehende Analysen und die Generierung von aussagekräftigen Prognosen.
 
Im Einzelhandel ist die Optimierung der Mitarbeitereinsatzplanung durch Berücksichtigung verschiedenster interner und externer Informationsquellen (z.B. Wareneingangsprognosen, Öffnungszeiten, Zeiträume des prognostizierten Umsatzes, Feiertage im Nachbarland, Baustellen an Zufahrtsstraßen, Wettervorhersagen) realisiert worden. Neben der verlässlichen Prognose für die Mitarbeitereinsatzplanung konnten sowohl die Mitarbeiter- als auch die Kundenzufriedenheit erhöht werden.
 
Durch den Einsatz von In-Memory-Technologien konnte die Risikoabschätzung für Banken erheblich verbessert werden. Die Durchführung von 8,8 Mrd. komplexer Value-at-Risk-Berechnungen, unter Einbeziehung von 45.000 verschiedenen Finanzinstrumenten und ca. 100.000 Marktparametern, konnte von 18 Stunden auf wenige Minuten reduziert werden. Neue Marktereignisse und ihre Wirkungen können beinahe in Echtzeit abgeschätzt und Handelsstrategien im Voraus simuliert werden.
 
Globale Planungs- und Controlling-Systeme, die bis auf Einzelprodukt- und Kundenebene reichen und aus Milliarden von Materialflussdatensätzen sowie Datensätzen aus Rechnungswesen, Kostenstellen und Profit-Centern bestehen, konnten mit der In-Memory-Technologie in kürzester Zeit verarbeitet werden. Die Geschwindigkeit in Planungsanwendungen konnte um den Faktor 10 und im Reporting um den Faktor 60 verbessert werden.
 
zuletzt aktualisiert am 11.02.2015

 Themenspecial

 Kontakt

Werner Merl

Dipl.-Wirtsch.-Ing., Prokurist

Associate Partner

+49 6196 7611 4711
+49 6196 7610 700

Anfrage senden

 Wir beraten Sie gern!

Um die Website zu personalisieren und Ihnen den größten Mehrwert zu bieten, verwenden wir Cookies. Unter anderem dienen sie der Analyse des Nutzerverhaltens, um herauszufinden wie wir die Website für Sie verbessern können. Durch Nutzung der Website stimmen Sie ihrem Einsatz zu. Weitere Informationen finden Sie in unseren Datenschutzbestimmungen.
Deutschland Weltweit Search Menu