Künstliche Intelligenz zur Datenanalyse: Einführung, Beispiele und Potentiale

PrintMailRate-it

veröffentlicht am 5. Oktober 2022 | Lesedauer ca. 4 Minuten


Daten sind einer der wichtigsten Güter des 21. Jahrhunderts. Kein Unternehmen kommt ohne sie aus, da Daten als Grundlage für unternehmerische Entscheidungen dienen. Oft werden die umfangreichen Datenbestände in Unternehmen allerdings nicht systematisch analysiert und zur Entscheidungsunterstützung verwendet. Ent­scheider sehen sich deshalb mit einer „Datenflut“ konfrontiert in der sie die relevan­ten Informationen nicht immer finden können. Moderne, auf „künstliche Intelligenz (KI)“ gestützte Systeme können an dieser Stelle Abhilfe leisten, indem sie wesentliche Aufgaben der Analyse automatisieren.



„The world’s most valuable resource is no longer oil, but data” [1], so titelte bereits 2017 der Economist. Kaum jemand wird wohl der Aussage widersprechen. Doch eigentlich ist die Aussage nur zur Hälfte richtig, denn Daten, also reine Zahlen bzw. Symbole, besitzen keine Aussagekraft. Mit reinen Daten lässt sich kein Produkt entwickeln, kein Umsatz erzielen und schon lange kein Unternehmen steuern. Korrekt müsste es deshalb heißen „The world’s most valuable resource is no longer oil, but information”.

Unternehmen nutzen heute eine Vielzahl von Informationssystemen, um ihre Geschäftsprozesse abbilden zu können. Egal ob ERP-Systeme, CRM-Systeme oder HR-Systeme: Sie alle verbindet die Eigenschaft, Daten für und über die Geschäftsprozesse eines Unternehmens zu produzieren, abzuspeichern und zu strukturieren. Durch die kontinuierliche Digitalisierung aller Unternehmensbereiche steigen der Umfang und die Heterogenität der erhobenen Daten kontinuierlich. Mit dem Wachstum der Datenmengen hat sich auch die Anzahl und der Umfang von Analysewerkzeugen deutlich vergrößert. Von Standard-Reporting über Visual Analytics bis hin zu Data-Mining und „künstlicher Intelligenz“ bieten moderne Analysewerkzeuge eine große Bandbreite an Funktionalitäten, mit denen aus Rohdaten Informationen gewonnen werden können.


Data-Governance

Die Grundlage für die strukturierte Gewinnung von Informationen aus dem „Datenchaos“ ist mehr als nur die Auswahl eines einzelnen Analysewerkzeuges oder das Anwenden einer bestimmten Analysemethode. Es ist viel mehr die Etablierung eines strukturierten Vorgehens, um datengetriebene Entscheidungen treffen zu können.
Die durch Rödl & Partner von der Wissenspyramide adaptierte Data-Governance-Pyramide (Abb. 1) bietet genau diese Strukturierung und unterstützt Unternehmen bei der Entwicklung einer datengetriebenen Entscheidungsorganisation.



Abb. 1 Data-Governance-Pyramide

Im Rahmen des Beitrags soll vor allem auf die Möglichkeiten von KI-Werkzeugen eingegangen werden, die bei der Strukturierung und Interpretation von Daten eingesetzt werden können. Aufgrund der Automatisierung der Analyse bieten KI-Werkzeuge die Möglichkeit, sehr große Datenmengen zu verarbeiten, in ihnen Muster zu erkennen und Ergebnisinterpretationen generieren zu können. Die Automatisierung dieser drei Kernaufgaben ermöglicht es, die dadurch gewonnene Arbeitszeit auf die Ergebnisinterpretation und Ableitung von Entscheidungspfaden zu fokussieren und letztendlich fundiertere Entscheidungen zu treffen.


KI oder nicht KI – Das ist hier die Frage

Im allgemeinen Sprachgebrauch wird gerne der Begriff „künstliche Intelligenz (KI)“ für sämtliche Verfahren und Methoden verwendet, mit denen Daten automatisiert bzw. teilautomatisiert verarbeitet werden. Die Verwendung des Begriffs KI ist in diesem Zusammenhang aber mindestens stark verkürzend und damit nicht zielführend, da mit dem Begriff die Erwartungshaltung einhergeht, menschliche Denk- und Analyseprozesse durch „Technik“ ersetzen zu können. Keine der typischerweise in diesen Szenarien verwendeten Verfahren und Methoden kann allerdings den Menschen vollständig ablösen. Vielmehr bieten automatisierte Datenanalysen vor allem das Potential, große Datenmengen zu analysieren, Muster in diesen zu erkennen und darauf Interpretationsansätze zu generieren. Diese werden im Anschluss von Entscheidern hinsichtlich der Ziele des Unternehmens bewertet und daraus entsprechende Entscheidungspfade gewonnen, die letztendlich in konkrete Handlungen umgesetzt werden. Eine „starke KI“, die tatsächlich all diese Aktionen und Aufgaben durchführt und nicht nur Teilbereiche unterstützt, existiert zum aktuellen Zeitpunkt nicht [2]. Auch vielver­sprechende Ansätze des maschinellen Lernens wie neuronale Netzwerke sind nicht in der Lage, die Bandbreite an Tätigkeiten eigenständig durchzuführen. Deshalb wird im Folgenden der Begriff des Data-Mining verwendet, um eine klare Abgrenzung zu starker künstlicher Intelligenz vorzunehmen.


Data-Mining-Ansätze im Überblick

Im Allgemeinen lassen sich die meisten Data-Mining-Verfahren entsprechend ihrer Ergebnisart in Gruppen untergliedern, mit denen unterschiedliche Sachverhalte analysiert und Muster erkannt werden können. In den meisten Fällen gibt es viele unterschiedliche Algorithmen, Implementierungen und Ansätze, mit denen sich gleiche oder sehr ähnliche Ergebnisarten erzielen lassen. Die Auswahl des konkreten Verfahrens hängt von zahlreichen Faktoren, wie der Qualität, dem Grad der Strukturierung und dem Umfang der Daten ab. In einigen wenigen Fällen lassen sich auch unterschiedliche Ergebnisarten mit demselben Verfahren erzielen, wie es beispielsweise bei neuronalen Netzwerken der Fall ist.


Data-Mining-Verfahren lassen sich dabei in die drei übergeordneten Kategorien einteilen:

  • Bestimmung von Gruppen - wird auch als Clustering bezeichnet. Mit Clustering-Verfahren werden unstrukturierte nominal und metrisch skalierte Daten in Gruppen eingeteilt, bei denen sich die einzelnen Datenpunkte innerhalb einer Gruppe möglichst ähnlich sind. Im Anschluss kann anhand der Merkmale, auf deren Grundlage das Clustering durchgeführt wurde, eine beschreibende Gruppenbezeichnung gewählt werden. Ein möglicher Anwendungsfall für ein Clustering-Verfahren wäre beispielsweise die Bildung von Kundengruppen hinsichtlich der Zahlungsmoral oder der Häufigkeit von Retouren. Neben den offensicht­lichen Faktoren wie Wohnort, Zahlungsmittel, Bestellhistorie oder Bonität könnten aber auch weniger offensichtliche Gruppen gefunden werden, wie z.B. Internetprovider, Hersteller des Endgerätes oder Browser.
  • Beschreibung von Abhängigkeiten - wird auch als Assoziationsanalyse bezeichnet. Ziel einer Assoziationsanalyse ist es, über Regeln den Zusammenhang zwischen Merkmalen zu beschreiben und mittels einer Wahrscheinlichkeit zu bewerten. Im Wesentlichen funktionieren Assoziationsanalysen über die Bildung von Ausprägungskombinationen und dem Ableiten von Wenn-Dann-Regeln. Ein typisches Beispiel für eine Assoziationsanalyse ist „Andere Kunden, die dieses Produkt kauften, kauften auch […]“ oder „An warmen Tagen werden mehr kalte Getränke verkauft […]“.
  • Klassifikation - hat das Ziel, neue Objekte oder Datensätze in vorhandene Gruppen einzuordnen. Typische Beispiele sind Bild-, Schrift, Spracherkennung oder aber auch Kündigungsanalysen. Im Kontext von Unternehmensdaten ist beispielsweise die Zuordnung von Neukunden in bestehende Kundengruppen ein denkbares Szenario.


Innerhalb der genannten übergeordneten Kategorien gibt es weitere differenzierende Merkmale, die vor allem aus einer technischen Perspektive Verfahren weiter unterteilen und die Einsatzszenarien abgrenzen. Anhand der exemplarischen Beispiele lassen sich die Vorteile, aber auch die Grenzen von Data-Mining erkennen.


Klassische Datenanalysen haben das Ziel die Annahmen (Hypothesen) des Untersuchenden auf ihre Gültigkeit hin zu überprüfen. Folglich können nur Muster entdeckt werden von denen bereits vermutet wird, dass sie in den Daten vorhanden sind. In der wissenschaftlichen Literatur werden Data-Mining-Verfahren üblicherweise als hypothesenfrei bezeichnet, gemeint ist dabei die Untersuchung von Daten ohne konkrete Annahmen. Von einer strengeren Hypothesenfreiheit darf in diesem Kontext allerdings nicht gesprochen werden, denn hypothesenfreie Fragestellungen können nicht existieren. Data-Mining-Verfahren zeigen folglich Muster und Zusammenhänge auf, von denen ursprünglich nicht vermutet wurde, dass sie überhaupt existieren.


Fazit

Abseits der Buzzwords und Werbeversprechen zeigt sich, dass Data-Mining und die automatisierte Analyse von Daten für fast alle Unternehmen große Potentiale bieten. Die Vorteile sind offensichtlich: Schnelle, umfang­reiche und relativ unvoreingenommene Analysen die, eingebettet in das richtige Vorgehen, den Entscheidenden dabei helfen, fundiertere und damit bessere Entscheidungen zu treffen. Bei der Nutzung gilt es, diese Ansätze in die bestehende Datenarchitektur und Vorgehensweise im Unternehmen einzugliedern, um so das echte Potential automatisierter Datenanalysen realisieren zu können.



Kontakt

Contact Person Picture

Leon Bergmann, Senior Associate

Senior Consultant SAP BI & Technology

+49 911 1807 870

Anfrage senden

Unternehmer­briefing

Kein Themen­special verpas­sen mit unserem Newsletter!

Befehle des Menübands überspringen
Zum Hauptinhalt wechseln
Deutschland Weltweit Search Menu