Data Analytics – was ist es und warum wird es in Zukunft noch wichtiger?
Die zunehmende Digitalisierung in Unternehmen und ihrem Umfeld führt zu einer erhöhten Menge von speicher- und auswertbaren Daten im Unternehmensumfeld.[1] Das World Wide Web, Bild- und Video-Applikationen, Sensoren und weitere Datenquellen generieren weltweit mehr als 2,5 Trillionen Byte pro Tag.[2]
Dies birgt für Unternehmen sowohl neue Möglichkeiten der Wertschöpfung, indem mittels dieser Daten Produkte und Prozesse entstehen und weiterentwickelt werden als auch Herausforderungen dahingehend, ihre Wettbewerbsvorteile zu halten und auszubauen. Auch die fundamentale Änderung von Geschäftsmodellen wird vielfach durch eine vermehrte oder veränderte Nutzung von Daten vorangetrieben.[3]
Der Begriff "Big Data" ist in diesem Kontext vielfach gebraucht und kann über drei Dimensionen abgrenzt werden: den Umfang der Datenmengen (volume), die Geschwindigkeit der Datengenerierung und -verarbeitung (velocity) und die Vielfalt an Datentypen (variety). Konventionelle Möglichkeiten der Datenverarbeitung mussten angepasst werden, um diese Datenmengen zu bewältigen und Informationen zu gewinnen sowie diese für die Entscheidungsfindung einzusetzen. Dies führte zu einem Anstieg neuer digitaler Technologien, die gemeinsam mit klassischen Verfahren zur Datenanalyse unter dem Bereich Data Analytics subsumiert werden können.
Besonders im Supply Chain Management spielt der Einsatz von Data Analytics-Anwendungen eine wichtige Rolle.[4] Durch die Masse an Daten und miteinander interagierenden Akteuren entsteht eine Vielzahl möglicher Anwendungen, die zur Differenzierung von Wettbewerbern genutzt werden können.
Im Rahmen einer Befragung von Supply Chain-Experten konnte ein klarer Kontrast zwischen der empfundenen Relevanz des Themas Data Analytics im Supply Chain Management und dem aktuellen Umsetzungsstand im jeweiligen Unternehmen identifiziert werden (siehe Abbildung 1). Um diesem Missstand zu begegnen, beschäftigen sich die Forschung und auch die Praxis, beispielsweise im Rahmen der Tätigkeiten im Mittelstand 4.0-Kompetenzzentrum Hamburg damit, den Unternehmen Mittel an die Hand zu geben, um Data Analytics-Anwendungen zu identifizieren und zu implementieren.
Identifikation von Anwendungsfällen – eine strukturierte Herangehensweise
In KMU ist vielfach bereits eine Nutzung kleinerer Datenmengen ein erster Schritt, der gar nicht notwendigerweise einen Eintritt in den komplexeren Bereich der „Big Data“ notwendig macht. Im Gegenteil sind wertschöpfende Anwendungen oft auch mit bereits in der Vergangenheit erhobenen Daten möglich. In diesem Beitrag wird ein Beispiel für eine Nutzung im Unternehmen vorliegender Daten aufgezeigt. Hierfür ist eine organisationsweite Herangehensweise, welche die notwendigen technologischen und prozessualen Bedingungen berücksichtigt, wichtige Voraussetzung.[5] Daher ist es zunächst sinnvoll, den aktuellen Stand im Unternehmen bezüglich Daten und Datenanalyse-Fähigkeiten zu reflektieren. Hierfür wird eine holistische Betrachtung der relevanten Faktoren für erfolgreiche Datenanalysen im Unternehmen durchgeführt. Bei der Betrachtung der Fähigkeiten ist es sinnvoll die Bereiche Strategie & Vision (Wo will ich hin?), Kultur & Mitarbeiter (Wie ist die Mentalität im Unternehmen?), Technologie (Welche Tools und Infrastruktur liegen vor?), Datenmanagement (Welche Datenquellen gibt es und wie werden diese gepflegt?) und Analytics-Kompetenzen (Wie werden die Daten bereits ausgewertet?) zu evaluieren. Auf Basis dieser können Handlungsfelder identifiziert und anschließend prototypische Umsetzungen angestrebt werden.
Für die oben angeführte Abweichung zwischen Relevanz und Umsetzungsstand von Data Analytics-Anwendungen im SCM gibt es verschiedene Gründe. Mittels einer Interviewstudie von über 20 Experten an der Schnittstelle von SCM und Data Analytics wurden diese im Detail beleuchtet. Einer der vorstehenden Gründe für unzureichende Data Analytics-Initiativen in Unternehmen ist die scheinbar überwältigende Komplexität des Themas und die resultierende Schwierigkeit, einen relevanten, konkreten Anwendungsfall zu identifizieren und umzusetzen. Für die Identifikation und Einordnung eines passenden Anwendungsfalls kann daher das in Abbildung 2 abgebildete Data Analytics-Canvas für das Supply Chain Management als kompaktes Modell genutzt werden.
Abbildung 2: Data Analytics-Canvas für das Supply Chain Management zur strukturierten Analyse von Data Analytics Anwendungen
Auf Basis des Business Model Canvas[6] kann dieses komprimierte Modell genutzt werden, um einen konkreten Anwendungsfall zu reflektieren und die primären, relevanten Dimensionen in der Umsetzung zu reflektieren. Ausgehend von dem Wertangebot („Was?/Warum?“), also des spezifischen Mehrwerts der Analytics Anwendung als Fokuspunkt im Zentrum des Canvas, werden die primären Fragen der relevanten Stakeholder („Wer?“) auf der rechten Seite, des Vorgehens bei der Umsetzung („Wie?“) auf der linken und einer Betrachtung der Ressourcen und generierten Erkenntnisse oder monetären Mehrwerte („Wieviel?“) im unteren Bereich des Canvas reflektiert. Die untergeordneten Fragen innerhalb der Kategorien werden unter Einbeziehung der relevanten Ansprechpartner beantwortet und ausgefüllt. Diese Interdisziplinarität, also die Einbeziehung von Stakeholdern mit technischem Hintergrund und jenen mit dem relevanten unternehmerischen und prozessualen Wissen, ist ein Kernmerkmal einer erfolgreichen Data Analytics-Initiative.
Gründe und Motivatoren zur Einführung
Es ist wichtig, die zugrunde liegende Motivation vor der Implementierung einer Data Analytics-Applikation zu hinterfragen. Abbildung 3 liefert einen Überblick über Gründe, die in der bereits angeführten Interview-Studie im Dialog mit Unternehmen identifizieren wurden, und entsprechenden besonders relevanten Erfolgsfaktoren. Die Unterscheidung etwa in problemgetriebene oder datengetriebene Ansätze macht unterschiedliche Herangehensweisen notwendig. Letztere sind eher ressourcenorientiert und beantworten die Frage „Welche Potentiale bieten die vorliegenden Daten zur Wertschöpfung?“. Problemgetriebene Ansätze gehen von einer konkreten, im Tagesgeschäft auftretenden Herausforderung aus und beantworten die Frage „Wie kann ich Daten nutzen, um das vorliegende Problem zu lösen?“.
Kritische Erfolgsfaktoren (aus dem Englischen critical success factors, CSF) werden in der Literatur vielfach diskutiert, in der Praxis ist aber besonders relevant, situativ zu reflektieren, wann welche Faktoren besonders zu berücksichtigen sind. Abbildung 3 ordnet daher verschiedenen möglichen Motivationen einen der speziell relevanten CSF für den jeweiligen Fall zu. So ist es in einer technologiegetriebenen Initiative besonders wichtig, dennoch eine konkrete und relevante Problemstellung aus der Praxis des Unternehmens zu definieren, die mit der jeweiligen Methode zu lösen ist. Dies erhöht die Einbindung (engl. involvement) der beteiligten Stakeholder und ermöglicht mittelfristig, das Projekt als Referenz zu nutzen, an dem eine spezifische Auswirkung des Data Analytics-Projektes und Verbesserung eines existierenden Problems als „Proof of concept“ aufgezeigt werden kann. Im Gegensatz dazu hat eine problemgetriebene Initiative bereits einen konkreten Fokus auf eine existierende Fragestellung im Unternehmen. Hier ist es von besonderer Relevanz, die passenden Stakeholder von Beginn an in die Umsetzung einzubinden.
Abbildung 3: Mögliche Antriebe für eine Data Analytics-Initiative mit verknüpften Erfolgsfaktoren
Bezug |
Motivation |
Leitfrage |
CSF |
Inhaltlich |
Problem-getrieben |
„Wie kann ich mein operatives Problem mit Daten lösen? |
Stakeholder (intern) |
Extern |
Technologie-getrieben |
„Wie kann ich diese Technologie zur Datenanalyse einsetzen?“ |
Konkreter Problembezug |
Ressourcen (intern) |
Daten-getrieben |
„Wie kann ich diese vorliegenden Daten wertschöpfend nutzen?“ |
Use Case Identifikation |
Extern |
Transfer-getrieben |
„Wie kann ich eine zu einer anderen Institution passende Anwendung aufbauen?“ |
Stakeholder (extern) |
Inhaltlich |
Transparenz-getrieben |
„Wie kann ich mein Verständnis für diesen Bereich mit Daten verbessern?“ |
Check Daten-verfügbarkeit |
Tabelle 1: Mögliche Motivation für eine ADA Initiative mit verknüpften Erfolgsfaktoren
Die jeweiligen Erfolgsfaktoren sind hier nur als hervorgehobene Beispiele zu sehen – ein erfolgreiches Data Analytics-Projekt erfordert die Berücksichtigung einer Vielzahl von Facetten, insbesondere die Reflektion der Einflüsse von der technologischen, organisationalen und vor allem menschlichen Anpassungen. Bei einer solchen soziotechnischen Herangehensweise stehen im Gegensatz zu einem rein technologisch fokussierten Ansatz sehr relevante Bereiche, wie die notwendige Schulung der Mitarbeiter im „Data Thinking“ im Zentrum.[7]
Über die Auswahl eines individuellen Anwendungsfalls hinaus kann bei der strategischen Vorgehensweise beim Aufsetzen einer unternehmensweiten Data Analytics-Initiative unterschieden werden in die Fokussierung auf strukturell oder anwendungsbetonte Ansätze. Erstere schaffen zunächst eine breite Grundlage sowohl hinsichtlich technischer Erfordernisse als auch Einstellungen bei den Mitarbeitern, um anschließend auf Basis dieses Fundaments Anwendungen aufzubauen. Letztere sind fokussiert auf die möglichst schnelle Umsetzung initialer Analytics-Anwendungen auf Basis der zu diesem Zeitpunkt zur Verfügung stehenden Ressourcen. Ein simultanes Vorgehen sucht den Mittelweg aus beiden Prioritäten.
Obgleich beide Vorgehensweisen ihre Berechtigung haben und sich in Unternehmen wiederfinden, ergeben sich verschiedene Vor- und Nachteile durch die jeweilige Ausrichtung, welche sie für ein Unternehmen passender oder unpassender machen können. Während anwendungsbetontes Vorgehen den Vorteil schneller Ergebnisse aufweist, die anschließend als Beleg für den Mehrwert von Analytics-Anwendungen aufgezeigt werden können, ist strukturell betontes Vorgehen konservativer ausgelegt und bietet gerade traditionelleren Unternehmen die Möglichkeit eines langsameren Wandlungsprozesses. Dieses graduelle Vorgehen findet bei Unternehmen oft Anklang, da sie skeptisch sind, sich direkt Anwendungen zuzuwenden ohne „ihre Hausaufgaben gemacht“ zu haben. Im Bereich der Data Analytics ist es jedoch auch Unternehmen mit konservativen Strukturen und Kulturen anzuraten, eine gewisse Experimentierfreude mitzubringen. Das Aufschieben spezifischer Umsetzungen zugunsten des Aufbaus weitreichender Infrastruktur reduziert das Engagement der beteiligten Mitarbeiter und kann zum Aufbau redundanter Systeme führen, die nicht den tatsächlichen Erfordernissen entsprechen. Ein simultanes Vorgehen ist daher ein Kompromiss, der zum Ziel hat, iterative Fortschritte bei wahrnehmbaren Anwendungen mit dem Aufbau eines soliden Fundaments zu verbinden.
Abbildung 5: Strategisches Vorgehen bei der Ausrichtung der Data Analytics-Initiative im Unternehmen
Datenanalyse in der Anwendung: algorithmische Preisgestaltung
Das Unternehmen SITRA Spedition GmbH ist ein mittelständisches Familienunternehmen mit Sitz in Hamburg-Wilhelmsburg, das im Jahr 1994 gegründet wurde und verschiedene speditionelle Dienstleistungen anbietet. In einem kooperativen Projekt mit der SITRA Spedition GmbH und der Technischen Universität Hamburg als Vertreterin des Mittelstand 4.0-Kompetenzzentrums Hamburg wurde zunächst eine übergreifende Analyse der Datenlage und vorhandenen Auswertungsmöglichkeiten im Unternehmen durchgeführt. Anschließend wurden mögliche Anwendungen von Data Analytics evaluiert und als prototypischer Anwendungsfall ein maschinelles Lernmodell aufgebaut, das die Durchführung einer automatisierten, kundenauftragsspezifischen Preisermittlung ermöglichen soll.
Abbildung 6: Strukturiertes Vorgehen bei der Datenanalyse
Damit bewegt sich der Use Case im Bereich der Prädiktiven Analyse, welche die Vorhersage der Ausprägung bestimmter Variablen anstrebt. Es existieren verschiedene maschinelle Lernverfahren zur Entwicklung eines Modells zur Vorhersage und Erzeugung von Handlungsempfehlungen. Eine recht einfache Möglichkeit, bestehende Analytics-Probleme zu lösen, ist dabei die Durchführung einer multiplen Regressionsanalyse, bei der neben der Fortschreibung der historischen Daten auch branchenspezifische Indikatoren als weitere Parameter in die Analyse einfließen. Diese wurde im Projekt als erster Schritt umgesetzt, um zeitnah eine wertschöpfende Lösung zu implementieren. Präzisere, aber auch komplexere, Analyseverfahren können weiterführend implementiert werden.
Nachdem die betriebswirtschaftliche Problemstellung definiert wurde, konnte anschließend daraus das Analytics-Problem abgeleitet werden. Die zur Lösung des Analytics-Problem notwendigen Ressourcen, insbesondere die notwendigen Daten wurden anschließend gesammelt und bereitgestellt.[8] Bevor ein maschinelles Lernverfahren ausgewählt und entwickelt werden konnte, musste sich zunächst ein Überblick über den existierenden Datensatz verschafft werden. Dazu wurde für ein besseres Verständnis über die Daten eine erste deskriptive und graphische statistische Analyse durchgeführt, um so erste Erkenntnisse zu gewinnen, einen Eindruck über die Datenqualität zu erhalten und Muster zu entdecken.
Unabhängig von der Wahl der Analytics-Methode zeigte sich, dass die Datenqualität im Rohdatensatz nicht für die Erstellung eines analytischen Modells, das valide und wertstiftende Ergebnisse liefert, ausreicht. Aus diesem Grund wurden in einem nächsten Schritt Überlegungen angestellt, welche Maßnahmen getroffen werden können, um die Datenqualität zu steigern und inhaltliche Verzerrungen in dem Datensatz zu eliminieren. Mithilfe dieser Maßnahmen, wie beispielsweise der Entfernung fehlender Werte oder die Identifizierung und Eliminierung von Ausreißern, konnte die Datenqualität hinsichtlich der Dimensionen Vollständigkeit und Korrektheit gesteigert werden. Nach Durchführung dieser Maßnahmen war der Datensatz für die Anwendung des maschinellen Lernmodells aufbereitet.
Neben der Vorbereitung des Datensatzes auf die Anwendung der Analytics-Methode, ist auch die Wahl einer geeigneten Methode selbst von entscheidender Bedeutung und hängt dabei entscheidend von der Definition des Analytics-Problems ab. Im Fall der SITRA Spedition GmbH wurde das Ziel definiert, den Preis eines Auftrags automatisiert zu ermitteln. Der Preis stellt also eine konkrete Antwortvariable dar, die es mithilfe der für die Preisbildung entscheidenden Parameter unter Verwendung eines maschinellen Lernmodell vorherzusagen gilt[9]. Es zeichnete sich ab, dass die Durchführung einer Regressionsanalyse ein geeignetes Verfahren zur Ermittlung des Preises auf Basis der vorliegenden Daten darstellt. Die Regressionsanalyse ist ein weitverbreitetes und gut dokumentiertes Verfahren und zur Konstruktion eines Prognosemodells geeignet. Aus der deskriptiven Analyse des Datensatzes und den in den Gesprächsrunden berichteten bisherigen Preisbildungen konnte angenommen werden, dass der Preis von mehr als einem Parameter abhängt. Es wurde daher ein Prototyp eines multiplen linearen Regressionsmodells zur Bestimmung des Preises entwickelt und die Prognosegenauigkeit des Modells validiert, um das Modell in den praktischen Einsatz zu bringen.
Was sind die zentralen Erkenntnisse zum Projekt?
Mehrwert schaffen mit Analytics
Data Analytics kann helfen, Erkenntnisse aus verfügbaren Daten für betriebliche Entscheidungen zu gewinnen und sich damit einen Wettbewerbsvorteil zu verschaffen. Ziel der SITRA Spedition GmbH ist es, die Rolle des digitalen Vorreiters kleiner und mittlerer Speditionsunternehmen einzunehmen. Das vorliegende Umsetzungsprojekt hat die Spedition auf diesem Weg bei den ersten Schritten begleitet. Das Unternehmen wurde dabei bei der Entwicklung und Einführung von Data Analytics-Anwendungen unterstützt. Das vorliegende Projekt kann ein gutes und lehrreiches Praxisbeispiel für andere Unternehmen darstellen, da es zeigt, wie Projekte im Bereich von Data Analytics angegangen werden und welche Probleme auftreten können.
Literatur
[1] Chaudhary, R.; Pandey, J. R.; Pandey, Pr. (2015): Business model innovation through big data. In: Green Computing and Internet 08.10.2015, S. 259–263.
[2] Sedkaoui, S. (2018): Data analytics and big data. Hoboken, London, UK: John Wiley & Sons Inc; ISTE Ltd (Information systems, web and pervasive computing series).
[3] Kersten, W.; Dörries, F.; Lodemann, S.; Indorf, M.; Müller, M. A. (2019): Qualifizierung von Führungskräften für die digitale Ökonomie. In: Dieter Spath und Birgit Spanner-Ulmer (Hg.): Digitale Transformation - gutes Arbeiten und Qualifizierung aktiv gestalten (Schriftenreihe der Wissenschaftlichen Gesellschaft für Arbeits- und Betriebsorganisation), S. 163–186.
[4] Dubey, Rameshwar; Gunasekaran, Angappa (2019): Big data analytics capability in supply chain agility. In: Management Decision 57 (8), S. 2092–2112.
[5] Vilminko-Heikkinen, R., & Pekkola, S. (2019). Changes in roles, responsibilities and ownership in organizing master data management. International Journal of Information Management, 47, 76-87.
[6] Osterwalder, A.; Pigneur, Y.: Business model generation. A handbook for visionaries, game changers, and challengers (Strategyzer series), Hoboken NJ 2010
[7] von See, B. & Kersten, W. (2018). Arbeiten im Zeitalter des Internets der Dinge. Wie Qualifikation, Organisation und Führung digital transformiert werden. Industrie 4.0 Management, 34(3), S. 8–12.
[8] Seiter, M. (2017): Business Analytics. Effektive Nutzung fortschrittlicher Algorithmen in der Unternehmenssteuerung. München: Franz Vahlen.
[9] van der Aalst, Wil M. P. (2011): Process Mining. Berlin, Heidelberg: Springer Berlin Heidelberg.
Autoren:
Sebastian Lodemann, M. Sc., wissenschaftlicher Mitarbeiter am Institut für Logistik und Unternehmensführung der Technischen Universität Hamburg
Prof. Dr. Dr. h. c. Wolfang Kersten, Leiter des Instituts für Logistik und Unternehmensführung der Technischen Universität Hamburg
[1] Vgl. Chaudhary et al 2015
[2] Vgl. Sedkaoui 2018, S. 8f.
[3] Vgl. Kersten et al 2019, S. 182
[4] Vgl. Dubey & Gunasekaran 2019, S. 2105
[5] Vgl. Vilminko-Heikkinen & Pekkola 2019, S. 76
[6] Vgl. Osterwalder & Pigneur (2010)
[7] Vgl. von See & Kersten 2018, S. 10
[8] vgl. Seiter 2017, S. 39 und 67
[9] Vgl. van der Aalst 2011, S. 63
2022 © HANDELSKAMMER HAMBURG