Benjamin Schulte, Geschäftsbereichsleiter INFONEA bei der Comma Soft AG
„Daten sind das neue Öl“: Dieses Bonmot sagt mehr aus, als man zunächst glauben mag. Denn für Unternehmen wird es mehr und mehr zur existentiellen Frage, auf welche Weise der Umgang mit den Datenmengen, deren Kontextualisierung und die Verknüpfung mit relevanten Problem- und Fragestellungen gelingen kann.
Business Intelligence allein ist jedenfalls keine Lösung. BI ist zwar elementar – sie ermöglicht neben der reinen Betrachtung auch das Verständnis der Geschäftsabläufe und bildet die Basis für Vorhersagen zu zukünftigen Entwicklungen. Nur geht sie im Regelfall nicht über das reine Reporting hinaus und ist obendrein ausschließlich retrospektiv angelegt. Auf diese Weise wird ein wesentlicher Punkt in der Diskussion vernachlässigt: Der eigentliche Anwender in der Fachabteilung, der die relevanten Probleme und Fragestellungen aus der täglichen Praxis kennt, verbleibt meist in der Rolle des „einfachen“ Nutzers. Eine wirkliche Interaktion mit den relevanten Anwendungen ist aufgrund einer oftmals geringen Usability nicht möglich – dafür werden stets die Experten aus der IT-Abteilung benötigt.
Einen Schritt weiter geht die Self-Service-BI. Sie soll Anwender dazu befähigen, selbstständig eine Technologie oder eine Software zu nutzen. Im Rahmen des Self-Service-Prinzips kann die entsprechende Technologie nach eigenen Wünschen oder Vorstellungen einsetzt werden, ohne von anderen Personen oder dem IT-Wissen von Experten abhängig zu sein. So können Fachbereiche ihre Reporting- und Analytics-Anforderungen in Eigenregie erfüllen, ohne IT-Ressourcen zu binden und zeitliche Verzögerungen in Kauf nehmen zu müssen. Wesentliche Voraussetzung ist dabei eine entsprechend hohe Usability der verwendeten Tools.
Self-Service-Ansatz
Mit den sogenannten Data-Science-Tools ist nach der allmählichen Etablierung der Self-Service-BI mittlerweile die nächste Generation Software-gestützter Analyseverfahren erreicht. Diese kombinieren Methoden aus den Bereichen maschinelles Lernen, statistische Modellierung, Mustererkennung, Data-/Text-Mining und Predictive Analytics. Entsprechende Anwendungen werden nicht nur im Unternehmensmanagement, sondern auch zunehmend in den Fachbereichen wie Marketing, Vertrieb, Produktion, Personalwesen oder Controlling eingesetzt. Dabei werden, je nach Anforderung, moderne Verfahren und Algorithmen zur Beantwortung bestimmter Fragestellungen verwendet, z. B. aus den Bereichen Klassifikation, Regression, Dimensions-Reduktion oder Zeitreihen-Analyse. Basierend auf ihrem Expertenwissen können Anwender nicht nur das Reporting betreiben und nach ihren Erfordernissen gestalten, sondern eigene Analysen erstellen.
Auch im Bereich Data Science geht der Trend zu einem Self-Service-Ansatz: Die Einbettung von Algorithmus-basierten Anwendungen in das Analyse-Tool ermöglicht eine intuitive und flexible Nutzung durch den Endanwender. Im Gegensatz zur klassischen BI bieten Self-Service-Data-Science-Tools die Kapselung von ausgewählten fertigen Algorithmen, statistischen Berechnungen und verständlichen Visualisierungen in Modulen. Somit erkennen datenaffine Fachanwender nicht nur spielerisch Auffälligkeiten in großen, komplexen Datenmengen – vielmehr sind sie nun auch in der Lage, selbstständig die tieferliegende Ursache zu identifizieren. Die aufwändige Programmierung von statistischen Expertenfunktionen ist somit nicht länger vonnöten.
Kampagnenmanagement
Die Anwendungsbereiche von Data-Science-Tools sind vielfältig: Dazu gehören beispielsweise Ursachenforschung, die Aufschlüsselung von Korrelationen oder die Untersuchung von Datenmustern und Auffälligkeiten. Diese Erkenntnisse, ermittelt von den Fachbereichen selbst, stehen nicht nur unmittelbar bereit, sondern können zu Entscheidungsvorlagen oder konkreten Maßnahmen aufbereitet werden. Der Vertrieb beispielsweise greift gern auf analytische Auswertungen zurück, wenn es um sogenannte „Predictive Analytics“ seines Kundenstamms geht, also um die Analyse von Zukunftsszenarien auf der Basis historischer Daten. Die Ergebnisse werden anschließend zur Zielgruppenoptimierung, Kundenwertsegmentierung oder Realisierung des „Next Best Offer“ genutzt.
Ein gängiges Beispiel aus der Marketingpraxis ist das Kampagnenmanagement: Zielgruppen-affines Marketing ist heute ein Muss, um ein Produkt kosteneffizient beim Kunden platzieren zu können. Hohe Streuverluste hingegen sind nicht mehr bezahlbar. Die Modellierung von Zielgruppen, Produktaffinitäten und Kündigungswahrscheinlichkeiten mit Hilfe eines Analytics-Tools ist daher eine Hauptvoraussetzung für ein effizientes Kampagnenmanagement. Die qualifizierte Erfolgsmessung sorgt für eine stetige Verbesserung zukünftiger Kampagnen. Angebote werden genau auf die Wünsche und Bedürfnisse der Kunden abgestimmt.

Vertriebs- und Marketing-Controlling
Für ein effizientes Vertriebs- und Marketing-Controlling müssen die Daten für die Analysen meist aus einer großen Datenmenge geeignet ausgewählt, je nach Fragestellung korrekt zugeordnet und analysiert werden. In einem Self-Service-Data-Science-Tool bietet sich dem Anwender die Möglichkeit zu systematischen Auswertungen. Der Fachanwender selbst ist in der Lage, die vorliegenden Daten zu verknüpfen und sie zu einem sinnvollen, verwertbaren Ganzen zu formen. Hier fließen beispielsweise Kundendaten (Region, Unternehmensgröße, Bestellhistorie etc.) mit Kennzahlen des betriebswirtschaftlichen Controllings (Return on Investment/ROI, Umrechnungskurse, Auftragsvolumina) sowie Produktions- und Lagerdaten zusammen.
Insbesondere die neuen Quellen von Kundendaten sind so vielseitig wie nie zuvor: CRM und ERP, Web-Shops, Marktforschung und Soziale Medien – die erfolgreiche Strukturierung und Priorisierung der vorhandenen Informationen ist hier ein wesentlicher erster Schritt. Doch auch die Einbeziehung externer Daten zu Faktoren wie beispielsweise dem Wetter können nochmals neue Erkenntnisse ermöglichen.
Predictive Analytics
Dass wirtschaftlich entscheidende Kennziffern in bereits vorhandenen Daten schlummern können, zeigt das Beispiel eines großen deutschen Versicherungsunternehmens. Dieses erkannte plötzlich eine auffällige Entwicklung innerhalb einer spezifischen Zielgruppe: Bei jungen Autofahrern gab es einen überproportionalen Rückgang bei den Neuabschlüssen von Kfz-Versicherungen. Eine daraufhin angeregte Marktanalyse ergab, dass ein Wettbewerber begonnen hatte, die identische Zielgruppe mit speziellen Angeboten anzugehen. Mit einer schnell initiierten und gezielten Promotion sowie angepassten Produkten gewann der Versicherer seine Marktanteile zurück.
Die vorausschauende Datenanalyse bietet aber nicht nur im Vertriebskontext große Potenziale. Auf dem Weg zur vernetzten Industrie 4.0 ergeben sich weitreichende Chancen zur Effizienzsteigerung im konkreten Produktionszusammenhang: So gewinnt ein deutsches Pharmaunternehmen heute bereits Erkenntnisse aus Sensordaten, um einem Ausfall seiner rund 1.000 Maschinen in der Produktion vorzubeugen. Spezielle Sensoren werden dafür eingesetzt, um unter anderem die Vibration von Maschinenteilen zu messen. Mithilfe eines Algorithmus erkennt die Software Vibrationsmuster, die auf Basis historischer Daten einen Defekt vorhersagen können. So kann der Wartungsdienst rechtzeitig eingreifen, teure Produktionsstillstände verhindern und Reparaturkosten einsparen.

Fazit
Nicht in jedem Fall kann man jedoch auf vorgefertigte Analysemodule setzen. Viele Unternehmen betreten bei der Umsetzung von Data-Science-Projekten heute nach wie vor Neuland. Oft lässt sich der konkrete Mehrwert der neuen Methoden oder Herangehensweisen erst durch ein Pilotprojekt evaluieren. Die Auswahl der richtigen Anwendung ist dabei ebenso wichtig wie die Auswahl der geeigneten Daten und Methoden. Die Umsetzung erfolgt iterativ, sie muss offen für neue Erkenntnisse sein und diese direkt in die Lösungen einfließen lassen.
Letztlich aber zeigen die Erfahrungen: Die Qualität der Analysen steigt kontinuierlich, der Aufwand hingegen sinkt, wenn der Fachanwender seine thematische Expertise und Erfahrungen einfließen lässt. Gleichzeitig stehen die Ergebnisse dem Fachbereich unmittelbar zur Verfügung, wodurch auch laufende Maßnahmen wie Marketingkampagnen oder vertriebliche Vorgehensweisen dynamisch angepasst bzw. korrigiert werden können. Sind die beschriebenen Voraussetzungen erfüllt, wird der Ritt auf der Datenwelle zu einem Erfolgserlebnis.
Benjamin Schulte, Geschäftsbereichsleiter INFONEA bei der Comma Soft AG. Die Comma Soft AG wurde 1989 gegründet und hat sich seitdem einen Namen als innovatives IT-Beratungs- und Software-Haus gemacht. Das Leistungsspektrum umfasst Business Intelligence- & Data Science-Lösungen sowie IT-, Security- und Resilience-Consulting. Große und mittelständische Unternehmen in der DACH-Region – darunter zahlreiche DAX-Konzerne – zählen zu den Kunden des Unternehmens mit Stammsitz in Bonn und 135 Mitarbeitern.