Benjamin Schulte, Vorstand und Chief Operating Officer (COO) bei der Comma Soft AG
Big Data, Data Science, Predictive Analytics: Technologien zur Auswertung großer Datenmengen sind heute in immer mehr Unternehmen auf dem Vormarsch. Und doch: Bereits 2015 suchte man entsprechende Schlagwörter im angesehenen „Hype Cycle“ der Analysten von Gartner vergeblich. Der Grund: Big Data ist längst kein Hype mehr. Zahlreiche Anwender haben in den letzten Jahren beeindruckende Einsatzszenarien auf Basis der ihnen vorliegenden Datenschätze entwickelt. Sie steuern ihre Produktion effizienter und weniger störanfällig, haben ihr Leistungsportfolio geschärft oder führen Marketingaktivitäten zielgerichteter aus. Sie sind insgesamt näher an ihre Kunden herangerückt und kennen deren Bedürfnisse deutlich besser als zuvor.
Grundlage dieser wertvollen Erkenntnisse waren – natürlich – die jeweiligen Unternehmensdaten. Die Eigenleistung jener Unternehmen, die heute erfolgreiche Big-Data-Strategien implementiert haben und sich dadurch einen Wettbewerbsvorteil verschaffen, besteht vor allem darin, einerseits die richtigen Fragestellungen formuliert zu haben und andererseits geeignete technologische Hilfsmittel zur Beantwortung dieser Fragen einzusetzen.
Big Data-Analysen: nicht einfach Out of the Box
Die Wettbewerber der oben beschriebenen Pioniere müssen sich daran messen lassen, sonst haben sie langfristig vermutlich keine Zukunft im Markt. Doch noch immer zögert die breite Masse, den eigenen Umgang mit den wachsenden Datenmengen zu systematisieren. Die Gründe sind vielschichtig. Vor allem Budgetrestriktionen, Bedenken bei der Datensicherheit oder schlicht ein Mangel an Vorstellungskraft hinsichtlich der Werthaltigkeit vorliegender Daten verhindern, dass die gezielte Entwicklung strategischer Maßnahmen zum Mainstream wird.
Ein weiterer Grund für die andauernde Zurückhaltung vieler Unternehmen ist sicher das Fehlen von unmittelbar wirksamen Out-of-the-Box-Lösungen, wie sie oft insbesondere kleinere und mittlere Unternehmen bevorzugen. Anwender, die auf Plug-and-Play-Lösungen gehofft hatten, die ihnen auch die strategische Eigenleistung abnehmen, warten noch immer vergeblich.
Die gute Nachricht: Trotz der noch immer vorhandenen Einstiegshürden tut sich etwas. Immerhin nutzt laut einer aktuellen Umfrage von Bitkom Research und KPMG [1] zufolge bereits ein Drittel der deutschen Unternehmen Big-Data-Analysen für die Auswertung großer Datenmengen. Das ist ein Schritt in die richtige Richtung, zumal vor zwei Jahren nicht einmal ein Viertel der befragten Unternehmen in diesem Bereich aktiv war.
Doch steht diesem Ergebnis wiederum eine aktuelle Umfrage von Capgemini im Auftrag von Informatica unter 200 Führungskräften aus dem IT- und Datenmanagement in Europa und den USA gegenüber, die ein ernüchterndes Bild hinsichtlich der Profitabilität der bereits initiierten Projekte zeichnet: Demnach würden sich bisher gerade einmal 27 Prozent der entsprechende Initiativen wirtschaftlich auszahlen [2]. Die Wirtschaftsforscher sehen in diesem Kontext vor allem die Organisation, Steuerung und Verankerung des Vorhabens im Business als Schlüsselfaktoren für den tatsächlichen Nutzen von Big-Data-Projekten.
Erfolgsfaktor: Systematisches Vorgehen
Die Entwicklung eines erfolgreichen datenzentrierten Geschäftsmodells erfordert also Kompetenzen auf verschiedenen Ebenen und ein systematisches Vorgehen, das sich aus meiner Sicht in die folgenden fünf verschiedenen Teilbereiche aufschlüsseln lässt:
Strategie
Am Anfang jeder datengetriebenen Erkenntnis steht eine kluge Fragestellung. Sie leitet die Neuausrichtung einer Strategie. Bei der Entwicklung von Leitfragen ist es hilfreich, sich mit bereits erfolgreich implementierten Big-Data-Use-Cases der eigenen Branche vertraut zu machen. Oft können sie ein wertvoller Ansatz sein, in Teilen adaptiert werden oder sie inspirieren zur Entwicklung gänzlich neuer Modelle. Im Anschluss ist zu prüfen, welche Datenbasis für die Beantwortung dieser Fragen vorliegt bzw. sich herstellen lässt.
Infrastruktur
Für eine erfolgreiche Auswertung mitunter gigantischer Datenmengen müssen selbstverständlich Fragen der Speicherung, Verfügbarkeit und Zuverlässigkeit beantwortet werden. Zudem spielt die Agilität der Systeme eine immer größere Rolle, damit Anwendungsfälle schnell und mit geringen Investitionskosten im Sinne eines Fail-Fast-Ansatzes initiiert werden können. Agilität bedeutet in diesem Kontext auch, sich unter Umständen nicht zu lange in einem wünschenswerten Use Case festzubeißen, der sich in der Praxis als nicht zielführend erweist. Stattdessen sollte es die Infrastruktur Unternehmen ermöglichen, verschiedene Anwendungsfälle in kurzen Projektzyklen zu testen. In diesem Bereich müssen zahlreiche Unternehmen noch massiv umdenken, wenn sie mit Big-Data-Projekten Erfolg haben wollen.
Tool-Set
Der Erfolg einer datengestützten Neuausrichtung des eigenen Geschäftsmodells steht und fällt mit der Auswahl geeigneter Software-Lösungen. Das betrifft im Kern einerseits eine möglichst flexible Plattform für operative Geschäftsanwendungen, durch die auch komplexe, datenbasierte Prozesse mit anspruchsvollen Zugriffsregeln abgebildet werden können. Durch sie entsteht in der täglichen Arbeit aus bisher isolierten Einzeldaten ein hochintegriertes Informationsnetz. Dieses effektiv anzuzapfen ist wiederum die Aufgabe einer Analytik-Software: Moderne Data-Science-Lösungen umfassen eine Vielzahl von Methoden aus den Bereichen maschinelles Lernen, statistische Modellierung, Musterkennung, Data Mining oder Predictive Analytics.
Prozesse
Doch wie lassen sich derart komplexe Auswertungsmethoden so in die täglichen Arbeitsabläufe integrieren, dass aus einer theoretischen Fragestellung ein praktischer und unmittelbarer Nutzen entsteht? Die Antwort: Durch den permanenten Dialog zwischen Fachanwendern und Datenbasis. Die Fachabteilungen, in denen Unternehmen ihre Datenschätze vermuten, sollten vom ersten Tag an in die Entwicklung einer Strategie eingebunden werden. Denn hier werden später auch die wertvollen Erkenntnisse zu Tage gefördert und zum Vorteil des Unternehmens eingesetzt. Da die Auswertungsmethoden im Bereich der Datenanalyse aber äußerst komplex sein können, stellt sich die Frage, wie einzelne Datenabfragen auch verschiedenen Fachanwendern im Unternehmen gelingen können, ohne dass jeweils ausgebildete Data Scientists ins Boot geholt werden müssen. Hier haben die führenden Anbieter in den letzten Jahren einiges getan: Moderne Self-Service-Lösungen legen den Fokus auf eine hohe Usability und visuelle Analyse-Features, durch welche die Ergebnisse schnell greifbar und verständlich aufbereitet werden können.
IT- und Informationssicherheit
Weil die Bedrohungsszenarien durch Cyber-Kriminelle täglich zunehmen, liegen die Risiken für Unternehmen auf der Hand, die eine wachsende Datenbasis zum Ausgangspunkt ihres Geschäftsmodells machen. Nicht ohne Grund nennen 42 Prozent der von Capgemini befragten europäischen Unternehmen Bedenken bei der Datensicherheit als größte Herausforderung in Bezug auf die Implementierung von Big-Data-Technologien. Es gilt also, stets Fragen der IT- und Informationssicherheit – inklusive des Schutzes personenbezogener Daten – im Blick zu behalten, um den nicht zu unterschätzenden Bedrohungen funktionsfähige Abwehrsysteme entgegen zu setzen. Andernfalls könnten die Seeräuber im Datenmeer, die derzeit leider ebenfalls einen konjunkturellen Aufschwung erleben, leichte Beute machen.
Fazit
Die beschriebene Vielschichtigkeit von Big-Data-Projekten macht deutlich, dass es mehr als lediglich der richtigen Software bedarf, um wirtschaftlichen Nutzen aus den wachsenden Datenmengen zu ziehen. Zugleich wird klar, dass es sich hierbei nicht um ein isoliertes Projekt handeln sollte, das sich lediglich in der IT oder einer bestimmten Fachabteilung abspielt. Die Interaktion und effektive Nutzung der verfügbaren Datenbasis sollten im Idealfall als zentraler Treiber für die ganzheitliche Neuausrichtung des eigenen Geschäftsmodells verstanden werden.
Unternehmen profitieren in diesem Zusammenhang von IT-Dienstleistern, die nicht nur eine bestimmte Lösung verkaufen können oder wollen, sondern in der Lage sind, vielseitige Kompetenzen zu bündeln und somit zum vollumfassenden Begleiter bei der digitalen Transformation zu werden. Das schließt neben umfangreichem Know-how rund um Soft- und Hardware auch Consulting-Expertise in Bezug auf Strategie, Infrastruktur, IT-Sicherheit und Prozessberatung ein. So können Anwender Reibungsverluste minimieren und eine stringente strategische und technologische Umsetzung erreichen.
Die Comma Soft AG gegründet 1989, unterstützt Kunden bei der Umsetzung der digitalen Transformation. Das Leistungsspektrum umfasst Data Science-, Analytics-, IT-Strategie, IT-Architektur und Security-Consulting sowie die dazu passenden Software-Produkte und Lösungen. Am Stammsitz in Bonn arbeiten 135 Mitarbeiter im Unternehmen.
Quellen
[1] „Mit Daten Werte schaffen“, Report 2016
[2] „The Big Data Payoff – Turning Big Data into Business Value“, Report 2016