Autor – Wolfgang Seybold, CEO Cubeware Group
Analytische Anwendungen in Unternehmen brauchen eine solide, einheitliche Datengrundlage. Oft wird das bei Business-Intelligence(BI)-Projekten nicht ausreichend berücksichtigt. Das führt zu inkonsistenten Analysen, hohen Folgekosten und dem Risiko von Compliance-Verletzungen. Was hilft, ist eine holistische Informationsarchitektur mit einer zentralen „Datendrehscheibe“, um interne und externe Datenquellen optimal auswerten zu können. Die Ziele: Neue Markterkenntnisse gewinnen, Produktoptimierungen durchführen, Innovationen schaffen, langfristig Kunden binden, dem Wettbewerb enteilen. Dieses gesteigerte Interesse an Analysetätigkeiten hat einen erfreulichen Effekt für die Softwareindustrie: Der BI-Markt wächst im Durchschnitt jährlich um elf Prozent und erreichte 2013 in Deutschland, laut einer Studie der Analysten von BARC [1], ein Volumen von 1,47 Milliarden Euro – Tendenz steigend.
Mit vielen Versprechen garniert, drängen dabei neue Technologien und Methoden wie Big Data, BI-Selbstbedienungsportale, Advanced Planning und Advanced Visualization und noch viele mehr in den Markt. Besonders prominent: Big Data. So berichtete IDC schon 2014, dass 30 Prozent der professionellen Dienstleister ihre Big-Data- und Analytics-Spezialisten um 30 Prozent aufgestockt hätten und weitere 42 Prozent eine solche Maßnahme planten [2]. Die Zahl der Anbieter von Big-Data-Tools soll sich zudem in den kommenden Jahren verdreifachen.
In der Praxis allerdings stehen die meisten BI-Anwender vor sehr viel grundlegenderen Problemen als der Auswahl der nächsten neuen Analysetechnologie. Anlässlich einer Tagung zum Einsatz intelligenter Algorithmen im Handel in München sagte beispielsweise Martin Meyer-Gassner, Gründer und Geschäftsführer des Beratungsunternehmens The Strategy Web: „Viele Unternehmen wollen Smart oder Big Data machen, haben aber ihre einfachen Kundendaten nicht im Griff. Oft wollen die Dateneigentümer ihr Wissen schlicht nicht teilen.“
Einheitliche Datenbasis sorgt für konsistente Analysen
Daher verwundert es nicht, dass BARC in seiner Analyse feststellt, dass die Aufwendungen für Datenmanagement-Tools im Jahr 2013 um 20 Prozent zugelegt hätten [1]. Denn Unternehmen müssen die vielerorts gewachsenen Informationsinseln nun dringend konsolidieren. Ansonsten greifen Mitarbeiter für ähnliche Fragestellungen auf völlig unterschiedliche Datenpools zu, weil keine einheitliche Datenbasis, keine zentrale „Datendrehscheibe“ existiert. Die Folge: Eine Frage, fünf verschiedene Antworten. Welche ist nun die richtige?
Doch selbst wenn alle auf denselben Rohdaten arbeiten, jede Abteilung, jede Hierarchie-Stufe, ja jede Position in einem Unternehmen hat ihre ganz speziellen Anforderungen an Informationen. Diese müssen adäquat adressiert werden, um wirklichen Mehrwert im Alltagsgeschäft zu bieten: Das Management braucht in der Regel ein möglichst einfach gehaltenes Dashboard, wo auf den ersten Blick zu erkennen ist, ob im Unternehmen oder in einer Abteilung etwas schiefläuft. Details hinunter bis auf Belegebene sind dagegen meist die Domäne der Fachabteilungen. Und mobile Mitarbeiter brauchen wiederum möglichst knapp gehaltene Daten in Smartphone- oder Tablet-tauglichen Formaten. Hier liegt ein gravierendes Risiko: Ohne vereinheitlichte Datenbasis und Tool-Landschaft können auf Dauer die Erkenntnisse der einzelnen Bereiche so weit divergieren, dass das innerbetriebliche Vertrauen zwischen ihnen und auch das Vertrauen in die verwendeten Daten und Informationen und damit letztlich in die Technologie selbst leidet.
Fünf grundlegende Anforderungen für Datenprozesse
Die fünf grundlegenden Herausforderungen der unternehmensweiten Datenanalyse – man spricht auch vom „BI-Fünfkampf“ – sind seit jeher dieselben. Sie haben sich aber durch die Datenflut, neue Technologien und Zugangsformen verschärft und werden fürs „datengetriebene Unternehmen“ und eine analytische Unternehmenskultur immer wichtiger:
- Datenmanagement: Wer unterschiedliche Datensilos unverbunden und zusammenhanglos nebeneinander stehen lässt, darf sich nicht wundern, wenn am Ende Fachabteilungen dieselbe Frage mit vollkommen anderen Daten unterfüttern und zu verschiedenen Antworten gelangen. Eine BI-Lösung sollte deshalb möglichst alle verfügbaren Datenquellen unkompliziert miteinander verbinden und widerspruchsfrei integrieren.
- Datenmodellierung: Nur wer gut durchdachte und auf die individuellen Bedürfnisse der Fachabteilungen abgestimmte Datenmodelle einsetzt, kann sicher sein, die richtigen Entscheidungen auf der bestmöglichen Datengrundlage zu treffen. Ein BI-System sollte daher imstande sein, schnell und einfach widerspruchsfreie Modelle aufzubauen, zu verifizieren und zu modifizieren, um auf Veränderungen jederzeit adäquat reagieren zu können.
- Data Governance: „Wer darf überhaupt auf welche Daten mit welchen Befugnissen zugreifen?“, heißt die Gretchenfrage der modernen BI-Welt. Nur wer interne und externe Regeln einhält, kann sicher sein, sich auch hinsichtlich der Datennutzung angemessen zu verhalten. Moderne BI-Tools sollten deshalb Funktionen für angepasste Berechtigungsmodelle und zur Sicherstellung der Datenqualität bieten. Denn ohne vorgeschaltete Data Governance ist Self-service BI ein sicheres Rezept für das „Datenchaos“.
- Datendistribution: „Wer bekommt welche Reports und Daten auf den Tisch? Welche Granularität ist auf welcher Unternehmensebene notwendig? In welcher Form ist welches Daten-Set am effektivsten?“ Nur wer diese Fragen immer wieder aufs Neue beantwortet, wird das volle Nutzenpotenzial seiner BI-Anstrengungen heben. BI-Lösungen sollten daher flexibel und unkompliziert die Datengranularität anpassen und den Anwendern die Berichte genau in der Form und zu dem Zeitpunkt zukommen lassen können, die für die optimale Entscheidungsfindung benötigt werden.
- Datenvisualisierung: In jedem Unternehmen gibt es unterschiedliche Typen von BI-Anwendern: Business Analysten, Planer, reine Informationskonsumenten etc. Nur wer es schafft, alle Anwender bedarfsgerecht abzuholen, wird am Ende des Tages von der bereitgestellten „Intelligenz“ profitieren. Dafür sollte ein BI-System, auf Basis einer einheitlichen Plattform, spezielle Fachbereichslösungen implementieren können.
Basis einer einheitlichen Informationsplattform, die alle fünf Disziplinen berücksichtigt, ist eine zentrale „Datendrehscheibe“, ein zentraler Daten- und Informationsserver, wie beispielsweise der C8 Server von Cubeware.

Zentraler Server als Basis der Informationsarchitektur
Eingebettet in eine konsistente BI-Plattform sorgt dieser dafür, dass die einzelnen Ebenen – vom Datenmanagement bis hin zur Visualisierung – wie Zahnräder ineinandergreifen, so für eine zuverlässige Daten- und Informationsbasis sorgen, aber dennoch unabhängig voneinander angepasst werden können. Das heißt, Änderungen auf einer Ebene haben keine Auswirkungen auf die Logik darüber- oder darunterliegender Schichten und den Prozess im Gesamten. Dies sorgt zum einen für die nötige Transparenz in den Daten- und Informationsprozessen und zum anderen für die benötigte Flexibilität, um auf Veränderungen interner wie externer Natur schnell reagieren zu können.
Zudem verringert ein zentraler Informationsserver die Betriebsgesamtkosten eines BI-Systems, da sich der Schulungsaufwand reduziert, Eigenentwicklungen abgelöst werden und die aufwendige Integration von Speziallösungen obsolet wird. Durch die Trennung von Entwicklungs-, Test- und Produktivumgebungen können zudem neue Konzepte, Ideen und Lösungen ausprobiert sowie implementiert werden, ohne den operativen Geschäftsbetrieb zu stören. IT-Abteilungen können so problemlos auf Wünsche von Fachanwendern eingehen und Roll-out-Zeiten deutlich verkürzen. Durch den einheitlichen Plattformrahmen gibt es zudem nahezu keine Verzögerungen in den Migrationsprozessen von Applikationen, beispielsweise von Test- auf Produktivsystemen.
Die unterste Ebene einer einheitlichen Informationsarchitektur ist die Verbindungsschicht zu allen Datenquellen, die ETL-Schicht. Die ETL-Prozesse sorgen dafür, dass die Daten aus den Vorsystemen abgezogen, vereinheitlicht und aufbereitet werden, so dass eine valide Datenbasis entsteht. Darüber befindet sich die Datenbankschicht, in der die Daten in analysefähiger Form vorgehalten werden, wie zum Beispiel OLAP-Datenbanken, virtuelle Cubes, relationale Datenbanken, Data Warehouses etc. In der zentralen Serverschicht werden neben der Daten- und Informationsorganisation zudem die grundlegende Struktur der Rollen und Zugriffsrechte abgebildet. Über sie greifen alle Frontend-Applikationen auf den Daten- und Informationspool zu und stellen sie in der gewünschten Form dar. Weil alle Anwender dieselben analytischen Engines und Daten verwenden, werden gleiche Fragen auch gleich beantwortet– allenfalls Detaillierungsgrad und Darstellungsform unterscheiden sich je nach Zielgruppe und Schnittstelle. Eine Frage, eine Antwort – unternehmensweit.

Fazit
Diese Architektur bietet fünf grundlegende Vorteile:
- Ohne die Architektur zu ändern, lässt sie sich durch neue Applikationen schnell an veränderte Informationsbedürfnisse anpassen (fachliche Skalierbarkeit).
- Sie integriert unkompliziert neue Datenquellen, etwa aus Internet-of-Things-Anwendungen oder dem Social-Media-Universum, weil nur Schnittstellenfunktionen auf der Verbindungsschicht nötig sind (Integrationsfähigkeit).).
- Sie ist für Endanwender und IT-Abteilung einfach nutzbar, denn jede Applikation kann auf die Bedürfnisse der jeweiligen Zielgruppe zugeschnitten werden. Administrative und technische Eingriffe auf einer Schicht erfordern keine Veränderung des Gesamtsystems (Ease of Use).).
- Sie erlaubt auf jeder Ebene, ohne die Notwendigkeit neuer Tools, das Hinzufügen neuer oder individualisierter Technologien (technische Skalierbarkeit).).
- Sie ermöglicht den Aufbau eines zentralen, schnell anpassbaren, rechtlich und betrieblich wasserdichten Berechtigungs- und Rollenkonzepts, ohne auf die Anwendungs- oder Datenebene zuzugreifen (Compliance).).
Verwendet ein Unternehmen eine solche ganzheitliche Informationsarchitektur als Grundlage der betrieblichen Datenanalyse, vermeidet es die ständige Neuanschaffung von Werkzeugen und teure Integrationsprozesse. Noch wichtiger ist: Eine solche konsistente BI-Plattform sorgt für Vertrauen und Akzeptanz auf allen Unternehmensebenen. Denn nur wer seinen Daten trauen kann, wird auch aus ihnen abgeleitete Maßnahmen akzeptieren und echten Mehrwert schaffen.
Quellenangaben
[1] http://barc-research.com/research/purchase-bi-research/
[2] http://www.idc.com/getdoc.jsp?containerId=246831
Wolfgang Seybold, CEO Cubeware Group. Cubeware ist Anbieter eines vollständigen Business-Intelligence-Portfolios, das Kunden relevante Einblicke in ihr Unternehmen und ihre Märkte eröffnet. So können schnell essentielle Muster erkannt, Möglichkeiten identifiziert und drohende Probleme vorhersagt werden, damit passende Lösungen gefunden und implementiert werden können.