Interview mit
Jan Falkenstein, Solutions Engineer bei ASG Technologies
und
Dr. Martin Böhn, Vice President Enterprise Applications & related Services Practice bei BARC
Die durchgängige Systemlandschaft – Traum aller IT-Manager und -Architekten – ist bislang ein unerfüllter Traum. Betrachtet werden seit Jahren zwei völlig entgegengesetzte Wege dorthin. Zum einen die Migration von Daten in ein zentrales Archivsystem, zum anderen die Einbindung von Content Silos in die vorhandene Systemlandschaft mittels Schnittstellen. So soll nicht nur eine durchgängige Systemlandschaft geschaffen werden, sondern insbesondere eine übergreifende Informationslandschaft, um die Geschäftsprozesse zu stärken.
Der Königsweg war lange klar: Nur eine echte Migration der Daten in ein einheitliches System galt als ideale Lösung. Seit ein paar Jahren jedoch muss die Unternehmens-IT auch durch die Entwicklung hin zur Cloud immer anspruchsvollere Daten und wachsende Volumina verarbeiten. Nach Aussage des internationalen IT-Marktforschungsunternehmens IDC (International Data Corporation) wird die Menge der weltweit erzeugten Daten in den kommenden Jahren von 33 Zettabytes (2019) auf 175 Zettabytes (2025) ansteigen.
RPA, Mobile Access, KI – und die Rückbesinnung auf den Content
Modernisierungen wie Automatisierung (RPA und BPM), Mobile Access und viele weitere wie KI, Machine Learning und Data Intelligence sind die Buzz Words dieser Tage. Sie klingen verlockend, versprechen Gewinnoptimierung und zielen auf die Nutzerfreundlichkeit. Alles schön und gut. Aber wie ist es um die Qualität der dabei verwendeten Daten bestellt? Auf welcher Basis beruhen die neuen Technologien? Sind Informationen vertrauenswürdig oder fehlerhaft, strukturiert oder unstrukturiert, relevant, aktuell oder veraltet? Und vor allem, sind sie komplett?
„Der Wert eines Dokuments wird durch seine Verwendung im Geschäftsprozess bestimmt.“ Dieser fundamentale Satz von Dr. Martin Böhn, Senior Analyst beim Analystenhaus BARC, fasst die Problematik der Stunde im Kern zusammen, genauso wie der folgende: „Heutzutage dienen die Systeme nicht mehr nur der Informationsverwaltung wie vor zehn, zwölf Jahren, sondern der Informationsnutzung. Es geht nicht nur darum, besonders viel, sondern das Richtige zu haben.“ Oder in anderen Worten: Nur vertrauenswürdige Daten im richtigen Kontext sind gute Daten.
Die enorme Menge exponentiell wachsender, auch unstrukturierter Daten, erfordert eine Art Paradigmenwechsel im Content-Bereich. Das Interview mit Jan Falkenstein, Senior Solutions Engineer aus dem Bereich Content bei ASG Technologies und Dr. Martin Böhn vom Analystenhaus BARC zeigt mögliche Wege zu einem zielgerichteten digitalen Arbeiten.
Herr Falkenstein, wieso ist gerade in unserer heutigen Zeit die Rückbesinnung auf das gute alte ECM so wichtig?
Auch wenn das traditionelle Content Management verstaubt rüberkommen mag, es ist gerade im Moment wichtig wie noch nie. Denn ohne eine gesunde Basis nützen mir die besten und neuesten Funktionalitäten nichts, im Gegenteil, sie verschlechtern mein Resultat eher. Auf den ersten Blick ist alles, was neu ist, alles, was Komfort bringt, immer auch technisch attraktiv. Aber was nützt dieser ganze Überbau, wenn das Fundament nicht stimmt?
Was genau hat sich verändert im Vergleich zu der Situation vor zehn, zwölf Jahren?
Damals waren die Datenmengen noch nicht so groß und die Anforderungen an die Aufbewahrung recht einfach. Im Normalfall hat man sich also einfach ein neues Storage-System dazugekauft. Heute muss man erst prüfen, ob die Systeme es überhaupt schaffen, große Datenmengen zu verarbeiten. Und das dauerhaft. Hinzu kommt die Veränderung der Nutzeranforderungen. Früher gab es eine kleine Gruppe von Anwendern, die, wenn sie etwas wissen wollten, entweder eine E-Mail geschrieben oder im Callcenter angerufen haben. Heute haben wir es mit Digital Natives zu tun, die direkten Zugriff auf ihre Daten von ihrem Smartphone haben wollen.
Was bedeutet das für die Unternehmens-IT?
Neben aller Innovationsflut muss der IT-Beauftragte heutzutage die Belastbarkeit seiner Basis stets im Blick haben. Das ist ein dauerhaftes Thema. Oftmals läuft diese Überprüfung des Fundaments nur so nebenbei, die großen Investitionen gehen eher in die modernen Technologien wie RPA und KI.
Warum tun sich viele damit so schwer?
Etablierte Unternehmen werden durch Newcomer angegriffen, traditionelle Banken und Versicherungen müssen deswegen ihr ganzes Geschäftsmodell auf den Prüfstand stellen, um mit den Startups mitzuhalten. Ein Grund, warum sie sich damit so schwertun, ist nicht zuletzt ihr Unterbau, der eben da ist, die Historie. Startups hingegen können auf der grünen Wiese starten. Den Denkprozess: „Das haben wir schon immer so gemacht“ kennen sie nicht.
Wie können sich etablierte Firmen aus diesem Dilemma befreien?
Es geht unter anderem darum, die Historie, die man hat, nicht als notwendiges Übel zu betrachten, sondern die Basis soweit mit zu entwickeln, dass sie den modernen Trends standhält. Nur so können etablierte Unternehmen im Markt gegenüber den FinTechs und InsurTechs dieser Welt mithalten, die ihre Basis eben von Anfang an schlank und modern aufbauen können. Ich kann es nicht oft genug betonen: Es ist überlebenswichtig, das Fundament, sprich das Content Management, nicht außer Acht zu lassen, sondern in die Modernisierungsstrategie mit einzubeziehen.
Wie bewerten Sie die Bedeutung der Historie für ein Unternehmen in Bezug auf sein Wachstum?
Auf den ersten Blick sind Unternehmen, die zehn bis fünfzehn Systeme haben und Terrabytes an Informationen, nicht so flexibel und innovativ wie ein zwei Jahre altes Cloud-System. Aber auf den zweiten Blick wird ziemlich schnell klar: All die Daten und Einblicke in das Kundenverhalten der vergangenen Jahrzehnte sind unschätzbar wertvolle Informationen, in deren exakter Auswertung und zielgerichteter Nutzung eine große Chance für das Unternehmen steckt. Sie können über unzählige Interaktionen in andere Bereiche wie Data Intelligence oder Automatisierungsprozesse direkt genutzt werden – allerdings eben nur, wenn die Basis stimmt, wenn sie modern und zentral zugreifbar ist. Ist sie das nicht, dann verfügt ein Unternehmen zwar eventuell über modernste Technik, die aber komplett zahnlos ist.
Herr Dr. Böhn, wie lässt sich das Content Management trotz steigender Datenvolumina in den Griff bekommen?
Wir kennen das Grundproblem alle aus unserem täglichen Arbeitsumfeld: Die Informationsflut ist riesig. Chats, E-Mails, Social Media Posts, Webinare, Audiomitschnitte, alle Formate tragen Informationen in sich, die ich zu einem bestimmten Zeitpunkt benötige. Nur: Wie finde ich diese bei Bedarf? Schnell und ohne Umwege? Der Handlungsdruck wächst, der Mitarbeiter beginnt wie wild zu suchen. Nicht nur die Prozessbearbeitung leidet darunter, im Grunde strahlt das Problem auf alle Services aus, von Audit über Compliance bis hin zur User Experience. Für den Anwender ist in einem solchen Moment nicht die Speicherung der Informationen wichtig, sondern deren konkrete, bedarfsgerechte Verwendung.
Liegt die Information einmal vor, muss diese meist kommunikationsintensiv bearbeitet werden, d.h. ein reines ERP-System zur kaufmännischen Abwicklung oder ein Projektmanagementsystem allein wird nicht mehr ausreichen. Um diese Prozessstrukturen, also zum Beispiel die Frage, wer ist wann wie zu benachrichtigen, schneller in den Griff zu bekommen, sind gezielte Vorgaben wichtig. Allerdings sind diese Vorgaben schwierig umzusetzen, wenn sehr viele Informationen vorliegen oder sehr viel Neues dazugekommen ist. Und genau hier setzt dann Content Analytics an.
Was genau kann Content Analytics?
Mit Hilfe von Schlagwortlisten, Regelwerken und Klassifikationsalgorithmen lassen sich hiermit die Beziehungen zwischen verschiedenen Inhalten eines Dokuments sowie zwischen verschiedenen Dokumenten erkennen und nutzen. Dies bezieht sich auch auf Regeln, die danach ausgeführt werden müssen, sprich: „Wenn es diese Information ist, dann muss folgende Benutzergruppe darüber informiert werden.“ Dies alles dient übrigens auch der Schärfung der Strukturen, der Schärfung der eigenen Wahrnehmung – und damit der Verbesserung der Nutzung.
Was bedeutet diese Art der Aufbereitung für den konkreten Anwendungsfall?
Dies bedeutet, ich muss meine Content Stores, meine Data Lakes und Silos, also alle Archive, Dateiablagen, Fachsysteme zunächst einmal – und das ist essenziell – realistisch bewerten. Sind das immer valide Informationen, sind sie unvollständig, sind sie redundant, was ist das führende System, um darauf ein gewichtetes, klassisches Modell anzuwenden. Möchte ich dafür die vorgegebene Metastruktur nutzen oder bereits Content Analytics einfließen lassen? Das ist der moderne Ansatz, die Kombination aus beidem, um damit nicht nur Content zu haben, sondern eben „Smart Content“, d.h. Informationen, die den direkten Kontext gleich dabeihaben, also nutzungsorientiert aufbereitet sind.
Welche Erfahrungen haben Sie in Bezug auf die Umsetzung dieser Varianten?
In Projekten höre ich immer ein magisches Wort: „IMMER“. Also zum Beispiel sagen mir Mitarbeiter: „Wenn ich entscheide, ob diese Anfrage bearbeitet wird, brauche ich IMMER … die letzten fünf Kommunikationen, brauche ich IMMER den Bericht über die aktuelle Auslastung.“ Wenn also dieses IMMER bedeutet, dass ich bestimmte Informationen standardmäßig in diesem Kontext zusammen brauche, dann kann ich diesen Kontext durch Metadaten, Relationen und Akten auch IMMER gleich anzeigen lassen, damit der Bearbeiter sie bewerten und darauf fundiert entscheiden kann. Das heißt auch, alles, was ich nicht direkt automatisieren kann, kann ich hier zumindest unterstützen, indem ich die richtigen Informationen zeitnah zur Verfügung stelle.
Herr Falkenstein, jetzt haben wir viel über die Herausforderungen gesprochen. Was ist denn die Lösung? Was können Unternehmen tun?
Auch wenn in der Theorie das zentrale System sehr verlockend erscheint, wird es in der Realität nicht passieren. Das heißt, Unternehmen müssen Wege finden, clever mit den Informationen in Silos umzugehen und sie miteinander zu verbinden, um die entsprechende Werthaltigkeit zu generieren. Leider gibt es nicht die eierlegende Wollmilchsau, die alle Probleme löst, aber wir haben gute Erfahrungen mit dem so genannten Content Ecosystem oder, auf Deutsch, Content Ökosystem gemacht.
Wie genau sieht das Content Ökosytem aus?
Das Content Ökosystem ist ein Konzept, das auf einer Software basiert, die sich in dem Fall Mobius View nennt. Kern sind sogenannte Connectivity und Interoperability Services. Diese sitzen in der Mitte zwischen den Content-Providern, also den Systemen, die Informationen speichern, und den Content Consumern, also den Anwendern und Applikationen, die diese Informationen verwenden wollen. Das können z.B. zentrale Business Applikationen sein oder Workflow-Systeme, Reporting-Systeme oder auch einfach Data Lakes oder andere Data Intelligence oder Big Data Applikationen.
Zur Integration mit diesen Interfaces und Applikationen gibt es eine REST API, die die verfügbaren Services in den Content Providern zentral und durch einen einzigen Zugriffpunkt zur Verfügung stellt. Wenn jetzt Anfragen kommen, die mehrere dieser Informationsspeicher betreffen, werden diese geroutet und die Resultate entsprechend konsolidiert, so dass die Struktur der Ablage im Hintergrund für den Anfragenden transparent ist.
In Richtung der Content Provider kommen entsprechende Adapter zum Einsatz, die dann z.B. über den CMIS Standard mit anderen Content Repositories wie Filenet, Documentum oder Alfresco kommunizieren oder vorhandene Schnittstellen bedienen.
Was genau kann ein Unternehmen erreichen, wenn es das Content Ökosystem einsetzt?
Die Vorteile sind von Unternehmen zu Unternehmen unterschiedlich, weil die Anforderungen und die vorhandenen Landschaften immer andere sind. Die Erfahrung bisher zeigt aber, dass durch die offenen Standards eine ganze Menge an Informationssystemen und Konsumenten eingebunden werden können. Auf dieser Basis können Informationen gebündelt, einheitliche Regeln zur Nutzung umgesetzt und übergreifende Prozesse implementiert werden. Durch die Verknüpfung der Informationen und die Unterstützung der Anwendung wird der vorhandene Content damit hochwertiger.
Für die eingebundenen Systeme gilt, dass auf die darin enthaltenen Informationen zentral, transparent und durch EIN Eingangstor zugegriffen werden kann. Außerdem kann man die Informationen in diesen Applikationen entsprechend miteinander verbinden, um z.B. Anforderungen zum Reporting oder der Analyse abdecken zu können oder bestimmte Muster zu erkennen. Und auch bei der Modernisierung und Migration kann das Ökosystem eine wichtige Rolle spielen, weil durch den zentralen Zugriff auf die Informationen aufwändige und riskante Big-Bang-Migrationen vermieden werden können. Der Zugriff ist transparent, also kann der Content im laufenden Betrieb im Hintergrund verschoben werden, ohne dass die Anwender oder Applikationen das merken.
Was noch ein wichtiger Punkt ist: Im Einzelfall ist es sogar möglich, dass Systeme durch das Ökosystem um Funktionalitäten erweitert werden, die sie nativ gar nicht haben. Hier gibt es als Beispiel die Redaction, also die Maskierung von Informationen in Dokumenten, die nicht alle Informationsquellen bieten, die aber im gelieferten Content Stream auf der Integrationsebene angewendet werden kann.
Ich denke, zusammenfassend kann man sagen, dass durch das Content Ökosystem Informationssilos wenn schon nicht eliminiert, dann doch zumindest reduziert werden können, das heißt, Unternehmen können sich das zentrale Repository zumindest virtuell bauen, haben aber eben die Kosten, Risiken und Aufwände der Migration nicht. Die getätigten Investitionen werden also geschützt, gleichzeitig wird aber der Weg in die Zukunft geebnet.
Wie können unsere Leser mehr erfahren?
Aktuell arbeiten wir an einer Serie von kurzen Videos, die die einzelnen Teilbereiche des Ökosystems genauer beleuchten. Diese werden dann in der nächsten Zeit nach und nach auf unserem Youtube-Kanal verfügbar sein.
Vielen Dank Herr Falkenstein und vielen Dank Herr Dr. Böhn!
ASG Technologies ist ein global agierendes, ausgezeichnetes und branchenweit anerkanntes sowie von Analysten verifiziertes Softwareunternehmen. ASG bietet als einziger Anbieter eine integrierte Plattform und flexible End-to-End-Lösung für datenverarbeitende Unternehmen. Die Informationsmanagementlösungen der ASG ermöglichen es, Datenbestände zu finden, zu verstehen und Compliance-konform zu verarbeiten.
Dr. Martin Böhn ist Vice President Enterprise Applications & related Services Practice bei BARC. Als Senior Analyst berät er nationale und internationale Unternehmen in den Bereichen Enterprise Content Management, Customer Relationship Management, Wissensmanagement und Prozessmanagement. Er ist Co-Autor verschiedener BARC-Studien und hat über 200 Artikel veröffentlicht und hat zahlreiche Vorträge auf internationalen Veranstaltungen gehalten.
Weiterführende Links:
Webinar „Niedrigere Kosten, smartere Prozesse – Vorteile des modernen Content Ökosystems“: https://www.brighttalk.com/webcast/16255/414997
Blogpost “How Do You Manage Your CONTENT ECOSYSTEM Across Your Organization?”: https://www.asg.com/en/Resources/Blog/July2020/CONTENT-ECOSYSTEM-Across-Your-Organization.aspx