Wenn wir über Digitale Transformation reden, wirft spätestens im nächsten Satz jemand das Schlagwort „Big Data“ ein, und meint „Realtime Analytics“. Der Wunsch ist klar „Alles wissen und zwar sofort“. Nur: So bedeutend dieser Digitalisierungsaspekt ist, so wenig setzen ihn die Anwender bisher um. Was hält uns dabei auf? Ich meine es ist eine doppelte Hürde: Die Komplexität im Angebot der Software-Lösung sowie in ihrer Umsetzung. Die Antworten der Hersteller zeichnen sich hierzu bereits ab.

Gesamtpaket oder Open-Source-Bauteile? Beides ist möglich

Auf unserem lokalen Ableger der CWIN – der Week of Innovation Networks – musste ich als Architekt zunächst feststellen, dass zur Unterstützung fast aller statistischen Modelle, Analysen und für jeden Aspekt der Umsetzung unterschiedliche Software in unterschiedlicher Granularität und verschiedensten Reifegraden erhältlich ist. Beschaffen kann man diese Software in etablierten Bezugsmodellen und Open-Source-basiert sowie in allen möglichen Mischformen davon. Welche Versionen der einen Software passen mit welchen Versionen einer anderen zusammen? Wie ist der Reifegrad insgesamt? Erfüllt das Gesamtpaket meine spezifischen Realtime-Analytics-Anforderungen?

Diese Fragen beantworten die Anbieter zunehmend besser, aber auch unterschiedlich. Während etablierte Anbieter den eigenen kompletten Werkzeugkasten als vollständige Suite ins Feld schicken, gehen einige Startups einen anderen Weg. Sie schnüren nicht nur in sich konsistente Pakete aus den Open-Source-Lösungen, sondern ergänzen und verwalten diese Komplettangebote mit wenigen weiterführenden Werkzeugen. So kann man dem schnellen Fortschritt, gerade der Open-Source-Lösungen in diesem Bereich, gut folgen. Und nicht zuletzt auf der rasanten Entwicklungswelle mitschwimmen, ohne befürchten zu müssen, in ihrer Komplexität zu ertrinken.

Vereinfacht dank Künstlicher Intelligenz

Ein zweiter Aspekt, der verkompliziert, ist der Aufbau der Realtime-Analytics-Lösung selbst. Von der Entwicklung über die Auswahl der richtigen Methoden und Verfahren, hin zu ihrer Validierung in Stichproben und der kontinuierlichen Nachschärfung können Realtime Analytics viele Tücken bergen. Hier verspricht künstliche Intelligenz unter dem Aspekt des Machine Learning Besserung. Der Data Scientist arbeitet nicht mehr wie ein Sternekoch mit einer Mischung aus Intuition und Erfahrung an seinen Rezepten, sondern „trainiert“ seine Lösung: Er bewertet von der Maschine entdeckte Zusammenhänge, was entsprechend die „Lern-Rückkopplung“ in der Software auslöst. Die Software ändert sich so selbst, ohne dass der Nutzer weiß, wo und wie. So kommt der Anwender schnell zu einer Lösung, die zum Beispiel aus Twittermeldungen Vorhersagen zum Kundenverhalten ermöglicht. Künstliche Intelligenz ist also nach Jahrzehnten des Zweifelns und trotz der Risiken, die viele sehen, endlich in der Anwendung angekommen und hilft dabei, Kompliziertes zu vereinfachen.

Natürlich stellt sich bei Realtime Analytics wie bei jedem Hype die Frage, ob Anwender die Komplexität nicht viel einfacher reduzieren, indem sie einfach abwarten, bis sich der Pulverrauch einer nahezu explosionsartigen Entwicklung verzogen hat. Wer das tun will, muss wissen: Er riskiert einen wichtigen Moment der Digitalisierung zu verschlafen und damit im Markt schnell völlig ins Abseits zu geraten. Auf der anderen Seite ist sicher nicht für alle Geschäftsvorfälle Realtime Analytics notwendig. Die Entscheidung dazu ist nach wie vor eine des gesunden Menschenverstandes, Künstliche Intelligenz nimmt einem das (noch?) nicht ab.