Make or Buy – das beste Rezept für den Betrieb von Big-Data-Lösungen

Publish date:

IT-Mitarbeiter, die sich mit Big Data auskennen, sind derzeit kaum zu bekommen. Hinzu kommt, dass die Technologie immer komplexer wird. Deshalb kann es sich lohnen, den Betrieb von Big-Data-Anwendungen auszulagern. Dabei sollten Unternehmen einige Punkte beachten, damit kein Know-How oder sogar die Kontrolle verloren geht.

Arne Rossmann, Capgemini

Eine aktuelle Bitkom-Studie verdeutlicht, welche Bedeutung Big Data für Unternehmen spielt: Demnach planen 57 Prozent der Unternehmen, Big Data-Technologie einzusetzen oder beschäftigen sich bereits mit der Umsetzung. Sechs von zehn Unternehmen messen ihr zudem die höchste Bedeutung im Vergleich zu anderen Trend-Technologien bei. Allerdings benötigt man für eine Big-Data-Lösung mehrere Komponenten: die Infrastruktur, die analytische Plattform und die Analyse-Tools. Sie kommen in der Regel nicht aus einer Hand und sind darüber hinaus häufig eine Mischung aus Open-Source-Software und kommerziellen Tools. Darüber hinaus ändern sich die Anforderungen der Fachabteilungen im Laufe der Zeit, sodass viele Unternehmen ihre Lösungen regelmäßig um Tools erweitern. Unterm Strich ähnelt die Big-Data-Landschaft meistens einem Zoo mit vielen verschiedenen Tieren, die alle unterschiedliche Anforderungen an ihren Lebensraum stellen.

Willkommen in der Update-Hölle

Der Betrieb solcher Lösungen ist recht komplex und erfordert Fachwissen. Wenn Updates anstehen, müssen die Mitarbeiter viele Parameter überprüfen, damit weiterhin alles reibungslos funktioniert und manchmal reicht selbst das nicht – dann heißt es warten. Denn Plattform- und Werkzeug-Anbieter verfolgen nicht immer dasselbe Konzept. Bei Hadoop beispielsweise bestimmt die Open Data Platform Initiative, welche Schnittstellen und Tools unterstützt werden. Die Auswahl der Funktionalitäten für eine neue Version hängt von der Entwicklungs-Community ab. Die demgegenüber meist kommerziellen Anbieter der Analyse-Tools können selbst entscheiden, ob und wann sie eine neue Hadoop-Version unterstützen. Dazwischen stehen die Anwender, die vor jedem Update die Kompatibilität aller Komponenten und Schnittstellen ihrer Big-Data-Lösung prüfen müssen.

Die Spezialisten für diese Aufgabe sind allerdings dünn gesät. Deshalb liegt es nahe, den Betrieb der Plattform und der Anwendungen auszulagern. Managed-Service-Anbieter betreuen verschiedene Plattformen und viele Tools. Sie kennen sich sehr gut aus und aufgrund der Skaleneffekte spart der Auftraggeber Betriebs- und Update-Kosten. Darüber hinaus kann der Anbieter häufig auch noch relativ schnell individuelle Erweiterungen entwickeln.

Analysen sind der interessantere Teil der Arbeit

Neben dem Betrieb der Plattformen ist es auch sinnvoll, deren Architektur Spezialisten zu überlassen. Die Analyse der Daten sollte das Unternehmen aber unbedingt selbst in der Hand behalten, weil dieses Know-How Wettbewerbsvorteile generiert, im Gegensatz zum Know-How rund um den Betrieb einer Lösung. Darüber hinaus sind die Analysen der weitaus interessantere Teil der Arbeit, für die Unternehmen auch wesentlich leichter Mitarbeiter gewinnen können als für den Betrieb. Die Analyse der Daten in Eigenregie schließt natürlich nicht aus, sich bei Bedarf von einem professionellen Anbieter bei der Entwicklung und Umsetzung von Szenarien unterstützen zu lassen. Die Governance, sprich die Kontrolle über den Zugang zu den Daten und die Durchführung der Analysen, muss das Unternehmen aber selbst übernehmen. Eine Governance-Strategie ist an dieser Stelle essentiel.

Cloud-Lösungen eignen sich nur für bestimmte Anforderungen

Die nächste Stufe der Auslagerung wäre die Nutzung einer Cloud-Lösung. Zurzeit bieten die meisten Provider eine bestimmte Plattform in Kombination mit verschiedenen Tools. Der Anbieter kümmert sich um Updates und Upgrades, so dass wenig Arbeit für die IT-Abteilung anfällt. Schwierig kann es aber werden, wenn das Unternehmen Analyse-Werkzeuge benötigt, die nicht im Standard des Anbieters sind. Denn die müssen integriert werden und das ist kompliziert und aufwendig. Darüber hinaus muss dann auch wieder bei jedem Update die Kompatibilität überprüft werden. Wem das Angebot des Cloud-Providers genügt, für den ist sie eine gute Lösung. Wenn CIOs aber wissen, dass sich die Analyse-Anforderungen ihres Unternehmens in den nächsten Jahren stark verändern, sollten sie sich für eine flexiblere Lösung, sprich Managed Services, entscheiden.

Zusammenfassend lässt sich feststellen, dass das Aufsetzen einer Big Data-Lösung im Kleinen sehr einfach sein kann. Aber auf Unternehmens-Ebene, wenn viele Abteilungen und viele Interessen involviert sind, wird es schwieriger. Und auf Unternehmens-Ebene muss man sich auch ernsthafte Gedanken über einen reibungslosen Betrieb machen.

Vor welchen Herausforderungen stehen Sie gerade aktuell. Oder haben Sie das Problem gelöst? In welchen Bereichen gab es Schwierigkeiten? Schreiben Sie mir!

Blog per E-Mail abonnieren
RSS-Feed abonnieren

Weitere Posts

Cloud

Continuous Testing Report 2020: Die Branche ist noch auf dem Weg

Sven Euteneuer
Date icon Juni 26, 2020

Der Continuous Testing Report 2020 zeichnet ein klares Bild im Hinblick auf die Umsetzung...

Automatisierung

SAP S/4HANA: Automobilzulieferer haben nun die Cloud-Option

Joachim Skarpil
Date icon Juni 5, 2020

Viele Automobilzulieferer befinden sich seit langem in der digitalen Transformation und...

IT-Trends

IT Trends 2020: Sind intelligente Technologien ein Erfolg?

Sven L. Roth
Date icon Mai 15, 2020

Die Auswirkungen der Corona-Pandemie zwingen viele Unternehmen dazu, ihre Kosten zu senken....