Big-Data-Analysen - Das leisten Cloud-Services

„Es kommt darauf an, was ich machen will“

von - 04.09.2015
Gerade kleine und mittelständische Unternehmen stehen bei Big Data vor einigen Herausforderungen. Eine Verlagerung in die Cloud hilft ihnen dabei nur bedingt, so Marco Schmid, Country Manager DACH bei Rackspace.
Marco Schmid, Country Manager DACH bei Rackspace
Marco Schmid, Country Manager DACH bei Rackspace
com! professional: Herr Schmid, was sind Ihrer Ansicht nach die größten Herausforderungen bei Big-Data-Analysen in KMUs?
Marco Schmid: Eine der großen Herausforderungen liegt darin, überhaupt Leute zu finden, die Big Data in einen Mehrwert für ein Unternehmen umsetzen können. Das beginnt ganz unten bei der Infrastruktur und geht hoch bis zur Analyse. Erfahrene Big-Data-Spezialisten sind schwer zu finden und sehr teuer. Außerdem ist es für KMUs schwer, solche Leute zu halten, weil die Projekte auf Dauer dann doch nicht abwechslungsreich und spannend genug sind.
Die zweite Herausforderung ist die Zieldefinition. Wo wollen wir hin? Was soll uns das bringen? Was wollen wir optimieren, was tun, um einen Vorteil zu erzielen? Oft beginnen Unternehmen mit dem Aufbau einer Big-Data-Infrastruktur, ohne sich diese Fragen gestellt zu haben und weiterhin zu stellen.
Drittens wird Big Data immer noch sehr stark aus der IT-Abteilung heraus vorangetrieben. Natürlich ist die IT betroffen, wenn ein Unternehmen etwa einen Hadoop-Cluster aufbauen und betreiben will, aber ohne die Unterstützung aus der Geschäftsführung bleibt Big Data oft ein „Nice to have“ und entwickelt keine strategische Bedeutung, weil die Priorisierung und die Vernetzung mit den anderen Abteilungen fehlen. Big Data ist noch viel mehr ein strategisches und weniger ein technisches IT-Thema als zum Beispiel Cloud.
com! professional: Können cloudbasierte Big-Data-Analysemodelle helfen, diese Probleme zu lösen?
Schmid: Nicht wirklich, ein HadoopCluster beim Provider hat sicher seine Vorzüge, aber das sind eher die typischen CloudVorteile wie Skalierung, kein Investitionsrisiko, keine Kapitalbindung und so weiter. Gerade wenn man ein neues Projekt startet, mag das nützlich sein, es hilft aber nicht bei der Lösung der gerade beschriebenen Probleme. Etwas anders sieht die Sache aus, wenn ich eine Managed Cloud nutze, wie wir sie anbieten. Hier bekommt man nicht nur die Ressourcen, sondern auch Unterstützung bei Aufbau und Betrieb eines BigDataAnalysesystems. Das senkt die Einstiegshürde erheblich.
com! professional: Worauf sollte man vor allem achten, will man Big Data in der Cloud betreiben?
Schmid: Entscheidend ist die Frage: Wo generiere ich die Daten? Je mehr Informationen ich sammele und je zentraler mein Big-Data-Projekt für meine Geschäftsentwicklung wird, desto wichtiger wird die sogenannte Data Gravity. Ständig Daten transferieren zu müssen ist langsam und kostspielig. Deshalb sollte die Analyse am selben Ort oder zumindest in der Nähe der Systeme stattfinden, in denen auch die Daten generiert werden.
Wenn zum Beispiel Geräte oder Maschinen beim Kunden Sensordaten über das Internet senden, kann Big Data in der Cloud eine sehr elegante Lösung sein. Wenn die Daten intern generiert werden, ist vielleicht eine hybride Lösung besser. Vielleicht kann ich die Server, die die Daten erzeugen, im Managed Hosting betreiben und so näher an den Big-Data-Service bringen. Wichtig ist einfach, dass ich mir sehr genau überlege, wo die Daten anfallen werden und wie ich sie in die Analysesysteme bekomme. Man schiebt nicht so einfach ein paar Petabyte an Daten von A nach B.
Ein wichtiger Aspekt bei der Auswahl einer Lösung oder eines Providers ist auch die Breite der Unterstützung für die gewählte Methode. Hadoop beispielsweise ist ein Quasi-Standard, der sehr etabliert ist. Wenn ich dagegen eine exotische Methode verwende, die ich nur bei einem bestimmten Anbieter finde, mag das auf den ersten Blick attraktiv sein, aber ich begebe mich damit in große Abhängigkeit zu diesem Provider. Womöglich generiere ich Petabyte an Daten in einem proprietären Format – und dann bewegt sich der Markt ganz woandershin. Für solche wenig verbreiteten Methoden ist es zudem noch schwieriger, Mitarbeiter mit fundierten Kenntnissen zu finden, als das im Big-Data-Bereich ohnehin der Fall ist.
com! professional: Für welche Anwendungen ist Big Data aus der Cloud geeignet und für welche eher nicht?
Schmid: Technisch und theoretisch gesehen gibt es hier keine Einschränkungen. Es kommt vielmehr darauf an, was ich genau machen will. Bei der Speicherung der Daten dominieren andere Anforderungen als bei der Analyse. Typischerweise wächst die Datenmenge ständig, ich brauche also die Möglichkeit gar nicht, Ressourcen schnell auf- und wieder abbauen zu können. Für diese Aufgabe ist es daher sinnvoller, eine dedizierte Storage-Lösung oder Private Cloud einzusetzen als eine Public Cloud. Das kann bei der Analyse ganz anders aussehen. Nehmen wir an, Sie machen täglich oder stündlich eine Analyse auf einem Subset der Daten und einmal im Monat auf dem gesamten Datenbestand. Dann kann es durchaus zweckmäßig sein, nur für diese Analyse einen Cluster für die Verarbeitung hochzufahren und die Server wieder zu löschen, wenn die Auswertung beendet ist.
Verwandte Themen