com!-Academy-Banner
Cloud-Hyperscaler

Die schwierige Suche nach einem Hyperscaler

von - 20.04.2020
Cloud Computing
Foto: Blackboard / shutterstock.com
Der Cloud-Markt boomt. Ihn dominieren aber nur wenige Konzerne - allen voran Amazon. Eine generelle Empfehlung für oder gegen einen Hyperscaler kann es jedoch nicht geben.
Ob Volkswagen, Netflix, EasyJet, PayPal oder gar die Bundespolizei - sie alle setzen auf Speicherplatz, Rechenleistung oder Dienste bei einem der großen Cloud-Anbieter Amazon Web Services (AWS), Google Cloud Platform (GCP) oder Microsoft Azure. Bei den großen Cloud-Hyperscalern, wie man die drei Anbieter im Allgemeinen bezeichnet, ist das halbe Internet zu Hause. Die drei Anbieter decken rund 60 Prozent des weltweiten Gesamtmarktes ab. Rund die Hälfte davon entfällt alleine auf Amazon Web Services (AWS). Der Quasimonopolist unter den Online-Shops ist somit auch in Sachen Infrastruktur aus der Cloud der Big Player. Doch auch die momentan noch eher als Nischenanbieter tätigen Hyperscaler Alibaba, IBM und Oracle möchten ein Stück vom Kuchen abhaben und bauen ihre Dienste immer weiter aus.
Die Hyperscaler bieten neben klassischem Infastructure as a Service (IaaS), also der Bereitsstellung grundlegende IT-Ressourcen wie Rechenleistung, Speicher und Netzwerkkapazitäten, mittlerweile eine ganze Latte an zusätzlichen Diensten an. So listet etwa alleine Microsoft auf seiner Webseite mehrere Hundert für Azure verfügbare Dienste auf - von der Datenanalyse über Sicherheits-Tools bis hin zu Anwendungen für die Künstlicher Intelligenz.

Big Player setzen Standards

Die Hyperscaler sind somit auch diejenigen, die mit ihrer Machtdurchdringung die De-facto-Standards in Sachen Cloud Computing setzen. So gehört zum Beispiel für Entwickler im Cloud-Umfeld die Unterstützung für Amazon-APIs mittlerweile zu den Kernanforderungen. So hat sich etwa der Speicher-Dienst Amazon Simple Storage Service (Amazon S3) als Standard für Object Storage etabliert, an dem sich inzwischen viele andere Dienste orientieren.
Das Fehlen von einheitlichen Standards ist eigentlich die Achillesferse der Cloud: Jeder Anbieter kocht sein eigenes Süppchen und verwendet eigenentwickelte Technologien. Aus Sicht des Anbieters sind proprietäre Dienste eine praktische Sache: Sie sorgen für eine gewisse Kundenbindung, Stichwort Vendor-Lock-in. Je proprietärer ein Service ist, desto schwerer tut sich der Kunde mit einem Anbieterwechsel. Und er bleibt vielleicht länger Kunde als er eigentlich will - aus technischer Notwendigkeit oder aus Bequemlichkeit.
Auf der anderen Seite hat sich das Fehlen von Standards im Laufe der Zeit auch als Vorteil erwiesen: Einheitliche Standards würden der Cloud vielleicht ihre Agilität nehmen, bei der jeder Provider seine Lösungen vorantreibt und sie als Quasi-Standard etablieren möchte.

Wer die Wahl hat ...

Wo aber liegen nun die Unterschiede bei den Hyperscalern? Die meisten Anbieter decken den gesamten Cloud-Stack von Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS) ab. Die Unterscheidungsmerkmale liegen vielmehr in der Angebotsvielfalt, den Performanceklassen und Workload-spezifischen Zielgruppen.
Audits für Standards wie ISO 27001, ISO 27017/27018 gehören mittlerweile zur Selbstverständlichkeit. Ebenso erfüllen die Hyperscaler in der Regel den Anforderungskatalog Cloud Computing (C5) vom Bundesamt für Sicherheit in der Informationstechnik (BSI). Mit diesen Zertifizierungen hat der Kunde eine gewisse Sicherheit, dass die allgemein anerkannten Praktiken für die Sicherheit einhalten werden.
Doch Kunden sollten immer im Hinterkopf behalten, dass sie auch selbst für die Sicherheit der Systeme verantwortlich sind - bei den meisten Cloud-Diensten teilen sich Anbieter und Kunde die Verantwortung. Zum Beispiel Amazon spricht hier vom „Modell der geteilten Verantwortung“: Der Anbieter kümmert sich um den Schutz der Infrastruktur, auf der die Cloud-Dienste laufen, also Hardware, Software und Netzwerk. Die Kunden sind für die Sicherheit ihrer gebuchten Services zuständig, also etwa für die Verwaltung von Gastsystemen und Anwendungen, die sie in der Cloud ausführen.
In ihren Service Level Agreements (SLAs) geben die Hyperscaler, je nach Service, in der Regel eine Verfügbarkeit von rund 99,95 Prozent an. Bei längeren Ausfällen ist der Schadensersatz jedoch meist auf die Summe einer Monatsrechnung begrenzt. Zudem verpflichten einige Anbieter die Kunden, ihre Anwendungen mindestens in zwei Regionen oder Zonen auszuführen. Erst wenn beide Verfügbarkeitszonen ausfallen, dann gibt es eine Entschädigung.
Oliver Harmel
Oliver Harmel
VP Managed Services GTM bei NTT Germany
https://hello.global.ntt/
Foto: NTT Germany
„Auch wenn die Anbieter bei erster Betrachtung relativ ähnlich zu sein scheinen, was ihre Skalierbarkeit und portalgestützte Implementierung anbelangt, so unterscheiden sie sich am Ende doch speziell in der Eignung für den ein oder anderen Anwendungsfall.“
Die Unterschiede zwischen den Hyperscalern sind also gar nicht so einfach auszumachen. Für welchen Hyperscaler man sich letztendlich entscheidet, hängt daher stark von den jeweiligen Anforderungen ab. Wenn man zum Beispiel Wert auf Hochverfügbarkeit und hohe Netzwerkperformance legt, dann punkten nach Ansicht von Volker Pfirsching, Partner Technology & Innovation Management bei den Beratern von Arthur D. Little, vor allem Microsoft und Google mit ihren eigenen Backbones - „sie können mit hohem Netzwerktraffic besser umgehen“. Amazon und Alibaba punkten laut Pfirsching dafür bei anderen Themen wie Innovation oder vorkonfigurierte Algorithmen für Künstliche Intelligenz. „Die Plattformwahl ist eine strategische Entscheidung, bei der die Unternehmens-Gesamtarchitektur eine Rolle spielen sollte.“
Ähnlich sieht es Oliver Harmel, VP Managed Services GTM beim IT-Lösungsanbieter NTT Germany. Auch wenn die Anbieter bei erster Betrachtung relativ ähnlich zu sein scheinen, was ihre Skalierbarkeit und portalgestützte Implementierung anbelangt, „so unterscheiden sie sich am Ende doch speziell in der Eignung für den ein oder anderen Anwendungsfall.“
Deutlich differenzierter, und aus beruflichen Gründen selbstverständlich etwas skeptischer, sieht das Holger Dyroff, COO & Managing Director bei ownCloud, einer Software für das Speichern von Daten auf dem eigenen Server. Er rät vom Einsatz von Hyperscalern ab. Ihm zufolge wollen die großen Anbieter einen Lock-In der Kunden und erlauben keine einfache Migration von Workloads.

Mehrgleisig fahren

Die Hyperscaler bieten jeweils Unmengen an Diensten an, sodass man als Unternehmen eigentlich nicht mehr als einen Anbieter braucht. Das ist auf der einen Seite zwar praktisch, auf der anderen Seite macht einen das abhängig - der von Holger Dyroff angesprochene Vendor-Lock-in. Daher empfiehlt Manuel Degen, Consultant Expert for Advanced Analytics, AI Digital Center of Excellence, bei Arthur D. Little, mehrgleisig zu fahren und neben einem Haupt-Provider durchaus auch Dienste von Wettbewerbern zu nutzen. Seiner Erfahrung nach ist das Thema Kostenmanagement eines der wichtigsten Themen für Kunden von Public Clouds. „Und allein aus dieser Sicht macht es schon Sinn, auf verschiedene Anbieter zurückzugreifen.“ Mittlerweile nutzten schon viele Unternehmen mehr als eine Cloud aktiv, meistens werde Microsoft und Amazon in Kombination verwendet.
Verwandte Themen