— Anzeige —

Interview

01/23 Lesedauer: min

"Workloads zwischen Clouds verschieben ist kein Business Case"

Eine Supercloud ist nicht nur aus technischer Sicht anspruchsvoll, betont Marc Kleff von NetApp im Interview mit com! professional. Vor allem müssten Nutzer prüfen, ob sich ein solches Konzept für sie unter wirtschaftlichen Aspekten lohnt.



Marc Kleff
Director Solutions Engineering / NetApp Deutschland
com! professional: 

Herr Kleff, wie definieren Sie Supercloud?

Marc Kleff: 

Wir sprechen hier von einem frühen Konzept für die Cloud-Welt: Virtuelle Maschinen (VM), die Applikationen hosten, wechseln je nach benötigten Anforderungen zwischen unterschiedlichen Public Clouds. Im Bereich Virtualisierung lässt sich das mit Mirroring-Technologien umsetzen.

com! professional: 

Welchen Aufwand erfordert das?

Marc Kleff: 

Der Vorgang ist komplex, weil jeder einzelne Service in den Market Places der Cloud-Serviceprovider anders funktioniert. Hinzu kommt, dass die Kosten beim Egress, also dem Datenabfluss aus einer Public Cloud, hoch sind. Die eigentlichen Herausforderungen und interessanten Fragen sind somit: Trägt das Konzept auch dann, wenn man über Virtual Machines hinausblickt, also wenn man beispielsweise die Daten betrachtet? Und ist das Konzept unter den Aspekten Praktikabilität und Wirtschaftlichkeit sinnvoll?

— Anzeige —
"Der Aufwand, den eine Supercloud erfordert, muss durch einen überzeugenden Use Case gerechtfertigt sein. Denn es ist für einen Anwender teuer, Workloads aus der Cloud eines Hyperscalers herauszuholen."
com! professional: 

Ist eine Supercloud überhaupt unter technischen Aspekten möglich?

Marc Kleff: 

Ja, aber technische Gesichtspunkte sind bei Konzepten wie der Supercloud nicht alles. Ebenso wichtig sind Fragen der Sinnhaftigkeit, wenn ein Proof-of-Concept in einen Business Case überführt werden soll. Grundsätzlich nutzen die großen Cloud-Hyperscaler proprietäre Technologie. Dafür lassen sich Schnittstellen entwickeln. Dann wird es jedoch kompliziert. Denn viele unterschiedliche Clouds führen zu einer hohen Komplexität. Dennoch muss die Funktionalität entwickelt, getestet und garantiert werden. Die technische Grundlagenarbeit dafür ist jedoch sehr anspruchsvoll.

Dabei ergeben sich schnell Fragen, etwa: Wie wird eine Supercloud "Enterprise-ready", inklusive der erforderlichen Service Level Agreements, und wer garantiert diese SLAs? Denn kommt es zu einem Ausfall der Supercloud, leidet möglicherweise die Reputation eines Kunden und es gehen Aufträge verloren.

com! professional: 

Welchen Nutzen kann eine Art Supercloud dem Anwender bieten?

Marc Kleff: 

Das ist die entscheidende Frage: Der Aufwand muss durch einen überzeugenden Use Case gerechtfertigt sein. Prinzipiell ist es teuer, wenn Anwender Workloads aus der Cloud eines Hyperscalers herauszuholen. Dabei spielt es keine Rolle, ob die Daten oder virtuellen Maschinen in das hauseigene Rechenzentrum übermittelt werden oder in eine andere Public Cloud.

Denkbar ist, dass Hyperscaler ihren eigenen Kunden mit Supercloud-Konzepten eine höhere Dienstgüte bieten. Möglicherweise können zudem Nutzer Kosteneinsparungen erzielen, wenn sie in Echtzeit in eine günstigere Cloud wechseln. Das müsste aber hochautomatisiert ablaufen oder als Service-Angebot zur Verfügung stehen. Hier kommen Serviceprovider und Channel-Partner ins Spiel.

In der Praxis benötigen die Kunden eher eine "Evolved", also weiterentwickelte Multi Cloud. Diese entspricht den Wünschen nach Mobilität, hoher Automatisierung, geringem Management-Overhead, hoher Transparenz und Hybrid-Integration.

"Wir sehen nicht, dass Kunden ständig zwischen Cloud-Providern wechseln wollen."
com! professoional: 

Haben Cloud-Serviceprovider überhaupt ein Interesse daran, eine Super- oder Meta-Cloud zu schaffen?

Marc Kleff: 

Vermutlich nicht, denn natürlich wollen sie kein Geschäft an Konkurrenten abgeben. Aber auch die potenziellen Supercloud-Nutzer müssen einige Faktoren beachten. In Deutschland ist beispielsweise Compliance ein starkes Argument. Entsprechend wenige Unternehmen würden ihre Daten und VMs beliebig zwischen unterschiedlichen Ländern mit eigenen Gesetzen verschieben. Auch eine individuelle Betreuung wie von einem lokalen IT-Partner können Unternehmen von einem Hyperscaler nicht erwarten.

Die Antwort ist also wahrscheinlich pragmatischer, denn Cloud Computing ist ein Betriebsmodell und nicht nur auf große Provider beschränkt. Gerade lokale Serviceprovider haben vielfältige Cloud-Kompetenzen aufgebaut. Fragt ein Kunde zum Beispiel nach einer Disaster-Recovery-Lösung, erfordert das in der Hyperscale-Cloud viel spezifisches Fachwissen. Provider vor Ort haben diese Lösungen in vielen Fällen bereits entwickelt und getestet und können sie zu einem attraktiven Preis auf Knopfdruck liefern.

com! professoional: 

Was können Unternehmen bereits heute tun, um bei vertretbaren Kosten Workloads zwischen den Clouds unterschiedlicher Anbieter hin und her zu bewegen?

Marc Kleff: 

Hier kommen Datenmanagement- und Cloud-Angebote wie die von NetApp ins Spiel. Unsere Stärke ist, dass die Technologie immer die gleiche ist, sei es in der Private Cloud, bei einem Cloud Service oder einem Cloud-nativen Dienst auf dem Marktplatz eines Hyperscalers. Entsprechend einfach ist es, unterschiedliche Cloud-Ressourcen anzuzapfen. Diese Reise geht mit Containerplattformen wie Kubernetes weiter.

Wir sehen aber nicht, dass Kunden ständig zwischen Cloud-Providern wechseln wollen. Sie überlegen sich, wie ihre IT- und Datenstrategie aussieht und welche unternehmerischen Ziele sie verfolgen. Dann geht es um Themen wie: Welchen ROI liefert meine Cloud-Nutzung? Wie schütze ich meine Daten? Wie binde ich Container und Cloud-native Applikationen ein? Wie analysiere und manage ich meine Cloud und meine IT-Ressourcen? Oder, um es plakativer zu formulieren: Workloads von Cloud zu Cloud zu schieben, ist kein Business Case.

— Anzeige —

Bernd Reder

Freier Autor

Bernd Reder ist freier Journalist mit den Schwerpunkten Netzwerke, IT und Telekommunikation.