Public Cloud und Colocation – die Mischung macht's

Lesezeit
3 Minuten
Bis jetzt gelesen

Public Cloud und Colocation – die Mischung macht's

11.03.2020 - 14:00
Veröffentlicht in:
Kostengünstige Infrastrukturservices aus der Public Cloud beziehen und gleichzeitig auf einer angemieteten Datacenter-Fläche eigene Server betreiben: Hybride Infrastrukturen bestimmen den IT-Alltag vieler Mittelständler und die Nachfrage nach Colocation-Flächen steigt kontinuierlich. Warum sich ein solcher Mix lohnen kann und wie sich dieser mit recht wenig Aufwand verwalten lässt, erklärt dieser Fachartikel. Dabei gehen wir auch auf die Rolle von OpenStack und automatisierten Container-Architekturen ein.
Ob Bremsscheiben, Feingebäck oder Solarmodule: Um im Geschäft zu bleiben, müssen mittelständische Industriebetriebe ihr Portfolio immer weiter optimieren – und bestenfalls jährlich mehrere Prototypen entwickeln. Solche Innovationen sind wettbewerbsrelevant und hochgradig geschäftskritisch. Daher betreiben Mittelständler ihre CAD-Software oder das Product Lifecycle Management (PLM) gerne auf dedizierten Servern in einem Rechenzentrum.

So behält das Unternehmen die Hoheit über die Daten und schützt geistiges Eigentum. Informationen aus anderen Firmenbereichen hingegen gelten als weniger kritisch, beispielsweise anonymisierte Testsysteme, die Telefonliste aus dem Intranet oder Marketingmaterialien. Warum solche Daten und Anwendungen nicht in einer kostengünstigeren Public Cloud als Infrastructure-as-a-Service (IaaS) betreiben?

Das spricht für eine eigene IT-Landschaft
Mitunter lösen dedizierte Server bestimmte Aufgaben wirtschaftlicher als jeder Clouddienst. Denn ist ein Server über Jahre hinweg zu 100 Prozent ausgelastet, lässt er sich unter dem Strich meist günstiger betreiben als die stattdessen benötigten Cloudressourcen und -services. Eine eigene IT-Landschaft möchten und können mittelständische Unternehmen jedoch nicht immer im eigenen Rechenzentrum aufbauen. Zu aufwändig ist der Betrieb, zu teuer sind Hardware und Netzwerk, Wartung oder Personalkosten.

Eine Alternative: Sie mieten sich Rechenzentrumsflächen bei externen Providern an – als sogenannte Colocation. Das beinhaltet grundlegende Services, darunter Brandschutz, unterbrechungsfreie Stromversorgung (USV), physische Sicherheit, Kühlung, Netzwerk und Monitoring. Weiteres Plus: redundante Verbindungen ins Internet, wobei die Kunden zwischen mehreren Internetprovidern auswählen können.

Steigende Nachfrage nach Colocation
Dass die Nachfrage nach Colocation-Flächen kontinuierlich steigt, unterstreicht eine Umfrage der Information Services Group (ISG). Demnach betreiben allein in Frankfurt 35 Colocation-Anbieter 65 Rechenzentren mit einer Fläche von 600.000 Quadratmetern. Hinzu kommen rund 125 Colocation-Rechenzentren in weiteren deutschen Ballungszentren oder großen Wirtschaftsräumen. So betreibt etwa die QSC AG ihre Colocation-Rechenzentren in Hamburg, München und Nürnberg.

In einer weiteren Studie ermittelte das Netzwerk energieeffiziente Rechenzentren, kurz NeRZ, im Februar 2019, dass 70 Prozent der IT-Dienstleister in Deutschland ihr Datacenter in den kommenden zwei Jahren ausbauen möchten. Den aktuellen Boom beim Bau und bei der Erweiterung von Rechenzentren tragen laut Umfrage vor allem Colocation-Anbieter oder Cloud- und Hosting-Provider. Bei mehr als 40 Prozent der befragten Anbieter stieg die IT-Fläche ihrer Rechenzentren in den vergangenen fünf Jahren um mehr als 20 Prozent. Und: Bis zum Jahr 2025 erwarten die meisten Dienstleister, dass ihre Rechenzentren weiterwachsen. 53 Prozent gehen von wachsenden IT-Flächen aus, nur neun Prozent vermuten, dass ihr Datacenter kleiner wird.

OpenStack als Universalgenie
Viele Colocation-Anbieter bieten aus ihren Rechenzentren heraus exklusiven Zugang zu den Diensten großer Public-Cloud-Provider. Das erleichtert Mittelständlern, eigene IT-Systeme und Public-Cloud-Ressourcen parallel zu betreiben. Doch wie lässt sich das Beste aus beiden Welten herausholen? Und wie lassen sich die hybriden Infrastrukturen reibungslos managen? Die Antwort: über ein Virtual Datacenter. Es überwacht und verwaltet eigene Server sowohl im Colocation-Rechenzentrum als auch als virtuelle Instanzen auf einer IaaS-Plattform. Wichtiger technologischer Baustein: OpenStack. Die quelloffene und standardisierte Architektur für Cloudlösungen gilt als Universalstecker für virtuelle Rechenzentren.

Ein Beispiel: Bietet ein Public-Cloud-Anbieter für seinen Web-Service eine Verfügbarkeit von 99,5 Prozent an, können die Kunden nicht nachverhandeln. Im Virtual Datacenter hingegen sind gegen Aufpreis höhere Werte möglich. Andere Baustelle: Benötigt ein Mittelständler eine bestimmte Prozessorgeneration bei Servern, kann er dies im hybriden Virtual Datacenter – anders als bei Amazon oder vergleichbaren Anbietern – individuell vereinbaren. Dabei lassen sich einzelnen Kunden über OpenStack dedizierte virtuelle Infrastrukturressourcen zuweisen. Dies ist zum Beispiel notwendig, wenn Mittelständler eigene physische Server nachweisen müssen, etwa aufgrund gesetzlicher Regularien, Datenschutz oder technischer Gründe.

Und: Über OpenStack lassen sich Server per Knopfdruck nicht nur erstellen, sondern auch als Backups sichern. Überdies eignet sich OpenStack für DevOps-Verfahren, was die ursprünglich getrennten Bereiche der Software-Entwicklung (Development) und des Betriebs (Operations) miteinander verbindet. Dementsprechend sind viele DevOps-Werkzeuge wie etwa Foreman oder Terraform auf eine nahtlose Kommunikation mit OpenStack ausgelegt.

Container als neuer Standard?
Auch bietet OpenStack die Basis, um automatisierte Container-Architekturen wie Kubernetes aufzusetzen. Mit dem Open-Source-System lassen sich container-basierte Anwendungen erstellen, skalieren, betreiben und verwalten. Experten prophezeien Kubernetes zwar eine rosige Zukunft. So nutzen laut einer Studie von Crisp Research auch immer mehr deutsche Unternehmen die open-source-basierte Engine, um Container-Cluster zu orchestrieren und zu managen.

Konkret setzt allerdings erst jedes zehnte Unternehmen Kubernetes ein. Mehr als zwei Drittel planen den Einsatz jedoch in Bälde. Die Entscheidungsträger schätzen vor allem, dass sich die quelloffene Lösung unkompliziert anpassen lässt. Sie lässt sich herstellerunabhängig nutzen, bietet die Grundlage für Hybrid- und Multi-Cloud-Betriebskonzepte und Zukunftssicherheit. Denn auf lange Sicht könnten Container zum unverzichtbaren Technologiebaustein werden und sich Kubernetes zunehmend als De-facto-Standard etablieren.

Fazit
Nicht immer lohnt sich für Mittelständler ein eigenes Datacenter. Alternativ stehen in Colocation-Rechenzentren sichere und hochverfügbare Flächen für den IT-Betrieb bereit. Dort lassen sich On-Premises-Systeme genauso nutzen wie Private- oder Public-Cloud-Ressourcen. Und sollten dadurch hybride Infrastrukturen entstehen: Ein Virtual Datacenter kann diese effizient überwachen und verwalten. So holen Unternehmen für sich das Beste aus allen Betriebsmodellen heraus.


ln/Manuel Jenne, Produktmanager für den Bereich Colocation & Virtual Datacenter bei der QSC AG

Ähnliche Beiträge

Asset-Management mit Snipe-IT (3)

Vielen Asset- und Dokumentationslösungen mangelt es an Funktionen für das Benutzer- und Lizenzmanagement. Außerdem wünschen sich Administratoren komfortable Zugriffsmöglichkeiten per Mobilgerät. Das und mehr verspricht die Open-Source-Umgebung Snipe-IT, deren Leistungsdaten und die Inbetriebnahme dieser dreiteilige Workshop beleuchtet. In der letzten Folge widmen wir uns den Mechanismen des Asset-Managements und zeigen, was Sie bei der Arbeit mit dem Dashboard und der Importfunktion beachten sollten.

Asset-Management mit Snipe-IT (2)

Vielen Asset- und Dokumentationslösungen mangelt es an Funktionen für das Benutzer- und Lizenzmanagement. Außerdem wünschen sich Administratoren komfortable Zugriffsmöglichkeiten per Mobilgerät. Das und mehr verspricht die Open-Source-Umgebung Snipe-IT, deren Leistungsdaten und die Inbetriebnahme dieser dreiteilige Workshop beleuchtet. In der zweiten Folge dreht sich alles um die notwendigen Konfigurationsschritte und wie sie die Session-Einstellungen optimieren.

Asset-Management mit Snipe-IT (1)

Vielen Asset- und Dokumentationslösungen mangelt es an Funktionen für das Benutzer- und Lizenzmanagement. Außerdem wünschen sich Administratoren komfortable Zugriffsmöglichkeiten per Mobilgerät. Das und mehr verspricht die Open-Source-Umgebung Snipe-IT, deren Leistungsdaten und die Inbetriebnahme dieser dreiteilige Workshop beleuchtet. In der ersten Folge werfen wir einen Blick auf die Leistungsmerkmale von Snipe-IT und erklären, wie Sie die Inbetriebnahme vorbereiten.