Fachartikel

Public Cloud und Colocation – die Mischung macht's

Kostengünstige Infrastrukturservices aus der Public Cloud beziehen und gleichzeitig auf einer angemieteten Datacenter-Fläche eigene Server betreiben: Hybride Infrastrukturen bestimmen den IT-Alltag vieler Mittelständler und die Nachfrage nach Colocation-Flächen steigt kontinuierlich. Warum sich ein solcher Mix lohnen kann und wie sich dieser mit recht wenig Aufwand verwalten lässt, erklärt dieser Fachartikel. Dabei gehen wir auch auf die Rolle von OpenStack und automatisierten Container-Architekturen ein.
Wer kein eigenes Rechenzentrum hat, aber nicht gleich in die Public Cloud möchte, für den bietet sich Colocation an.
Ob Bremsscheiben, Feingebäck oder Solarmodule: Um im Geschäft zu bleiben, müssen mittelständische Industriebetriebe ihr Portfolio immer weiter optimieren – und bestenfalls jährlich mehrere Prototypen entwickeln. Solche Innovationen sind wettbewerbsrelevant und hochgradig geschäftskritisch. Daher betreiben Mittelständler ihre CAD-Software oder das Product Lifecycle Management (PLM) gerne auf dedizierten Servern in einem Rechenzentrum.

So behält das Unternehmen die Hoheit über die Daten und schützt geistiges Eigentum. Informationen aus anderen Firmenbereichen hingegen gelten als weniger kritisch, beispielsweise anonymisierte Testsysteme, die Telefonliste aus dem Intranet oder Marketingmaterialien. Warum solche Daten und Anwendungen nicht in einer kostengünstigeren Public Cloud als Infrastructure-as-a-Service (IaaS) betreiben?

Das spricht für eine eigene IT-Landschaft
Mitunter lösen dedizierte Server bestimmte Aufgaben wirtschaftlicher als jeder Clouddienst. Denn ist ein Server über Jahre hinweg zu 100 Prozent ausgelastet, lässt er sich unter dem Strich meist günstiger betreiben als die stattdessen benötigten Cloudressourcen und -services. Eine eigene IT-Landschaft möchten und können mittelständische Unternehmen jedoch nicht immer im eigenen Rechenzentrum aufbauen. Zu aufwändig ist der Betrieb, zu teuer sind Hardware und Netzwerk, Wartung oder Personalkosten.

Eine Alternative: Sie mieten sich Rechenzentrumsflächen bei externen Providern an – als sogenannte Colocation. Das beinhaltet grundlegende Services, darunter Brandschutz, unterbrechungsfreie Stromversorgung (USV), physische Sicherheit, Kühlung, Netzwerk und Monitoring. Weiteres Plus: redundante Verbindungen ins Internet, wobei die Kunden zwischen mehreren Internetprovidern auswählen können.

Steigende Nachfrage nach Colocation
Dass die Nachfrage nach Colocation-Flächen kontinuierlich steigt, unterstreicht eine Umfrage der Information Services Group (ISG). Demnach betreiben allein in Frankfurt 35 Colocation-Anbieter 65 Rechenzentren mit einer Fläche von 600.000 Quadratmetern. Hinzu kommen rund 125 Colocation-Rechenzentren in weiteren deutschen Ballungszentren oder großen Wirtschaftsräumen. So betreibt etwa die QSC AG ihre Colocation-Rechenzentren in Hamburg, München und Nürnberg.

In einer weiteren Studie ermittelte das Netzwerk energieeffiziente Rechenzentren, kurz NeRZ, im Februar 2019, dass 70 Prozent der IT-Dienstleister in Deutschland ihr Datacenter in den kommenden zwei Jahren ausbauen möchten. Den aktuellen Boom beim Bau und bei der Erweiterung von Rechenzentren tragen laut Umfrage vor allem Colocation-Anbieter oder Cloud- und Hosting-Provider. Bei mehr als 40 Prozent der befragten Anbieter stieg die IT-Fläche ihrer Rechenzentren in den vergangenen fünf Jahren um mehr als 20 Prozent. Und: Bis zum Jahr 2025 erwarten die meisten Dienstleister, dass ihre Rechenzentren weiterwachsen. 53 Prozent gehen von wachsenden IT-Flächen aus, nur neun Prozent vermuten, dass ihr Datacenter kleiner wird.
OpenStack als Universalgenie
Viele Colocation-Anbieter bieten aus ihren Rechenzentren heraus exklusiven Zugang zu den Diensten großer Public-Cloud-Provider. Das erleichtert Mittelständlern, eigene IT-Systeme und Public-Cloud-Ressourcen parallel zu betreiben. Doch wie lässt sich das Beste aus beiden Welten herausholen? Und wie lassen sich die hybriden Infrastrukturen reibungslos managen? Die Antwort: über ein Virtual Datacenter. Es überwacht und verwaltet eigene Server sowohl im Colocation-Rechenzentrum als auch als virtuelle Instanzen auf einer IaaS-Plattform. Wichtiger technologischer Baustein: OpenStack. Die quelloffene und standardisierte Architektur für Cloudlösungen gilt als Universalstecker für virtuelle Rechenzentren.

Ein Beispiel: Bietet ein Public-Cloud-Anbieter für seinen Web-Service eine Verfügbarkeit von 99,5 Prozent an, können die Kunden nicht nachverhandeln. Im Virtual Datacenter hingegen sind gegen Aufpreis höhere Werte möglich. Andere Baustelle: Benötigt ein Mittelständler eine bestimmte Prozessorgeneration bei Servern, kann er dies im hybriden Virtual Datacenter – anders als bei Amazon oder vergleichbaren Anbietern – individuell vereinbaren. Dabei lassen sich einzelnen Kunden über OpenStack dedizierte virtuelle Infrastrukturressourcen zuweisen. Dies ist zum Beispiel notwendig, wenn Mittelständler eigene physische Server nachweisen müssen, etwa aufgrund gesetzlicher Regularien, Datenschutz oder technischer Gründe.

Und: Über OpenStack lassen sich Server per Knopfdruck nicht nur erstellen, sondern auch als Backups sichern. Überdies eignet sich OpenStack für DevOps-Verfahren, was die ursprünglich getrennten Bereiche der Software-Entwicklung (Development) und des Betriebs (Operations) miteinander verbindet. Dementsprechend sind viele DevOps-Werkzeuge wie etwa Foreman oder Terraform auf eine nahtlose Kommunikation mit OpenStack ausgelegt.

Container als neuer Standard?
Auch bietet OpenStack die Basis, um automatisierte Container-Architekturen wie Kubernetes aufzusetzen. Mit dem Open-Source-System lassen sich container-basierte Anwendungen erstellen, skalieren, betreiben und verwalten. Experten prophezeien Kubernetes zwar eine rosige Zukunft. So nutzen laut einer Studie von Crisp Research auch immer mehr deutsche Unternehmen die open-source-basierte Engine, um Container-Cluster zu orchestrieren und zu managen.

Konkret setzt allerdings erst jedes zehnte Unternehmen Kubernetes ein. Mehr als zwei Drittel planen den Einsatz jedoch in Bälde. Die Entscheidungsträger schätzen vor allem, dass sich die quelloffene Lösung unkompliziert anpassen lässt. Sie lässt sich herstellerunabhängig nutzen, bietet die Grundlage für Hybrid- und Multi-Cloud-Betriebskonzepte und Zukunftssicherheit. Denn auf lange Sicht könnten Container zum unverzichtbaren Technologiebaustein werden und sich Kubernetes zunehmend als De-facto-Standard etablieren.

Fazit
Nicht immer lohnt sich für Mittelständler ein eigenes Datacenter. Alternativ stehen in Colocation-Rechenzentren sichere und hochverfügbare Flächen für den IT-Betrieb bereit. Dort lassen sich On-Premises-Systeme genauso nutzen wie Private- oder Public-Cloud-Ressourcen. Und sollten dadurch hybride Infrastrukturen entstehen: Ein Virtual Datacenter kann diese effizient überwachen und verwalten. So holen Unternehmen für sich das Beste aus allen Betriebsmodellen heraus.
11.03.2020/ln/Manuel Jenne, Produktmanager für den Bereich Colocation & Virtual Datacenter bei der QSC AG

Nachrichten

Microsoft gibt Startschuss für Surface Go 2 [12.05.2020]

Ab heute ist das "Surface Go 2" von Microsoft auf dem deutschen Markt erhältlich. Redmond positioniert das Gerät als leichtes, schlankes und flexibles 2in1-Device, das für die mobile Nutzung optional in einer LTE-Variante verfügbar ist. [mehr]

Embedded-PC für extreme Umgebungen [11.05.2020]

Mit dem "MX1-10FEP-D" bringt ICP Deutschland den zweiten Embedded-PC aus der MX1-Serie auf den Markt. Dieser bietet laut Hersteller hohe Rechenleistung und vielfältige Anschlussmöglichkeiten sowie Erweiterungsmodule für den Einsatz in extremen Umgebungen. [mehr]

Augen für alles [6.05.2020]

Tipps & Tools

Windows-Taste deaktivieren [30.05.2020]

Wenn Sie häufig mit dem Copy-Paste-Shortcut arbeiten, sehen Sie in der Windows-Taste vielleicht eher ein Hindernis als einen Vorteil. Denn das versehentliche Öffnen des Startmenüs stört und verlangsamt die Arbeit. Unser Tipp zeigt, wie Sie die Taste in wenigen Schritten im Registry abschalten. [mehr]

Im Test: SepiaTS [28.05.2020]

Die Software SepiaTS vereinfacht in Windows-Infrastrukturen den bidirektionalen Datenaustausch zwischen Terminalservern und virtuellen Desktops sowie Clientcomputern. Dies erledigt das Werkzeug vollkommen unabhängig vom verwendeten Remote-Protokoll. Unser Test zeigt, dass SepiaTS ein wertvoller Aufsatz für Terminaldienste sein kann. [mehr]

Buchbesprechung

Technik der IP-Netze

von Anatol Badach und Erwin Hoffmann

Anzeigen