Fachartikel

Kapazitäten optimal ausnutzen dank Containerisierung

Nicht erst seit Februar 2022 sind steigende Energiekosten für viele Rechenzentren ein echtes Problem. Denken IT-Entscheider über Auswege nach, diskutieren Sie zunächst meist über Fragen der Hardware. Oft noch übersehen wird das Potenzial von Kubernetes beziehungsweise einer intelligenten Containerorchestrierung. Wie unser Beitrag zeigt, verbessert diese nicht nur Geschwindigkeit und Agilität, sondern ermöglicht auch deutliche Energieeinsparung durch eine bessere Nutzung vorhandener Ressourcen.
Container erobern die IT-Welt – und mit ihnen Kubernetes.
Ähnlich wie der 1956 erfundene standardisierte Frachtcontainer ab den 1960er Jahren den Schiffsverkehr und die Logistik rund um den Globus revolutionierte, treten heute in der IT-Welt softwarebasierte Container ihren Siegeszug an. Ganz neu sind sie in der IT mittlerweile auch nicht mehr. Die Möglichkeit, Container zu erstellen, wurde Ende der 2000er Jahre allgemein verfügbar, als Linux diese Funktionalität in seinen Kernel aufnahm. Mit der Verbreitung der Open-Source-Containerisierungsplattform Docker ab Mitte der 2010er Jahre kam die Sache in Schwung.

Container erobern die IT-Welt
Container sind schlanke, ausführbare Anwendungskomponenten, die den Quellcode der Anwendung mit allen Betriebssystembibliotheken und Abhängigkeiten kombinieren, die für die Ausführung des Codes in jeder Umgebung erforderlich sind. Da Container kleiner, ressourceneffizienter und portabler als virtuelle Maschinen sind, sind sie, ebenso wie containerisierte Microservices, zur gängigen Rechenbasis moderner cloudnativer Anwendungen avanciert. Bei einer überschaubaren Anzahl von Containern ist es noch möglich, diese manuell bereitzustellen und zu verwalten. In vielen Unternehmen nehmen Containeranwendungen aber stark zu, was eine automatisierte Orchestrierung der Implementierung, Vernetzung, Skalierung und das gesamte Lebenszyklusmanagement von Containern unverzichtbar macht.

IT-Verantwortliche setzen heute auf Container wegen der Geschwindigkeit der Bereitstellung, der Portabilität von Workloads und der guten Vereinbarkeit mit DevOps-Workflows. Container können die Bereitstellung von Ressourcen für Entwickler, die unter Zeitdruck stehen, erheblich vereinfachen. Wenn Unternehmen erst einmal die Vorteile von Containern generell und insbesondere einer Orchestrierungsplattform wie Kubernetes für DevOps, Anwendungsentwicklung und -bereitstellung verstanden haben, eröffnen sich so viele Möglichkeiten. Diese reichen von der Modernisierung traditioneller Anwendungen bis hin zu Hybrid- und Multicloud-Implementierungen und der Entwicklung neuer Cloudanwendungen mit der heute erwarteten Geschwindigkeit und Agilität.

Kubernetes als Orchestrierungsplattform
All dies sind Aspekte, die vor dem Hintergrund der pandemiebedingt veränderten Rahmenbedingungen zuletzt sogar nochmals an Bedeutung gewonnen haben. Eine Umfrage im Auftrag von Portworx ergab, dass 68 Prozent der IT-Profis ihre Nutzung von Kubernetes als Folge der Pandemie erhöht haben. Sie setzen vor allem darauf, um die Bereitstellung neuer Anwendungen zu beschleunigen und den Einsatz von Automatisierung zu erhöhen. Beides ist entscheidend, um Kunden und Mitarbeiter dort zu bedienen, wo sie sich bevorzugt befinden.

Fast 75 Prozent der IT-Profis sehen den größten Vorteil der Einführung von Kubernetes in der Möglichkeit, neue Anwendungen schneller bereitzustellen. Unternehmen nutzen der Studie zufolge die Plattform zunehmend, um Modelle für künstliche Intelligenz zu entwickeln und zu testen und um Speicher-, Netzwerk- und Recheninfrastruktur zu verwalten und zu automatisieren. Fast 90 Prozent der IT-Profis erwarten, dass Kubernetes in den nächsten zwei bis drei Jahren eine größere Rolle bei der Verwaltung ihrer Infrastruktur spielen wird.
Weg von manuellen Prozessen
Abseits aller Euphorie ist Kubernetes schlicht eine Open-Source-Plattform, die den Betrieb von Linux-Containern automatisiert. Als eine der beliebtesten Plattformen orchestriert sie die Einrichtung, den Betrieb und die Skalierung von Anwendungen in Containern. Die meisten Unternehmen setzen darauf, um ihre Produktivität, Portabilität, Ressourceneffizienz und Skalierbarkeit zu verbessern. Kubernetes beseitigt viele der manuellen Prozesse, die mit der Bereitstellung und Skalierung von containerisierten Anwendungen verbunden sind. Benutzer können Gruppen von Hosts, auf denen Linux-Container laufen, zu Clustern zusammenfassen, und die Plattform hilft ihnen, diese Cluster einfach und effizient zu verwalten.

Da Kubernetes heute die beliebteste Plattform für die Container-Orchestrierung ist, bieten die meisten führenden Public-Cloud-Anbieter verwaltete Dienste an. Kubernetes ist damit zu einem wichtigen Teil des Cloudpuzzles geworden. Es ist selbst zwar cloudnativ, aber nicht auf diese beschränkt. Die Stärke des Open-Source-Ökosystems für Cloudimplementierungen ist nur zum Teil auf einzelne Projekte zurückzuführen, sondern vor allem auf das breite Spektrum an komplementären Projekten, die zusammen eine echte cloudnative Plattform bilden. Kubernetes erleichtert das Konfigurieren, Bereitstellen, Verwalten und Überwachen selbst der umfangreichsten containerisierten Anwendungen. Außerdem hilft es IT-Experten bei der Verwaltung der Lebenszyklen von Containern und zugehörigen Anwendungen sowie bei Problemen wie Hochverfügbarkeit und Lastausgleich.

Positive Auswirkung auf die CO2-Bilanz
Der Energieverbrauch von Rechenzentren in der EU wird laut einer Studie der EU-Kommission voraussichtlich ausgehend von 2,7 Prozent des Gesamtstrombedarfs im Jahr 2018 auf 3,2 Prozent im Jahr 2030 ansteigen. Der CO2-Ausstoß von Rechenzentren ist abhängig von der PUE (Power Usage Effectiveness), also dem Effizienzgrad der Infrastruktur, der Serverauslastung, der CO2-Emissionsintensität und vom Gesamtstromverbrauch. Public-Cloud-Rechenzentren verbrauchen dabei beim Betrieb einer gleich großen Infrastruktur weniger Strom als lokale Rechenzentren. Die tatsächliche CO2-Emission wird durch den bezogenen Strom-Mix aus fossilen und erneuerbaren Energiequellen bestimmt. Die Einführung von Kubernetes im Technologie-Stack kann sich positiv auf die CO2-Emission der beanspruchten Cloudressourcen oder der privaten Infrastruktur eines Unternehmens auswirken.

So hat der Betrieb von in Cloudumgebungen Auswirkungen auf die Serverauslastung und die CO2-Emissionsintensität. Die Serverauslastung ist der wichtigste Faktor bei der Bestimmung der Effizienz und damit auch des CO2-Fußabdrucks der Serverinfrastruktur. Aktuell liegt die typische Auslastung immer noch bei deutlich unter 30 Prozent, wobei die Zahlen im Bereich von 10 bis 25 Prozent variieren. Mit Kubernetes lassen sich mehr Anwendungen auf der gleichen Hardware betreiben und damit die Auslastung erhöhen. Dies bedeutet eine geringere Ressourcenverschwendung, weniger Maschinen und Platzbedarf für die Infrastruktur sowie einen geringeren Energiebedarf. Ein Unternehmen kann dieselben Workloads mit einer geringeren Anzahl an VMs betreiben, die es ohne die Plattform benötigt. Das Unternehmen muss keine neue Infrastruktur anschaffen, wenn es neue Projekte starten möchte. Dies wirkt sich unmittelbar positiv auf die CO2-Bilanz aus und ist die effektivste Maßnahme für Klimaschutz.

Die zweite Variable, die Kubernetes potenziell beeinflussen kann, ist die CO2-Emissionsintensität. Da es von Natur aus portabel ist, bietet es mehr Flexibilität bei der Platzierung von Workloads. Die CO2-Emissionsintensität variiert je nach Region des Cloudanbieters, deren Rechenzentren in der Regel an die Stromnetze vor Ort angeschlossen sind. Somit lassen sich Regionen entsprechend bewerten, um basierend auf dem Strommix Entscheidungen über die Platzierung von Workloads zu treffen. Die Plattform sorgt also insgesamt für erhebliche Verbesserungen bei der Nutzung der Infrastruktur. Die höhere Serverauslastung und die erzielbare geringere CO2-Emissionsintensität sind entscheidende Pluspunkte. Container-Computing generell und Kubernetes im Speziellen werden damit zu einer unerwartet effektiven Stellschraube für Unternehmen, die ihren CO2-Fußabdruck insgesamt reduzieren wollen.

Fazit
Bei der Modernisierung des Technologieparks gilt es sich klarzumachen, dass jede Ressource wertvoll ist und dass sich bereits vorhandene Technologien oft noch besser nutzen lassen. Hierzu zählt auch die Automatisierung des Betriebs von Kubernetes-Clustern in einer Hybrid- oder Multicloud-Umgebung. Eine moderne Kubernetes-Orchestrierungsplattform bietet standardisierte Cluster-Installationen, zentralisierte Compliance, vollständiges Lifecycle-Management und geschäftskritischen Support.
4.01.2023/ln/Sebastian Scheele, CTO, CEO und Mitbegründer von Kubermatic

Nachrichten

Bare Metal as a Service [10.01.2023]

OVHcloud stellt mit "Metal Instances" sein neues Angebot an Public-Cloud-Instanzen vor. Sie bieten die Rechenleistung von Bare-Metal-Servern, unterstützen eine Infrastructure-as-Code-Bereitstellungsmethode und bieten die Flexibilität und den Komfort der Public Cloud mit einem Pay-as-you-go-Abrechnungsmodell. [mehr]

Geschützter Zugriff [14.12.2022]

Jamf hat eine neue Integration mit Amazon Web Services vorgestellt: AWS Verified Access ermöglicht es Nutzern, innerhalb von Jamf verschiedene Richtlinien und Kriterien zu definieren, die Endgeräte erfüllen müssen, bevor diese Zugang auf die über AWS verfügbaren Anwendungen erhalten. [mehr]

Besserer Einblick [8.11.2022]

Tipps & Tools

Fundgrube für Icons [27.01.2023]

Passende Icons lassen nicht nur PowerPoint-Präsentationen auf Anhieb lebendiger wirken – die kleinen Zeichen entfachen längst medienübergreifend große Wirkung und werden immer wichtiger. Wenn dann herkömmliche Bezugsquellen wie die Bordmittel von Office erschöpft sind, sind Alternativen gefragt: Das Webportal "Iconfinder.com" führt viele solcher Werke kostenfrei, die sich einfach und schnell finden und herunterladen lassen. [mehr]

Sichere Kollaboration gewährleisten [26.01.2023]

Angesichts der Eile, mit der das hybride Arbeiten eingeführt werden musste, haben viele Unternehmen eine der größten Herausforderungen übersehen: die Cybersicherheit. Deshalb erläutert unser Fachartikel im Web prägnant, was Organisationen und ihre IT-Security-Spezialisten wissen beziehungsweise anwenden sollten, um von den Vorteilen der hybriden Arbeitswelt zu profitieren – ohne dabei die eigene Sicherheit zu gefährden. [mehr]

Im Test: Spike 3.70 [12.01.2023]

Buchbesprechung

The Security Culture Playbook

von Perry Carpenter und Kai Roer

Anzeigen