Kurzeinführung zu OpenStack

Lesezeit
2 Minuten
Bis jetzt gelesen

Kurzeinführung zu OpenStack

21.03.2016 - 14:00
Veröffentlicht in:
OpenStack ist ein Softwareprojekt, das eine freie Architektur für Cloud Computing zur Verfügung stellt. Im Detail betrachtet handelt es sich um einen Verbund an Services, der oft als "die Cloud" beschrieben wird, und der über mehrere Knoten verteilt als IT-Infrastruktur auf Basis von Standard-Hardware fungiert. Der Artikel erklärt die Bestandteile dieser Architektur.
Um genau zu sein, bedeutet der Zugriff auf eine Anwendung über ein Netzwerk nicht zwangsläufig, dass die Cloud im Spiel ist. Unternehmen setzen auf die Cloud, um große Teile von Datenzentren zu virtualisieren. Durch den Einsatz von OpenStack können IT-Verantwortliche die Flexibilität erhöhen, die Kosten senken und ermöglichen es der IT-Abteilung, mit der Geschwindigkeit heutiger Geschäftsabläufe Schritt zu halten. Passt ein Unternehmen seine IT-Infrastruktur an, um die Vorteile von Cloud Computing zu nutzen, ergeben sich daraus natürlich auch Kosten und die ein oder andere Herausforderung. Doch je dynamischer sich die Anforderungen an die IT gestalten, desto eher kann sie von einer Virtualisierung des Datenzentrums profitieren.

Infrastructure-as-a-Service
Die Bereitstellung von Datenzentren als Service ermöglicht mehr Flexibilität und Anpassungsmöglichkeiten. Herkömmliche Konfigurationen in Datenzentren werden mit der Zeit sehr komplex, wenn funktionsspezifische Systeme erweitert sowie Netzwerkkonfigurationen geändert werden oder die Hard- und Softwareanbieter ihre Support-Matrix ändern. Um bei diesen konstanten Veränderungen den Überblick zu behalten, müssen die IT-Führungskräfte viel Zeit aufwenden, um die jeweils aktuellen IT-Konfigurationen zu verstehen und bei Eingriffen keine Probleme zu verursachen. Das kostet Zeit und Mühe, die besser in den Entwurf von Best Practices und Entscheidungen zur Gesamtstruktur investiert wären. OpenStack ermöglicht den IT-Kräften ein einmaliges Anschließen bei mehrfachem Verwerten. Die Konfiguration von Speicherplatz, Netzwerk und anderen Ressourcen wird zentral verwaltet, was Zeit beim Erfassen des physischen Umgebungsaufbaus einspart.


Dank Compute Engines (Nova), Software Defined Networking (Neutron), verteiltem Speicher (Ceph) und anderen OpenStack-Services muss die physische Vernetzung der Infrastruktur nur einmal erfolgen, während die Konfiguration und Neukonfiguration auf der Software-Ebene erfolgt. Vorbei sind die Zeiten, in denen ganze Flure aufgerissen werden mussten, um herauszufinden, wie das Netzwerk vor Jahren konfiguriert und irgendwann einmal  – womöglich ohne Ankündigung und ordentliche Dokumentation – modifiziert wurde. Neue Geräte können der Umgebung dynamisch hinzugefügt werden, während bestehende Hardware dank der verschiedenen Virtualisierungsebenen mit minimalem Aufwand ausgetauscht werden kann.

Hauptpfeiler Virtualisierung
Die Trennung von Stack-Ebenen mit einfach zu konfigurierender Software, oder auch Virtualisierung, ist zentral für den Gebrauch der Cloud. Virtualisierung erlaubt den Betrieb mehrerer Instanzen eines Betriebssystems auf der selben Hardware-Einheit. Das gleiche Konzept lässt sich auf den Zugang zu Netzwerk und Speicher anwenden. Jeder wichtige Baustein eines Computers wird über eine komplexe Struktur an Konfigurationen und APIs referenziert, wodurch es möglich wird, einzelne Ebenen flexibel zu ändern, ohne die gesamte Umgebung neu konfigurieren oder Hardware und Kabel physisch bewegen zu müssen.

Virtualisierung hat selbstverständlich seinen Preis. Software wie Hardware muss so entwickelt werden, dass sie virtualisierungsfähig sind. Layering beeinflusst die Systemleistung und erfordert mehr Ressourcen, um dem Anwender ein identisches Service-Niveau zu bieten. Anstelle von spezialisierten Geräten lässt sich aber kleinere Standard-Hardware einsetzen und der Vorteil von virtueller Skalierung für eine verbesserte Wirtschaftlichkeit nutzen.

    Seite 1: Hauptpfeiler Virtualisierung
    Seite 2: IT-Ressourcen auf Tempo gebracht


Seite 1 von 2 Nächste Seite >>


ln/Tim Serewicz, Senior Instructor/Curriculum Developer, The Linux Foundation

Ähnliche Beiträge

Netzwerkverwaltung an der Medizinischen Universität Wien

Die IT-Abteilung der Medizinischen Universität Wien betreibt das Netzwerk der Universität, wozu die Betreuung von rund 10.000 Anschlüssen sowie Hunderten Endgeräten und Servern gehört. Für diese Aufgabe wurde eine neue Informations- und Planungssoftware für Kabelmanagement und Netzwerkdokumentation implementiert. Das neue Werkzeug ist flexibel, skalierbar und deckt die steigenden Sicherheitsanforderungen voll ab.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (3)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im dritten und letzten Teil gehen wir auf weitere Varianten ein, etwa die ZTP-Provisionierung ohne proprietären Server, die Boot-Loader-Variante iPXE oder das alte Verfahren AutoInstall.

Zero-Touch-Provisionierung von aktiven Netzwerkkomponenten (2)

Zero-Touch-Provisionierungsprozesse sind im Rollout von Client-PCs und Servern bereits lange Zeit Standard. Im Gegensatz dazu kommen diese Prozesse bei aktiven Netzwerkkomponenten wie Routern und Switches nur selten zum Einsatz. Im zweiten Teil der Workshopserie schildern wir den proprietären Cisco-Ansatz "Network-Plug-and-Play", der über eine GUI erfolgt und bei dem sich die ausgerollten Komponenten an die Gegebenheiten im Netzwerk anpassen lassen.