Lesezeit
2 Minuten
Kurzeinführung zu OpenStack
OpenStack ist ein Softwareprojekt, das eine freie Architektur für Cloud Computing zur Verfügung stellt. Im Detail betrachtet handelt es sich um einen Verbund an Services, der oft als "die Cloud" beschrieben wird, und der über mehrere Knoten verteilt als IT-Infrastruktur auf Basis von Standard-Hardware fungiert. Der Artikel erklärt die Bestandteile dieser Architektur.
Um genau zu sein, bedeutet der Zugriff auf eine Anwendung über ein Netzwerk nicht zwangsläufig, dass die Cloud im Spiel ist. Unternehmen setzen auf die Cloud, um große Teile von Datenzentren zu virtualisieren. Durch den Einsatz von OpenStack können IT-Verantwortliche die Flexibilität erhöhen, die Kosten senken und ermöglichen es der IT-Abteilung, mit der Geschwindigkeit heutiger Geschäftsabläufe Schritt zu halten. Passt ein Unternehmen seine IT-Infrastruktur an, um die Vorteile von Cloud Computing zu nutzen, ergeben sich daraus natürlich auch Kosten und die ein oder andere Herausforderung. Doch je dynamischer sich die Anforderungen an die IT gestalten, desto eher kann sie von einer Virtualisierung des Datenzentrums profitieren.
Infrastructure-as-a-Service
Die Bereitstellung von Datenzentren als Service ermöglicht mehr Flexibilität und Anpassungsmöglichkeiten. Herkömmliche Konfigurationen in Datenzentren werden mit der Zeit sehr komplex, wenn funktionsspezifische Systeme erweitert sowie Netzwerkkonfigurationen geändert werden oder die Hard- und Softwareanbieter ihre Support-Matrix ändern. Um bei diesen konstanten Veränderungen den Überblick zu behalten, müssen die IT-Führungskräfte viel Zeit aufwenden, um die jeweils aktuellen IT-Konfigurationen zu verstehen und bei Eingriffen keine Probleme zu verursachen. Das kostet Zeit und Mühe, die besser in den Entwurf von Best Practices und Entscheidungen zur Gesamtstruktur investiert wären. OpenStack ermöglicht den IT-Kräften ein einmaliges Anschließen bei mehrfachem Verwerten. Die Konfiguration von Speicherplatz, Netzwerk und anderen Ressourcen wird zentral verwaltet, was Zeit beim Erfassen des physischen Umgebungsaufbaus einspart.
Dank Compute Engines (Nova), Software Defined Networking (Neutron), verteiltem Speicher (Ceph) und anderen OpenStack-Services muss die physische Vernetzung der Infrastruktur nur einmal erfolgen, während die Konfiguration und Neukonfiguration auf der Software-Ebene erfolgt. Vorbei sind die Zeiten, in denen ganze Flure aufgerissen werden mussten, um herauszufinden, wie das Netzwerk vor Jahren konfiguriert und irgendwann einmal – womöglich ohne Ankündigung und ordentliche Dokumentation – modifiziert wurde. Neue Geräte können der Umgebung dynamisch hinzugefügt werden, während bestehende Hardware dank der verschiedenen Virtualisierungsebenen mit minimalem Aufwand ausgetauscht werden kann.
Hauptpfeiler Virtualisierung
Die Trennung von Stack-Ebenen mit einfach zu konfigurierender Software, oder auch Virtualisierung, ist zentral für den Gebrauch der Cloud. Virtualisierung erlaubt den Betrieb mehrerer Instanzen eines Betriebssystems auf der selben Hardware-Einheit. Das gleiche Konzept lässt sich auf den Zugang zu Netzwerk und Speicher anwenden. Jeder wichtige Baustein eines Computers wird über eine komplexe Struktur an Konfigurationen und APIs referenziert, wodurch es möglich wird, einzelne Ebenen flexibel zu ändern, ohne die gesamte Umgebung neu konfigurieren oder Hardware und Kabel physisch bewegen zu müssen.
Virtualisierung hat selbstverständlich seinen Preis. Software wie Hardware muss so entwickelt werden, dass sie virtualisierungsfähig sind. Layering beeinflusst die Systemleistung und erfordert mehr Ressourcen, um dem Anwender ein identisches Service-Niveau zu bieten. Anstelle von spezialisierten Geräten lässt sich aber kleinere Standard-Hardware einsetzen und der Vorteil von virtueller Skalierung für eine verbesserte Wirtschaftlichkeit nutzen.
Seite 1: Hauptpfeiler Virtualisierung
Seite 2: IT-Ressourcen auf Tempo gebracht
ln/Tim Serewicz, Senior Instructor/Curriculum Developer, The Linux Foundation
Infrastructure-as-a-Service
Die Bereitstellung von Datenzentren als Service ermöglicht mehr Flexibilität und Anpassungsmöglichkeiten. Herkömmliche Konfigurationen in Datenzentren werden mit der Zeit sehr komplex, wenn funktionsspezifische Systeme erweitert sowie Netzwerkkonfigurationen geändert werden oder die Hard- und Softwareanbieter ihre Support-Matrix ändern. Um bei diesen konstanten Veränderungen den Überblick zu behalten, müssen die IT-Führungskräfte viel Zeit aufwenden, um die jeweils aktuellen IT-Konfigurationen zu verstehen und bei Eingriffen keine Probleme zu verursachen. Das kostet Zeit und Mühe, die besser in den Entwurf von Best Practices und Entscheidungen zur Gesamtstruktur investiert wären. OpenStack ermöglicht den IT-Kräften ein einmaliges Anschließen bei mehrfachem Verwerten. Die Konfiguration von Speicherplatz, Netzwerk und anderen Ressourcen wird zentral verwaltet, was Zeit beim Erfassen des physischen Umgebungsaufbaus einspart.
Dank Compute Engines (Nova), Software Defined Networking (Neutron), verteiltem Speicher (Ceph) und anderen OpenStack-Services muss die physische Vernetzung der Infrastruktur nur einmal erfolgen, während die Konfiguration und Neukonfiguration auf der Software-Ebene erfolgt. Vorbei sind die Zeiten, in denen ganze Flure aufgerissen werden mussten, um herauszufinden, wie das Netzwerk vor Jahren konfiguriert und irgendwann einmal – womöglich ohne Ankündigung und ordentliche Dokumentation – modifiziert wurde. Neue Geräte können der Umgebung dynamisch hinzugefügt werden, während bestehende Hardware dank der verschiedenen Virtualisierungsebenen mit minimalem Aufwand ausgetauscht werden kann.
Hauptpfeiler Virtualisierung
Die Trennung von Stack-Ebenen mit einfach zu konfigurierender Software, oder auch Virtualisierung, ist zentral für den Gebrauch der Cloud. Virtualisierung erlaubt den Betrieb mehrerer Instanzen eines Betriebssystems auf der selben Hardware-Einheit. Das gleiche Konzept lässt sich auf den Zugang zu Netzwerk und Speicher anwenden. Jeder wichtige Baustein eines Computers wird über eine komplexe Struktur an Konfigurationen und APIs referenziert, wodurch es möglich wird, einzelne Ebenen flexibel zu ändern, ohne die gesamte Umgebung neu konfigurieren oder Hardware und Kabel physisch bewegen zu müssen.
Virtualisierung hat selbstverständlich seinen Preis. Software wie Hardware muss so entwickelt werden, dass sie virtualisierungsfähig sind. Layering beeinflusst die Systemleistung und erfordert mehr Ressourcen, um dem Anwender ein identisches Service-Niveau zu bieten. Anstelle von spezialisierten Geräten lässt sich aber kleinere Standard-Hardware einsetzen und der Vorteil von virtueller Skalierung für eine verbesserte Wirtschaftlichkeit nutzen.
Seite 1: Hauptpfeiler Virtualisierung
Seite 2: IT-Ressourcen auf Tempo gebracht
Seite 1 von 2 | Nächste Seite >> |
ln/Tim Serewicz, Senior Instructor/Curriculum Developer, The Linux Foundation