Event-Streaming als Kern einer hybriden Cloudstrategie

Lesezeit
3 Minuten
Bis jetzt gelesen

Event-Streaming als Kern einer hybriden Cloudstrategie

05.05.2021 - 14:00
Veröffentlicht in:
Nutzer von heute sind es gewohnt, nahezu alles in Echtzeit zu erleben: Live-Berichterstattung selbst aus entlegensten Teilen der Welt oder die Nachverfolgung von Bestellungen. Im Hintergrund müssen sich dabei riesige Datenmengen mit hoher Geschwindigkeit zwischen der Cloud und on-premises bewegen – eine große Herausforderung für die IT. Event-Streaming kann hier als ständige Verbindung zwischen allen Unternehmensbereichen fungieren und den Datenfluss in hybriden Cloudarchitekturen nahtlos ermöglichen.
Hochpersonalisierte Nutzererfahrung, schnelle Bereitstellung relevanter Informationen und Unterstützung bei wichtigen Entscheidungen: Moderne Verbraucher stellen heute hohe Anforderungen an die Anwendungen und Services, die sie täglich verwenden. Welche Serie soll ich als Nächstes streamen? Wie verwalte ich meine Finanzen am effektivsten? Wo befindet sich der Postbote mit meinem Paket? Kommen digitale Dienste diesen Anforderungen nicht nach, kann das nicht nur in Frustration enden, sondern auch im Wechsel zu Alternativen.

Daher ist es für Unternehmen unerlässlich, auf digitale Ereignisse oder Vorkommnisse in Echtzeit zu reagieren. Um dies zu erreichen, müssen Organisationen in der Lage sein, auch Daten in Bewegung zu nutzen, damit sie auf digitale Echtzeitereignisse beziehungsweise -Events reagieren können. Wenn Unternehmen ihre herkömmliche Dateninfrastruktur um Cloud Computing erweitern, entsteht jedoch eine neue Hürde: der Datenaustausch zwischen lokaler Infrastruktur und der Cloud. Event-Streaming ermöglicht in diesem Fall den reibungslosen und sicheren Austausch von Daten zwischen den Systemen in hybriden Umgebungen.

Der Mehrwert von Hybrid-Cloud-Umgebung

Die Hybrid Cloud entstand aus der Notwendigkeit heraus, Daten sowohl in die Cloud zu migrieren als auch On-Premises-Infrastrukturen weiterhin zu nutzen. Nur wenige Anwender wissen, dass sie nicht mit einer einzigen, sondern mit einer komplexen Verbindung aus Anwendungen oder Microservices interagieren, die unabhängig voneinander sind, aber dennoch miteinander kommunizieren und nahtlos integrieren. Dadurch steigen die Datenanforderungen so stark an, dass der Betriebsaufwand die Kosten und den Nutzen übertrifft.

Die Vorteile von Cloud Computing und Fully-Managed Services helfen Unternehmen dabei, sich an diese Umstände anzupassen. On-Premises- und Cloudsysteme laufen parallel, wodurch eine in jedem Unternehmen individuelle Hybrid-Cloud-Umgebung entsteht. Das Ziel einer hybriden Infrastruktur: lokale IT erhalten sowie gleichzeitig den Mehrwert von Cloud- und Fully-Managed Services in Form von Skalierbarkeit und Agilität nutzen. Dies kommt besonders in Branchen zum Tragen, deren IT-Landschaft auf Legacy-Systemen aufbaut. Zwar lassen sich neue Anwendungen in der Cloud erstellen, dennoch müssen sie weiterhin mit sich in Rechenzentren befindlichen Edge- oder historischen Daten verknüpft werden.

Effizienzverlust beim Datenaustausch
Das größte Problem, das sich durch einen Hybrid-Cloud-Ansatz ergibt, stellt der ineffiziente Austausch von Daten zwischen verschiedenen Systemen dar. Sobald ein Unternehmen Microservices einsetzt, die das Fundament vieler moderner, reaktionsschneller und skalierbarer Dienste bilden, verstärkt sich dieses Problem sogar noch. Der Erfolg von Hybrid-Cloud-Ansätzen erfährt durch den komplexen Datenaustausch zwischen On-Premises- und Cloudinfrastrukturen einen nicht zu unterschätzenden Dämpfer.

Diese Herausforderung lässt sich mit der gleichen Vorgehensweise bewältigen, die auch in Mainframe-Systemen zum Einsatz kommt: Systeme, die kommunizieren müssen, über eine direkte Leitung miteinander verbinden. Ähnlich funktioniert es bei einem Telefonsystem –eine überschaubare End-to-End-Lösung zwischen wenigen Anschlüssen, unüberschaubar bei vielen, komplex verlegten Anschlüssen.

Datenstromverarbeiter Apache Kafka
Event-Streaming stellt für das Problem des Datenaustausches die Lösung dar: Anstatt die angeforderten Daten direkt zwischen zwei Anwendungen über eine Punkt-zu-Punkt-Verbindung zu senden, werden sie in einem "System of Record" gesammelt, auf das jeder Rechner in Echtzeit zugreifen kann. Um noch einmal das oben angeführte Telefon-Beispiel aufzugreifen: Person A hat Informationen, die sie mit anderen Personen teilen möchte. A ruft nicht die Personen B, C et cetera einzeln an, sondern nutzt einen Livestream, um die Information an so viele Empfänger wie möglich zu distribuieren. So können viele Personen die gleiche Information zur gleichen Zeit nutzen und später noch on-demand abrufen. Neben der effizienten Verarbeitung und Bereitstellung von sich ständig bewegenden Daten ergibt sich ein weiterer Vorteil durch Event-Streaming: Die für die Datenübertragung benötigte Bandbreite und Komplexität lassen sich minimieren.

Eine offene, auf Apache Kafka basierende Daten-Streaming-Plattform ist sowohl im eigenen Rechenzentrum eines Unternehmens als auch am Rande des Netzwerks (Edge) sowie in der Cloud einsetzbar. Kafka integriert Daten aus dem gesamten Unternehmen – unabhängig davon, wo sie sich befinden. Von den in Rechenzentren oder Mainframe-Systemen gespeicherten Daten bis hin zu jenen, die in Cloudanwendungen gelagert werden: Event-Streaming fungiert als unmittelbare Verbindung zwischen sämtlichen Bereichen eines Unternehmens. Es ermöglicht die Echtzeit-Verarbeitung sowie den nahtlosen und sicheren Austausch großer Datenmengen in Hybrid-Cloud-Umgebungen, wodurch es erheblich zur Auflösung der Systemkomplexität beiträgt.

Fazit
Wenn Unternehmen lediglich einige wenige Anwendungen implementieren, reicht das oft nicht aus, um wettbewerbsfähig zu bleiben. Zwar bietet die Hybrid Cloud eine gute Grundlage zur Bereitstellung moderner Dienste, bringt jedoch eine Reihe von Herausforderungen mit sich. Eine davon ist der effiziente Datenaustausch zwischen unterschiedlichen Systemen. Event-Streaming kann mittels Echtzeit-Verarbeitung und -Bereitstellung riesiger Datenmengen sowie Skalierbarkeit und hohe Verfügbarkeit dabei helfen, diese Hürde zu überspringen. Deshalb sollte es Teil einer jeden Hybrid-Cloud-Strategie sein.

ln/Kai Waehner, Field CTO und Global Technology Advisor bei Confluent

Ähnliche Beiträge

Windows Server 2019: Erstellen und Verwalten von Snapshots (3)

Snapshots, oder auch Prüfpunkte, sichern VMs vor Konfigurationsänderungen oder dienen als Backup. Im Idealfall lassen sich VMs damit bei Problemen in wenigen Sekunden in den ursprünglichen Zustand zurücksetzen. Produktionsprüfpunkte berücksichtigen bei dieser Art der Sicherung sogar die aktuellen Workloads. Wir zeigen, wie Sie optimal mit Prüfpunkten arbeiten und dabei serverseitige Leistungseinbrüche verhindern. Im dritten und letzten Teil der Workshopserie erklären wir, wie sie Prüfpunkte richtig löschen und was beim Sonderfall Hyper-V-Cluster zu beachten ist.

Seite 2 - Windows Server 2019: Erstellen und Verwalten von Snapshots (2)

Prüfpunkte in Hyper-V erstellen
Hyper-V ermöglicht das Erstellen von Prüfpunkten auch ohne dass Sie Zusatzanwendungen installieren. Den entsprechenden Befehl finden Sie im Kontextmenü der virtuellen Computer im Hyper-V-Manager. Auch über System Center Virtual Machine Manager lassen sich Snapshots aufnehmen.

Windows Server 2019: Erstellen und Verwalten von Snapshots (2)

Snapshots, oder auch Prüfpunkte, sichern VMs vor Konfigurationsänderungen oder dienen als Backup. Im Idealfall lassen sich VMs damit bei Problemen in wenigen Sekunden in den ursprünglichen Zustand zurücksetzen. Produktionsprüfpunkte berücksichtigen bei dieser Art der Sicherung sogar die aktuellen Workloads. Wir zeigen, wie Sie optimal mit Prüfpunkten arbeiten und dabei serverseitige Leistungseinbrüche verhindern. In der zweiten Workshop-Folge gehen wir darauf ein, wie Sie Leistungseinbrüche durch zu viele Snapshots vermeiden und Prüfpunkte in Hyper-V erstellen und verwalten.