Lesezeit
2 Minuten
Seite 2 - Grundlagen und Chancen von Software-defined Storage
Verfügbarkeit mit SDS sicherstellen
Jedes Unternehmen ist rund um die Uhr auf zuverlässige und stets verfügbare IT-Systeme angewiesen. Und jedes Speichersystem bietet auf bestimmte Weise eine Form von Redundanz. Es gibt viele Architekturen und Konfigurationen, die ein jeweils anderes Maß der Sicherung für verschiedene Situationen bereitstellen. Redundante Hardware und redundante Daten (via RAID, Spiegelung oder anderen Technologien) sind der gängige Weg.
Ein Speicher-Array mit zwei Controllern und mehreren Datenkopien schützt vor Unterbrechungen des Tagesgeschäfts, wenn eine Platte oder ein Controller ausfällt. Wenn jedoch die Klimaanlage versagt und die gesamte Einheit ausfällt, ist die Redundanz dahin. Für diesen Fall bieten manche Systeme eine Kopie im gleichen Rechenzentrum. Eine andere Option ist ein Metro Cluster, bei dem die Kopie an einem anderen physischen Ort gespeichert wird – der noch nah genug ist, um die nötigen Latenzen für synchrone Spiegelung zu bieten. Außerdem ist es möglich, auf asynchrone Spiegelung zu setzen. Hier befinden sich die gespiegelten Daten zum Schutz vor Totalausfällen in einem weit entfernten Standort.
SDS als Zeitmaschine
Es gibt weitere Tools, beispielsweise Continuous Data Protection, die wie eine Zeitmaschine jeden Schaden beheben kann – etwa verursacht durch die vermehrt auftretenden Angriffe von außen, wie Ransomware-Attacken. Dafür wird jede Änderung der Daten und deren Zeitpunkt erfasst. Der Anwender kann dann an jeden beliebigen Zeitpunkt der nahen Vergangenheit zurückkehren und Schäden oder ungewollte Änderungen beheben.
Wer einmal einen Notfall oder einen Speicherausfall erlebt hat, weiß, dass der Wiederherstellungsprozess entscheidend für die Verfügbarkeit ist: Er sollte unmittelbar, automatisch, ohne menschliches Eingreifen und ohne Auswirkung auf die Anwender oder Anwendungen ablaufen. Ist das Problem erst gelöst und das ausgefallene Speichersystem wieder online, sollte vollautomatisch die Rekonstruktion und Herstellung des Ursprungszustands erfolgen, um auf künftige Ausfälle vorbereitet zu sein.
Ein Beispiel aus der Praxis: Als ein Hurricane den Nordosten der USA traf, überflutete er unter anderem das komplette Rechenzentrum eines Krankenhauses. Während des Unwetters musste die Klinik weiterhin lebenswichtige Operationen durchführen. Dank eines Metro Clusters konnte das Krankenhaus trotz der widrigen Umstände ohne Probleme weitermachen, Patienten behandeln und ohne Unterbrechungen arbeiten.
Maximale Performance mit Parallel-I/O-Technologie
Mit steigender CPU-Leistung wurden auch Speichersysteme und die Netzwerkkonnektivität schneller, aber der I/O blieb die am meisten serialisierte Verbindung zwischen Server und Speicher. I/O ist inzwischen der Flaschenhals, der zu beseitigen ist. Dabei kann die Parallel-I/O-Technologie den Unterschied machen.
Parallel I/O maximiert die Ausnutzung von Multi-Core-Prozessoren, um die Latenz erheblich zu senken. Darüber hinaus nutzt die Technologie KI-unterstütztes Caching und andere Techniken, um den Durchsatz zu maximieren. Verbesserte I/O ergänzt schnellere Speichersysteme, kann ältere Arrays beschleunigen und ihre Lebensdauer verlängern,und/oder den maximalen IOPS für NVMe Speicher bereitstellen.
Ein weiterer Vorteil ist Time to Performance. Für viele IT Abteilungen ist es kein gangbarer Weg, bestehende Speichersysteme mit den neuesten AFAs zu ersetzen. Das hat ökonomische Gründe und liegt auch am Aufwand, die Infrastruktur zu migrieren. Doch kann SDS mit implementierten Parallel I/O und Smart Caching die Performance für alle angeschlossenen Speichersysteme unmittelbar verbessern.
Fazit
Ein softwaredefinierter Ansatz beim Thema Storage bietet erhebliche Vorteile: Eine vereinfachte, effiziente und leichter zu verwaltende Rechenzentrumsumgebung, die sowohl die Leistung von Anwendungen steigert als auch neue geschäftliche Initiativen unterstützt. Ein weiterer Grund, warum SDS so schnell zur Grundlage moderner Rechenzentren werden dürfte, ist seine Flexibilität. Sie ermöglicht es dem IT-Team, auf die nächste Herausforderung und die nächste technologische Entwicklung bereits heute vorbereitet zu sein. SDS ist zudem eine wirklich hardwareunabhängige Architektur, verhindert Ausfallzeiten und kann die Performance für die Anwender erheblich verbessern.
Seite 2: Verfügbarkeit mit SDS sicherstellen
ln/Gerardo Dada, CMO bei DataCore Software
Jedes Unternehmen ist rund um die Uhr auf zuverlässige und stets verfügbare IT-Systeme angewiesen. Und jedes Speichersystem bietet auf bestimmte Weise eine Form von Redundanz. Es gibt viele Architekturen und Konfigurationen, die ein jeweils anderes Maß der Sicherung für verschiedene Situationen bereitstellen. Redundante Hardware und redundante Daten (via RAID, Spiegelung oder anderen Technologien) sind der gängige Weg.
Ein Speicher-Array mit zwei Controllern und mehreren Datenkopien schützt vor Unterbrechungen des Tagesgeschäfts, wenn eine Platte oder ein Controller ausfällt. Wenn jedoch die Klimaanlage versagt und die gesamte Einheit ausfällt, ist die Redundanz dahin. Für diesen Fall bieten manche Systeme eine Kopie im gleichen Rechenzentrum. Eine andere Option ist ein Metro Cluster, bei dem die Kopie an einem anderen physischen Ort gespeichert wird – der noch nah genug ist, um die nötigen Latenzen für synchrone Spiegelung zu bieten. Außerdem ist es möglich, auf asynchrone Spiegelung zu setzen. Hier befinden sich die gespiegelten Daten zum Schutz vor Totalausfällen in einem weit entfernten Standort.
Das ist alles nicht neu und nicht nur mit SDS umzusetzen. Es gibt allerdings verschiedene Gründe, dies mit einer SDS Plattform umzusetzen:
- HA/DR/BC-Architekturen flexibel und entsprechend der Anforderungen wählen: als synchronen Metro Cluster oder asynchrone Replikation in eine Cloud – oder als Kombination aus beidem. Die Auswahl wird nicht länger durch die Hersteller beschränkt.
- Die Möglichkeit, das gewählte Betriebsmodell über alle Speichergeräte hinweg zu implementieren – unabhängig von Interface, Anbieter oder Funktionalität der einzelnen Systeme.
- Die Option, über verschiedene Arten von Speichersystemen hinweg zu spiegeln – und nicht gezwungen zu sein, ein identisches System zu dem zu schützenden System zu nutzen. Beispiel: Der Anwender kann Daten in einem hyperkonvergierten Cluster mit SSD Platten in einer Zweigstelle zu einem traditionellen Array im zentralen Rechenzentrum spiegeln. Ergänzend sichert er die Daten ein drittes Mal für DR-Zwecke auf einem alten System in einem weiteren Rechenzentrum oder in der Cloud.
SDS als Zeitmaschine
Es gibt weitere Tools, beispielsweise Continuous Data Protection, die wie eine Zeitmaschine jeden Schaden beheben kann – etwa verursacht durch die vermehrt auftretenden Angriffe von außen, wie Ransomware-Attacken. Dafür wird jede Änderung der Daten und deren Zeitpunkt erfasst. Der Anwender kann dann an jeden beliebigen Zeitpunkt der nahen Vergangenheit zurückkehren und Schäden oder ungewollte Änderungen beheben.
Wer einmal einen Notfall oder einen Speicherausfall erlebt hat, weiß, dass der Wiederherstellungsprozess entscheidend für die Verfügbarkeit ist: Er sollte unmittelbar, automatisch, ohne menschliches Eingreifen und ohne Auswirkung auf die Anwender oder Anwendungen ablaufen. Ist das Problem erst gelöst und das ausgefallene Speichersystem wieder online, sollte vollautomatisch die Rekonstruktion und Herstellung des Ursprungszustands erfolgen, um auf künftige Ausfälle vorbereitet zu sein.
Ein Beispiel aus der Praxis: Als ein Hurricane den Nordosten der USA traf, überflutete er unter anderem das komplette Rechenzentrum eines Krankenhauses. Während des Unwetters musste die Klinik weiterhin lebenswichtige Operationen durchführen. Dank eines Metro Clusters konnte das Krankenhaus trotz der widrigen Umstände ohne Probleme weitermachen, Patienten behandeln und ohne Unterbrechungen arbeiten.
Maximale Performance mit Parallel-I/O-Technologie
Mit steigender CPU-Leistung wurden auch Speichersysteme und die Netzwerkkonnektivität schneller, aber der I/O blieb die am meisten serialisierte Verbindung zwischen Server und Speicher. I/O ist inzwischen der Flaschenhals, der zu beseitigen ist. Dabei kann die Parallel-I/O-Technologie den Unterschied machen.
Parallel I/O maximiert die Ausnutzung von Multi-Core-Prozessoren, um die Latenz erheblich zu senken. Darüber hinaus nutzt die Technologie KI-unterstütztes Caching und andere Techniken, um den Durchsatz zu maximieren. Verbesserte I/O ergänzt schnellere Speichersysteme, kann ältere Arrays beschleunigen und ihre Lebensdauer verlängern,und/oder den maximalen IOPS für NVMe Speicher bereitstellen.
Ein weiterer Vorteil ist Time to Performance. Für viele IT Abteilungen ist es kein gangbarer Weg, bestehende Speichersysteme mit den neuesten AFAs zu ersetzen. Das hat ökonomische Gründe und liegt auch am Aufwand, die Infrastruktur zu migrieren. Doch kann SDS mit implementierten Parallel I/O und Smart Caching die Performance für alle angeschlossenen Speichersysteme unmittelbar verbessern.
Fazit
Ein softwaredefinierter Ansatz beim Thema Storage bietet erhebliche Vorteile: Eine vereinfachte, effiziente und leichter zu verwaltende Rechenzentrumsumgebung, die sowohl die Leistung von Anwendungen steigert als auch neue geschäftliche Initiativen unterstützt. Ein weiterer Grund, warum SDS so schnell zur Grundlage moderner Rechenzentren werden dürfte, ist seine Flexibilität. Sie ermöglicht es dem IT-Team, auf die nächste Herausforderung und die nächste technologische Entwicklung bereits heute vorbereitet zu sein. SDS ist zudem eine wirklich hardwareunabhängige Architektur, verhindert Ausfallzeiten und kann die Performance für die Anwender erheblich verbessern.
Seite 2: Verfügbarkeit mit SDS sicherstellen
<< Vorherige Seite | Seite 2 von 2 |
ln/Gerardo Dada, CMO bei DataCore Software