Seite 2 - Grundlagen und Chancen von Software-defined Storage

Lesezeit
2 Minuten
Bis jetzt gelesen

Seite 2 - Grundlagen und Chancen von Software-defined Storage

05.06.2019 - 14:00
Veröffentlicht in:
Verfügbarkeit mit SDS sicherstellen
Jedes Unternehmen ist rund um die Uhr auf zuverlässige und stets verfügbare IT-Systeme angewiesen. Und jedes Speichersystem bietet auf bestimmte Weise eine Form von Redundanz. Es gibt viele Architekturen und Konfigurationen, die ein jeweils anderes Maß der Sicherung für verschiedene Situationen bereitstellen. Redundante Hardware und redundante Daten (via RAID, Spiegelung oder anderen Technologien) sind der gängige Weg.

Ein Speicher-Array mit zwei Controllern und mehreren Datenkopien schützt vor Unterbrechungen des Tagesgeschäfts, wenn eine Platte oder ein Controller ausfällt. Wenn jedoch die Klimaanlage versagt und die gesamte Einheit ausfällt, ist die Redundanz dahin. Für diesen Fall bieten manche Systeme eine Kopie im gleichen Rechenzentrum. Eine andere Option ist ein Metro Cluster, bei dem die Kopie an einem anderen physischen Ort gespeichert wird – der noch nah genug ist, um die nötigen Latenzen für synchrone Spiegelung zu bieten. Außerdem ist es möglich, auf asynchrone Spiegelung zu setzen. Hier befinden sich die gespiegelten Daten zum Schutz vor Totalausfällen in einem weit entfernten Standort.

Das ist alles nicht neu und nicht nur mit SDS umzusetzen. Es gibt allerdings verschiedene Gründe, dies mit einer SDS Plattform umzusetzen:

  • HA/DR/BC-Architekturen flexibel und entsprechend der Anforderungen wählen: als synchronen Metro Cluster oder asynchrone Replikation in eine Cloud – oder als Kombination aus beidem. Die Auswahl wird nicht länger durch die Hersteller beschränkt.
  • Die Möglichkeit, das gewählte Betriebsmodell über alle Speichergeräte hinweg zu implementieren – unabhängig von Interface, Anbieter oder Funktionalität der einzelnen Systeme.
  • Die Option, über verschiedene Arten von Speichersystemen hinweg zu spiegeln – und nicht gezwungen zu sein, ein identisches System zu dem zu schützenden System zu nutzen. Beispiel: Der Anwender kann Daten in einem hyperkonvergierten Cluster mit SSD Platten in einer Zweigstelle zu einem traditionellen Array im zentralen Rechenzentrum spiegeln. Ergänzend sichert er die Daten ein drittes Mal für DR-Zwecke auf einem alten System in einem weiteren Rechenzentrum oder in der Cloud.


SDS als Zeitmaschine
Es gibt weitere Tools, beispielsweise Continuous Data Protection, die wie eine Zeitmaschine jeden Schaden beheben kann – etwa verursacht durch die vermehrt auftretenden Angriffe von außen, wie Ransomware-Attacken. Dafür wird jede Änderung der Daten und deren Zeitpunkt erfasst. Der Anwender kann dann an jeden beliebigen Zeitpunkt der nahen Vergangenheit zurückkehren und Schäden oder ungewollte Änderungen beheben.

Wer einmal einen Notfall oder einen Speicherausfall erlebt hat, weiß, dass der Wiederherstellungsprozess entscheidend für die Verfügbarkeit ist: Er sollte unmittelbar, automatisch, ohne menschliches Eingreifen und ohne Auswirkung auf die Anwender oder Anwendungen ablaufen. Ist das Problem erst gelöst und das ausgefallene Speichersystem wieder online, sollte vollautomatisch die Rekonstruktion und Herstellung des Ursprungszustands erfolgen, um auf künftige Ausfälle vorbereitet zu sein.

Ein Beispiel aus der Praxis: Als ein Hurricane den Nordosten der USA traf, überflutete er unter anderem das komplette Rechenzentrum eines Krankenhauses. Während des Unwetters musste die Klinik weiterhin lebenswichtige Operationen durchführen. Dank eines Metro Clusters konnte das Krankenhaus trotz der widrigen Umstände ohne Probleme weitermachen, Patienten behandeln und ohne Unterbrechungen arbeiten.

Maximale Performance mit Parallel-I/O-Technologie
Mit steigender CPU-Leistung wurden auch Speichersysteme und die Netzwerkkonnektivität schneller, aber der I/O blieb die am meisten serialisierte Verbindung zwischen Server und Speicher. I/O ist inzwischen der Flaschenhals, der zu beseitigen ist. Dabei kann die Parallel-I/O-Technologie den Unterschied machen.

Parallel I/O maximiert die Ausnutzung von Multi-Core-Prozessoren, um die Latenz erheblich zu senken. Darüber hinaus nutzt die Technologie KI-unterstütztes Caching und andere Techniken, um den Durchsatz zu maximieren. Verbesserte I/O ergänzt schnellere Speichersysteme, kann ältere Arrays beschleunigen und ihre Lebensdauer verlängern,und/oder den maximalen IOPS für NVMe Speicher bereitstellen.

Ein weiterer Vorteil ist Time to Performance. Für viele IT Abteilungen ist es kein gangbarer Weg, bestehende Speichersysteme mit den neuesten AFAs zu ersetzen. Das hat ökonomische Gründe und liegt auch am Aufwand, die Infrastruktur zu migrieren. Doch kann SDS mit implementierten Parallel I/O und Smart Caching die Performance für alle angeschlossenen Speichersysteme unmittelbar verbessern.

Fazit
Ein softwaredefinierter Ansatz beim Thema Storage bietet erhebliche Vorteile: Eine vereinfachte, effiziente und leichter zu verwaltende Rechenzentrumsumgebung, die sowohl die Leistung von Anwendungen steigert als auch neue geschäftliche Initiativen unterstützt. Ein weiterer Grund, warum SDS so schnell zur Grundlage moderner Rechenzentren werden dürfte, ist seine Flexibilität. Sie ermöglicht es dem IT-Team, auf die nächste Herausforderung und die nächste technologische Entwicklung bereits heute vorbereitet zu sein. SDS ist zudem eine wirklich hardwareunabhängige Architektur, verhindert Ausfallzeiten und kann die Performance für die Anwender erheblich verbessern.

Seite 2: Verfügbarkeit mit SDS sicherstellen

<< Vorherige Seite Seite 2 von 2


ln/Gerardo Dada, CMO bei DataCore Software

Ähnliche Beiträge

IT-Tage 2023 – Konferenz für Entwicklung, Datenbanken, DevOps, Security und KI

„Alles unter einem Dach!“ ist das Motto der IT-Tage, der Jahreskonferenz des Fachmagazins Informatik Aktuell. Unter anderem werden Subkonferenzen zu den Themen Software-Entwicklung und -Architektur, Datenbanken, DevOps, Cloud & Serverless, IT-Security, Künstliche Intelligenz, Java, Python oder .NET angeboten.

Mit Objektspeicher zur Storage-Virtualisierung 2.0

Objektbasierte Speicherung hebt die Speichervirtualisierung auf das nächste Level. Sie macht es nicht nur einfacher, eine größere Storage-Kapazität bereitzustellen, sondern kann darüber hinaus für mehr Sicherheit und eine schnellere Wiederherstellung von Daten sorgen. Warum Technologien wie Inline-Deduplizierung, Komprimierung und Verschlüsselung dafür sprechen, diesem Ansatz zu folgen und zukünftig auf eine objektbasierte Speicherung zu setzen, beschreibt dieser Fachbeitrag.

Grundlagen und Chancen von Software-defined Storage

Storage ist nicht gerade sexy, aber das Herz der IT. Große Teile der Budgets wandern deshalb in mehr Kapazität. Egal ob hyperkonvergierte Architekturen, smarte All-Flash-Arrays, NVMe-Speicher oder die Cloud – mit der Entscheidung für Technologien oder einen Anbieter sind Unternehmen in der Regel für Jahre gebunden. Anders stell sich dies in einer Software-definierten Infrastruktur dar. Wie der Fachbeitrag zeigt, haben sie sich gerade im Speicherumfeld bewährt, um Rechenzentren agiler, reaktionsschneller und nicht zuletzt zukunftssicherer zu machen.