Fachartikel

Die Physik von DAS, SAN und Distributed Storage für OpenStack-Clouds

Beim Aufbau einer OpenStack-Umgebung herrschen verschiedene Zielkonflikte zwischen Direct Attached Storage (DAS), Storage Area Networks (SAN) und Distributed Storage. Bei der Entscheidung, welche Speichertechnologie für die jeweilige OpenStack-Umgebung am geeignetsten ist, spielen verschiedene Aspekte eine entscheidende Rolle. Der Beitrag erklärt, warum hierzu beispielsweise das Verständnis der physikalischen Gesetze, die Auswahlmöglichkeiten bei der Medien- und Speicherarchitektur sowie deren Auswirkungen auf Latenz und Persistenz zählen.
Der Wahl des richtigen Storage kommt beim Aufbau von OpenStack-Clouds eine hohe Bedeutung bei.
Um die Frage nach dem "richtigen" Storage für OpenStack-Clouds beantworten zu können, ist es zunächst notwendig, die Grundsätze zu beleuchten sowie die pysikalischen Notwendigkeiten zu untersuchen, nämlich wie verschiedene Speichertechnologien funktionieren und wie sie mit der implementierten OpenStack-Umgebung zusammenhängen.

Prinzip Nr. 1: Entfernung als wichtiger Faktor
Die Lichtgeschwindigkeit beträgt im Vakuum 299,792,458 Meter/Sekunde. Das ist zwar sehr schnell, setzt aber der Geschwindigkeit, mit der Daten unterwegs sein können, dem Umfang der Systemleistung sowie der Entfernung/Nähe von Cloud-Elementen Grenzen. Selbst bei der Annahme, dass sich das Licht über die optischen Fasern verlangsamt, benötigt es nur 55 Nanosekunden, um zehn Meter zurückzulegen. Bei Flash-Speichern mit Speicherlatenzen von weniger als einer Millisekunde scheint die Lichtgeschwindigkeit irrelevant. Müssten die Daten aber 10.000 km – das entspricht etwa der Strecke zwischen London und Tokyo – zurücklegen, beträgt die Latenz der Lichtgeschwindigkeit 55 Millisekunden – also mehr als bei Flash-Speichern und Festplattenlaufwerken.

Große Distanzen und Latenz schränken die Funktionalität von lokalen sowie von SAN-Speichern ein. Distributed Storage berücksichtigt zwar die Latenz, jedoch bleibt die Entfernung ein wichtiger Faktor. Hierbei ist zu bedenken, dass, je größer die Latenz, desto größer auch die Beeinträchtigung von Anwendungsleistung und Nutzererfahrung ist.
Prinzip Nr. 2: Zielkonflikt zwischen Datenpersistenz und Risiko
Die Heisenbergsche Unschärferelation besagt, dass die Sicherheit, den Ort eines Teilchens zu kennen, gegenüber dem Wissen, wohin es sich bewegen wird, abzuwiegen ist. Dementsprechend müssen IT-Profis bei der Datenspeicherung das Risiko des Datenverlusts gegenüber den Kosten und der Komplexität abwägen, die die Sicherstellung absoluter Persistenz durch den Schutz vor Datenverlust und die Aufrechterhaltung der Verfügbarkeit mit sich bringen.

Bei der Verfügbarkeit geht es darum, sicherzustellen, dass das System bereit ist, die benötigten Datendienste zu liefern. Grundsätzlich wird bei SAN die Verfügbarkeit durch die Redundanz von Controllern und Datenwegen erreicht. Bei Distributed Storage ergibt sich die Verfügbarkeit durch das Verteilen der Daten und der Arbeit über eine Vielzahl getrennt angeordneter Systeme. Bei lokaler Speicherung kann die Verfügbarkeit hier zu einem erheblichen Problem werden, da jedes System einen Single-Point-of-Failure darstellt.

Um weiter vor Datenverlust und Fehlern zu schützen, nutzen Speichertechnologien Datenredundanzverfahren wie RAID, Paritätsschutz und Erasure Coding oder die Erstellung mehrerer Kopien der gleichen Daten. Datenredundanz erhöht die Kosten und benötigt zusätzliche Speicherkapazität. Zusätzlich wird mehr Rechenleistung benötigt und die Netzauslastung bei der Replikation sowie beim Versenden von Daten erhöht. Datenpersistenz hat zwar erhebliche Kosten zur Folge, doch sowohl SAN als auch Distributed Storage versuchen durch das Verwenden von verschiedenen Ansätzen die Risiken auf ein überschaubares Maß zu reduzieren.

Prinzip Nr. 3: Unterschiedliche Physik von Flash und Festplatten
Festplatten speichern Daten magnetisch auf drehenden Scheiben: Ein mechanischer Lesekopf bewegt sich über die Scheiben, um Daten zu lesen und zu schreiben. Trägheit und Schwungkraft des Gewichts von Platten und Köpfen sind seit langem der einschränkende Faktor der Festplatten-Leistung. SSDs verfügen über keine beweglichen Teile – stattdessen werden Daten in NAND-Speicherchips gespeichert. Die Leistung wird durch die Halbleiter-Technologie eingeschränkt, die zur Herstellung der NAND-Chips verwendet wird.

In Bezug auf die Leistung liegen SSDs bei den Random-Input/Output-Operations-Per-Second (IOPS) vorne. Sowohl SSDs als auch Festplatten bieten gute Leistungen beim sequentiellen Datendurchsatz. Hinsichtlich der Latenz sind SSDs 10- bis 100-mal schneller als Festplatten, wobei die SSD-Leistung ihren Preis hat. Während die Kosten für SSDs bei 1.000 US-Dollar pro TByte liegen, sind für Festplatten etwa 60 US-Dollar pro TByte anzusetzen. Dann ist da noch das Thema Langlebigkeit: Festplatten neigen nach absehbarer Zeit zu Ausfällen, die aber planbar ist, während bei den SSD die Ausfälle von der Datenmenge, die auf ihnen ge- und überschrieben wird, abhängig sind. Darüber hinaus weisen sie eine niedrigere Schreibbeständigkeit auf. Der Einsatz von SSDs erfordert sorgfältige technische Überlegungen in Bezug auf die Frage, wie sie manuell von den Nutzern oder von einem intelligenten Speichercontroller genutzt werden können.

    Seite 1: Die physikalischen Prinzipien
    Seite 2: Vor- und Nachteile der Storage-Arten


Seite 1 von 2 Nächste Seite >>
16.12.2015/ln/Doug Ko, Senior Strategy and Market Development Manager bei Nimble Storage

Nachrichten

Hybrides NAS [6.03.2020]

QNAP bringt mit dem "TS 1886XU-RP" ein neues NAS der Unternehmensklasse auf den Markt. Die Appliance dient als hybrides Speichergerät und bietet Platz für zwölf Festplatteneinschübe und sechs dedizierte SSDs. Das 2U-Rackmount-NAS ist mit einem Intel-Xeon-Prozessor der D-1600 Serie sowie DDR4-Error-Correcting-Code-Speicher ausgestattet. [mehr]

All-Flash-Speicher im Abo [6.03.2020]

Im Rahmen seines Subskriptionsmodells "Evergreen" stellt Pure Storage eine neue Version der Betriebsumgebung "Purity" für sein All-Flash-Produkt "FlashArray" vor. Laut Hersteller bietet Purity 5.3 unter anderem mehr Multi-Cloud-Unterstützung, eine verstärkte Sicherheitsfunktionalität und eine Verbesserungen der Quality-of-Service. [mehr]

Tipps & Tools

Das bringt 2020 für Flash-Speicher [12.03.2020]

In diesem Jahr wird Flash für noch mehr Workloads eingesetzt, die bisher auf HDD- oder Hybridsystemen betrieben wurden. Dazu gehören Tier-2-Anwendungsfälle, Big-Data-Analytik und die schnelle Wiederherstellung von immer größer werdenden geschäftskritischen Systemen und Datenbanken. Flash gewinnt außerdem in Hybrid-Cloud-Szenarien und als Scale-out-Speicherlösung mit Datei- und Objektspeicherung an Bedeutung. Der Fachartikel gibt einen Ausblick darauf, mit welchen Neuerungen im Bereich Flash 2020 zu rechnen ist. [mehr]

Download der Woche: Meld [15.10.2019]

Bei der Systemwartung finden sich immer wieder doppelt vorhandene Dateien und Ordner unter Windows. Diese sorgen nicht nur für Verwirrung, sondern rauben auch Zeit beim Säubern der Struktur auf dem Rechner. Mit dem kostenfreien Tool "Meld" lassen sich durch einen sogenannten "Zwei- und Drei-Wege-Vergleich" sowohl von Files als auch Verzeichnissen die nicht mehr benötigten Daten ermitteln. [mehr]

Buchbesprechung

Technik der IP-Netze

von Anatol Badach und Erwin Hoffmann

Anzeigen