Storage

Lesezeit
3 Minuten
Bis jetzt gelesen

Storage

09.08.2010 - 00:00
Veröffentlicht in:
In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Im Zeitalter von Web 2.0, Breitbandverbindungen und der Digitalisierung nahezu sämtlicher Geschäftsabläufe sammeln sich immer mehr elektronische Daten an. Diese müssen auf irgendeine Art und Weise gespeichert werden. IT-Verantwortliche sprechen, wenn es um das Speichern und die Ablage von Datenmaterial geht, von Storage. In diesem Beitrag erklären wir den Begriff genauer und erläutern, welche Speichermedien und Storage-Architekturen im professionellen Umfeld derzeit zum Einsatz kommen. Außerdem werfen wir einen kurzen Blick auf die verschiedenen Protokolle in Speichernetzwerken und setzen uns mit Storage-Virtualisierung auseinander.
Speichermedien
Digitale Daten erfordern physikalischen Raum – auch wenn dieser Platzbedarf weitaus geringer ist als bei Akten aus Papier. Das klassische Medium zur Ablage von elektronischen Daten ist die Festplatte, bei der auf einer magnetisierbaren Oberfläche Informationen geschrieben und gelesen werden. Moderne Festplatten bestehen aus mehreren Scheiben (Plattern), die von einem Magnetkopf abgetastet werden. Während die grundsätzliche Methode eigentlich in die Jahre gekommen ist, kann die Festplatte durch die ständige Verfeinerung ihrer Konstruktion durchaus mit dem Datenwachstum mithalten. Aktuelle Modelle fassen im Formfaktor 3,5-Zoll 2 TByte an Daten – bei ständig sinkenden Marktpreisen fallen die Kosten für 1 MByte Speicherplatz auf einer Festplatte sehr gering aus. Festplatten werden oft in einem RAID-Verbund zusammengefasst. Mehrere Datenträger lassen sich so als ein einziges logisches Laufwerk ansprechen und bieten je nach RAID-Modus erhöhte Redundanz durch Spiegelung oder schnellere Zugriffszeiten durch paralleles Anordnen und Lesen eines Datensatzes (Striping).

Teurer, aber auch deutlich schneller beim Lesen und Schreiben von Informationen sind Solid State Drives (SSD), die Daten nicht magnetisch, sondern als Flash-Speicher in Form von elektrischen Ladungen sichern. Im Gegensatz zu RAM-Chips sind die abgelegten Daten nicht flüchtig, sondern persistent, halten die Daten also dauerhaft vor. Gerade wenn es um den gleichzeitigen Zugriff einer hohen Anzahl von Nutzern geht – beispielsweise in Datenbanken – setzen sich SSDs immer mehr durch. Nach wie vor im Einsatz sind außerdem Bandlaufwerke, die ebenfalls auf der magnetischen Speicherung beruhen. Tapes werden hauptsächlich zu Backup- und Archivierungszwecken verwendet, da diese Methode für den Echtzeit-Zugriff zu langsam ist, sich die Aufbewahrung von Daten aber sehr günstig gestaltet. Eine Sonderstellung nehmen Virtual Tape Libraries (VTL) ein. Diese basieren auf Festplatten , emulieren aber nach außen hin einen Verbund von Bandlaufwerken und ermöglichen es so, auch mit bestehenden Datensicherungs-Umgebungen Festplatten als Backup-Medium einzusetzen.

Im Zusammenhang mit den verschiedenen Speichermedien ist in der IT häufig von Tiered Storage die Rede. Dies bezeichnet ein Modell, bei dem die Daten gemäß ihrer Wichtigkeit und der Häufigkeit des Zugriffs auf verschiedene Speichermedien verteilt werden. Aktuelle Informationen, etwa eine Datenbank mit den Kundendaten eines Unternehmens, genießen eine hohe Priorität und werden heute vielfach bereits auf SSDs abgelegt. Mittelmäßig wichtige Daten kommen auf (eventuell verschieden schnellen) Festplatten unter, während Archivmaterial auf Band landet und nur bei Bedarf wieder aus der Versenkung geholt wird. Wichtig für dieses kostensparende Szenario ist eine korrekte Einstufung der Unternehmensdaten, was auch unter dem Begriff Hierarchical Storage Management zusammengefasst wird.

Speicherarchitektur
Bei der Ablage von Daten ist nicht nur das Speichermedium entscheidend, sondern auch, wie und wo die Informationen zu finden sind. Im Heimanwender-Bereich ist meist ein DAS (Direct-attached Storage) das Mittel der Wahl. Hier ist das Speichermedium direkt mit dem Rechner verbunden. Dies garantiert zwar schnelle Zugriffszeiten, macht die Daten jedoch nur lokal und bei eingeschaltetem PC abrufbar. Im professionellen Umfeld macht dies keinen Sinn, da in der Regel eine Vielzahl von Anwendern auf den gleichen Datenbestand zugreifen soll. Deshalb kommt in Unternehmen zumindest ein NAS (Network-attached storage) zum Einsatz. Dies bedeutet, dass Dateien im Netzwerk auf einem speziellen File-Server liegen und der Zugriff von mehreren Arbeitsstationen aus möglich ist. Während auf jedem NAS ein Dateisystem existiert, läuft der Zugriff auf ein SAN (Storage Area Network) blockbasiert ab. Ein solches Speicher-Netzwerk kommt meist in größeren Unternehmen mit hohen Zugriffszahlen zum Einsatz.

Speicherprotokolle und Speichervirtualisierung
Während der Datenaustausch im NAS-Umfeld meist über Ethernet und das TCP/IP-Protokoll erfolgt, zeichnet sich ein SAN meist durch ein eigenes Speicher-Netzwerk aus, das auf speziellen Protokollen basiert und hohe Übertragungsraten zur Verfügung stellt. Hier sind vor allem die Protokolle SCSI, Fibre Channel (FC), iSCSI und Infiniband zu nennen. All diese Technologien erfordern teils unterschiedliche Kabelsysteme und Adapter, was mit höheren Kosten und einer komplizierteren Infrastruktur einhergeht. Für Konsolidierung sorgen soll hier Fibre Channel over Ethernet (FCoE), das Fibre Channel über Ethernet transportiert. NAS und SAN schließen sich nicht gegenseitig aus, so kann es durchaus Infrastrukturen geben, in denen file- und blockbasierter Zugriff auf die Daten erfolgt und unterschiedliche Protokolle Verwendung finden.

Nachdem sich die Virtualisierung bei Servern bereits durchgesetzt hat, ist diese Technologie auch im Storage-Umfeld im Kommen. Speicher-Virtualisierung bedeutet grundsätzlich, dass vorhandender Speicherplatz nicht mehr abhängig ist von Festplatten oder physikalischen Storage-Einheiten. Vielmehr sorgt eine Software dafür, dass der insgesamt vorhandene Speicherplatz gemäß den Bedürfnissen der Nutzer zur Verfügung gestellt und angepasst wird. Vorteile dieses Systems sind eine höhere Flexibilität und eine bessere Auslastung der Speichermedien. Als größter Nachteil ist die erhöhte Komplexität zu nennen, da auf den ersten Blick nicht mehr ersichtlich ist, auf welchen physikalischen Komponenten die Daten denn nun eigentlich liegen. Im Zusammenhang mit der Speichervirtualisierung fallen oft zwei Begriffe: Deduplizierung und Thin Provisioning. Deduplizierung meint das automatische Eleminieren redundanter Datensätze und sorgt so für eine deutliche Verkleinerung des benötigten Speicherplatzes. Auch Thin Provisioning soll die Auslastung des SAN verbessern, indem Nutzern oder Gruppen nur so viel Speicher zur Verfügung wie aktuell benötigt zur Verfügung gestellt wird. Wachsen die Anforderungen an den Speicherplatz, lässt sich die zulässige Quote schnell und bei Bedarf automatisiert erhöhen.

Abschließend ist zu bemerken, dass derzeit eine Abkehr von der Silo-basierten Speicherarchitektur stattfindet, in der einzelne Systeme nicht miteinander in Verbindung stehen und vom Storage-Netzwerk separat angesprochen werden. Die Entwicklung geht vielmehr hin zum gemeinsam genutzten Datenpool, in dem eine Management-Software automatisiert entscheidet, wo welche Daten wie abgelegt werden.

ln

Mehr zum Thema finden Sie in der Ausgabe Oktober 2009 des IT-Administrator.

Tags

Ähnliche Beiträge

Speicherreplikation in Windows Server

Eine der wichtigsten neuen Funktionen in Windows Server 2016 ist die Speicherreplikation, von Microsoft als Storage Replica bezeichnet. Mit dieser Technologie lassen sich ganze Festplatten blockbasiert zwischen Servern replizieren, auch zwischen verschiedenen Rechenzentren sowie der Cloud und einem Rechenzentrum. Wir erklären, was Storage Replica zu bieten hat und wie sie funktioniert.