Grundlagen

Speichermedien

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Digitale Daten erfordern physikalischen Raum – auch wenn der Platzbedarf hier weitaus geringer ist als bei Akten aus Papier. Das klassische Speichermedium zur Ablage von elektronischen Daten ist sowohl im Consumer-Bereich als auch in der Unternehmens-IT die Festplatte. Hier werden auf einer magnetisierbaren Oberfläche Informationen geschrieben und gelesen. Moderne Festplatten bestehen aus mehreren Scheiben (Platter), die von einem beziehungsweise mehreren Magnetköpfen abgetastet werden. Außerdem verrichten im Speicher-Bereich weiterhin Bandlaufwerke ihren Dienst, im Regelfall jedoch nur noch zu Backup- und Archivierungszwecken. Immer stärker im Kommen sind Solid State Disks, die auf Flash-Speicher basieren und rasante Durchsatzraten bieten, jedoch deutlich teurer sind als ihre magnetischen Counterparts. Optische Speichermedien spielen im Unternehmenseinsatz so gut wie keine Rolle.

Der variantenreiche Platzhirsch: Die Festplatte
Was den Anschluss von magnetischen Festplatten (Hard Disk Drive – HDD) an einen einzelnen Rechner oder Storage-Systeme betrifft, haben sich im Laufe der Zeit mehrere Bus-Typen etabliert. Paralleles ATA, auch als IDE oder EIDE bezeichnet, gilt mittlerweile als überholt und ist außer in industriellen Systemen kaum mehr im Einsatz. An dessen Stelle ist das serielle ATA, S-ATA, getreten, dessen Steckverbindung nur mehr über sieben Pins verfügt und das deutlich schnellere Datentransferraten ermöglicht. So beträgt der theoretische Durchsatz mit der aktuellen S-ATA-Revision 3.0 bis zu 6 GBit/s. Älter als S-ATA und noch in High-End-Workstations oder Servern in Gebrauch sind SCSI-Platten. Um an einen Computer SCSI-Geräte anschließen zu können, bedarf es eines SCSI-Host-Bus-Adapters (HBA), der den Datentransfer kontrolliert, die Haupt-CPU entlastet und somit selbst bei großer Belastung eine konstant hohe Bandbreite erreicht. Nach dem derzeitigen Standard Ultra-320 sind dies theoretisch rund 320 MByte/s, was im Normalfall jedoch nicht zu erreichen sein dürfte. Eine Besonderheit stellt der iSCSI-Standard dar, der eine Einbettung von SCSI über TCP/IP erlaubt und so in Konkurrenz zu Fibre Channel tritt, dabei aber eher die Rolle eines Speicherprotokolls denn eines Bus-Typs einnimmt.

Realistisch betrachtet teilt sich die große Mehrheit der in der Unternehmens-IT eingesetzten Standards derzeit in S-ATA und Serial Attached SCSI, kurz SAS, auf. Wie der Name schon sagt, stellt sich das (serielle) SAS als eine Weiterentwicklung des (parallelen) SCSI dar. Wie bei S-ATA-Speichern beträgt auch hier die Übertragungsrate je Port 6 GBit/s. Je nach Einsatzgebiet sind verschiedene Steckverbindungen möglich. Entscheidend für schnelle Übertragungsraten ist die Geschwindigkeit, mit der sich eine Festplatte dreht – hier reichen die Zahlen von 5.400 bis 15.000 Umdrehungen pro Minute. He höher diese Tempo ist, desto leistungsstärker fällt der Durchsatz und auch der Preis des Magnetspeichers aus. Da SAS-Platten besser mit einer hohen Zahl gleichzeitiger Zugriffe zurechtkommen, kommen diese primär in einem SAN (Storage Area Network) für Datenbanken oder zu Virtualisierungs-Zwecken zum Einsatz. SATA-Platten finden im Gegensatz dazu häufig in günstigen NAS-Systemen (Network Attached Storage) innerhalb eines RAID-Verbunds Verwendung.

Was die Speicherkapazität betrifft, liegen S-ATA-HDDs derzeit vor SAS-Platten. Während im S-ATA-Bereich bereits Größen von 4 TByte möglich sind, können Nutzer bei SAS-Speichern derzeit auf maximal 3 TByte zurückgreifen. Dies sind jedoch Maximalwerte, die gerade im Enterprise-Bereich noch keine Verwendung finden. Üblich sind hier meist Größen von 1 TByte oder darunter, da mit geringeren Kapazitäten höhere Durchsatzraten zu erzielen sind. Ein weiteres bestimmendes Merkmal von Magnetspeichern ist deren Formfaktor. Erhältlich sind Festplatten momentan im 2,5- und im 3,5-Zoll-Format. Durch die geringere Größe finden auf der kleinen Bauform weniger Daten Platz, trotzdem setzt sich diese Variante mehr und mehr durch. Durch die kleinere Bauart lässt sich mit gleichem oder sogar weniger Raumbedarf die gleiche Brutto-Speicherkapazität bereitstellen wie mit 3,5-Zoll-Platten. Zudem verbrauchen 2,5-Zoll-Medien deutlich weniger Energie und produzieren weniger Wärme. Die meisten Storage-Anbieter gehen deshalb davon aus, dass das kleinere Format den großen Bruder binnen weniger Jahre vom Markt verdrängen wird.

Die teuren Newcomer: Solid State Drives auf Aufholjagd
Teurer, aber auch deutlich schneller beim Lesen und Schreiben von Informationen sind Solid State Drives (SSD). Diese sichern und lesen Daten nicht magnetisch, sondern als Flash-Speicher in Form von elektrischen Ladungen. Im Gegensatz zu RAM-Chips sind die abgelegten Daten jedoch nicht flüchtig, sondern persistent, halten die Daten also dauerhaft vor. Gerade wenn es um den gleichzeitigen Zugriff einer hohen Anzahl von Nutzern geht – etwa in Datenbanken – setzen sich SSDs immer mehr durch. Heute erhältliche SSDs setzen fast durchgehend auf die NAND-Technologie, bei der die einzelnen Speicherzellen in einer seriellen Ausrichtung angeordnet sind.

Unterschiede bestehen jedoch in der Architektur: SLC-Speicherzellen (Single Level Cell) speichern jeweils nur ein Bit – pro Transistor gibt es hier nur ein Spannungslevel. Anders ist dies bei MLC-Speicherzellen (Multi Level Cell), die mehr als ein Bit pro Zelle speichern. Dies hat negative Auswirkungen auf Lese- und Schreibgeschwindigkeit, zudem erhöht sich bei einem Ausfall der Zelle die Bitfehlerrate, so dass im Consumer-Bereich eher günstige MLC-SSDs zu finden sind, während im Enterprise-Bereich bisher meist deutlich teurere SLC-Chips zum Einsatz kamen. Durch einen Technologiefortschritt gewinnen die kompakteren MLC-Speicher jedoch auch im professionellen Bereich zunehmend an Boden.

Um Kompatibilität zu bestehenden Storage-Servern zu gewährleisten, sind SSDs ebenso wie magnetische Festplatten in den Formfaktoren 2,5- und 3,5-Zoll erhältlich. Was die Speicherkapazitäten angeht, können die Flash-Bausteine herkömmlichen HDDs noch nicht das Wasser reichen. Spitzenmodelle kommen zwar auf bis zu 800 GByte, aus Preisgründen dürften derzeit jedoch eher 400 GByte oder weniger fassende SSDs den Weg ins Rechenzentrum finden. Wie bereits angedeutet liegt der Hauptvorteil von SSDs bei deren enormen Durchsatzraten. Im produktiven Betrieb sind je nach Modell und Architektur bis zu 500 MByte/s beim lesenden Zugriff möglich, während schnelle Festplatten im Regelfall nicht über 150 MByte/s kommen.

Trotz dieser deutlich höheren Transferraten verbrauchen NAND-Zellen weitaus weniger Strom als herkömmliche Festplatten und geben weniger Wärme ab. Ein Vorteil, der in Zeiten der Konsolidierung für die SSD spricht. Als Hauptnachteil der Flash-Speicher gilt deren nachwievor hoher Preis. Zudem weisen SSDs eine maximale Anzahl von Schreibzyklen auf, sie lassen sich also nicht beliebig oft wiederbeschreiben. Auch hier führt hat der Technologiefortschritt jedoch dazu geführt, dass zumindest Enterprise-SSDs ihren magnetischen Verwandten kaum noch nachstehen, was die komplette Lebensdauer betrifft. Derzeit finden SSDs vor allem als Speichermedium für "Hot Data" Einsatz, also Informationen, auf die eine große Anzahl von Nutzern häufig und schnell zugreifen muss.

Der Alte im Archiv: Das Band stirbt nicht aus
Nach wie vor im Einsatz sind außerdem Bandlaufwerke, die wie Festplatten auf magnetischer Speicherung beruhen. Tapes finden hauptsächlich zu Backup- und Archivierungszwecken Verwendung, da diese Methode für den Echtzeit-Zugriff zu langsam ist, sich die Aufbewahrung von Daten aber sehr günstig gestaltet. Dies liegt vor allem daran, dass für das Vorhalten von Daten auf Band zunächst einmal kein Strom nötig ist. Aus diesem Grund werden Bänder auch als "Offline Storage" bezeichnet. Beschriebene Bänder kommen in größerem Umfang in einer Tape Library zur Ablage, wo Sie ein Roboterarm bei Bedarf in eine geeignete Lesevorrichtung einführt. In einer derartigen Bandbibliothek sind sehr hohe Gesamtspeicherkapazitäten möglich – einige Dutzend oder sogar hundert PByte liegen hier durchaus im Bereich des Machbaren.

Mehr zum Thema "Storage" finden Sie in der kommenden November-Ausgabe 2011 des IT-Administrator.
17.10.2011/ln

Nachrichten

Storage für hochskalierbare Cloudinfrastrukturen [28.07.2020]

Supermicro erweitert sein Portfolio an Storagesystemen um neue 60- und 90-Einschub-Optionen. Die Speichersysteme sind laut Hersteller für hochskalierbare Cloudinfrastrukturen sowie HPC-Storageanwendungen optimiert. Bei maximaler Konfiguration soll die Neuvorstellung bis zu 1440 TByte Speicher ermöglichen. [mehr]

Mehr Power mit PowerScale [25.06.2020]

Dell Technologies hat EMC PowerScale angekündigt, eine neue Familie von Speichersystemen. Die neuen Geräte versprechen mehr Leistung mit über 15 Millionen IOPS pro Cluster sowie verbesserte Inline-Datenreduktion und Skalierung von Clustern und File-Operationen. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen