MTTF, UER, MAMR – Das steckt hinter HDD-Spezifikationen

Lesezeit
7 Minuten
Bis jetzt gelesen

MTTF, UER, MAMR – Das steckt hinter HDD-Spezifikationen

11.01.2023 - 12:34
Veröffentlicht in:

Festplatten liefern hohe Speicherkapazitäten zu geringen Kosten, doch die verschiedenen HDD-Modelle unterscheiden sich zum Teil erheblich. Was steckt eigentlich hinter Angaben wie MTTF und AFR? Was sagt die Unrecoverable Error Rate aus? Und was ist der Unterschied zwischen SMR- und MAMR-Laufwerken? Wir bieten einen Überblick über die wichtigsten Spezifikationen und wie sie zusammenhängen, um Nutzer bei der Auswahl von Festplattenmodellen zu unterstützen, die optimal zu ihren konkreten Anwendungsfällen passen.

Die rasant ansteigenden Datenmengen in Unternehmen und privaten Haushalten lassen den Bedarf an Speichermedien mit hoher Kapazität schnell wachsen. Nach wie vor handelt es sich dabei zumeist um Festplatten, denn der Speicherklassiker wird kontinuierlich weiterentwickelt und ist pro Kapazitätseinheit deutlich günstiger als Flashspeicher. Deren Preise sinken zwar, doch das tun sie in ähnlichem Maße auch bei HDDs. In den großen Online-Storages von Cloud- und Unternehmensrechenzentren bleiben Festplatten daher ebenso gesetzt wie in NAS-Systemen und in Speicherlösungen für die Videoüberwachung.

Einsatzzweck bestimmt Spezifikationen
Nicht jede Festplatte eignet sich allerdings für jeden Einsatzzweck – genaugenommen sind die Laufwerke sogar sehr spezifisch auf verschiedene Anwendungsbereiche zugeschnitten. Welche das sind, machen die Hersteller durch eine Einteilung in verschiedene HDD-Klassen beziehungsweise Produktreihen sichtbar. Üblicherweise haben sie Laufwerke für PCs, NAS-Systeme, Videoüberwachungslösungen und den Einsatz im Rechenzentrum im Portfolio, die sich unter anderem hinsichtlich Schnittstellen, Leistung und Zuverlässigkeit unterscheiden.

So sind die Modelle für PCs und Notebooks zum Beispiel sind in der Regel für eine tägliche Betriebsdauer von acht bis 16 Stunden und eine jährliche Arbeitslast von 55 TByte ausgelegt – in NAS-Systemen oder Servern haben sie daher, obwohl günstiger im Preis, nichts zu suchen: Sie würden durch den Dauereinsatz sowie die höheren Schreib- und Leselasten schnell verschleißen, sodass die Fehler- und Ausfallwahrscheinlichkeit schon innerhalb der Garantiezeit steigt.

NAS-, Surveillance- und Enterprise-HDDs hingegen unterstützen einen 24/7-Betrieb und kommen mit höheren Arbeitslasten zurecht. Bei NAS- und Surveillance-Laufwerken sind es 180 und bei Enterprise-Laufwerken 550 TByte pro Jahr. Nur wenn dieser in Datenblättern als "Workload Rate" oder "Rated Workload" bezeichnete Wert eingehalten wird, gelten die Herstellerangaben zur Mean Time To Failure (MTTF). Bei Überschreitung der Rated Workload ist zwar nicht unmittelbar mit einem Defekt der Festplatte zu rechnen, aber die Fehlerwahrscheinlichkeit steigt und die MTTF sinkt.
 
Zuverlässige HDDs reduzieren den Wartungsaufwand
Die MTTF ist ein statistischer Wert, der die mittlere Betriebsdauer bis zum Ausfall einer Festplatte beschreibt. Je nach HDD-Modell liegt sie zwischen einer Million und zweieinhalb Millionen Stunden. Für ein einzelnes Laufwerk hat dieser Wert nur bedingt Aussagekraft, ein solches könnte jederzeit ausfallen – regelmäßige Backups und RAID-Konfigurationen schützen jedoch vor einem möglichen Datenverlust. Bei einer größeren Anzahl von Festplatten hilft die MTTF jedoch einzuschätzen, wie regelmäßig es zu Ausfällen kommen könnte. Bei einer MTTF von einer Million Stunden und einer Million Laufwerken wäre der Ausfall von einem Laufwerk pro Stunde zu erwarten – oder bei 1000 Laufwerken ein Ausfall alle 1000 Stunden.

Für Festplatten im 24/7-Betrieb lässt sich aus der MTTF die jährliche Ausfallrate (Annulized Failure Rate, AFR) ermitteln, die als Prozentwert intuitiver ist. Vereinfacht lässt sich diese so berechnen: jährliche Betriebszeit von 8760 Stunden geteilt durch die MTTF in Stunden mal 100. Ein Enterprise-Laufwerk mit einer MTTF von 1,4 Millionen Stunden hat demnach eine AFR von 0,625 Prozent. In einem Rechenzentrum mit 100.000 dieser Laufwerke fallen somit pro Jahr voraussichtlich 625 Festplatten aus und müssen ersetzt werden. Greift der Betreiber zu Enterprise-Laufwerken mit einer MTTF von 2,5 Millionen Stunden, liegt die AFR bei 0,35 Prozent und es fallen im gleichen Zeitraum geschätzt nur 350 Festplatten aus – 275 weniger. Der Wartungsaufwand wird deutlich reduziert.

Geeignete Umgebungsbedingungen sind Pflicht
Weniger schwerwiegend als Ausfälle sind Lesefehler, die eine interne Fehlerkorrektur zumeist ausgleicht. Nicht immer gelingt das, weshalb die Unrecoverable Error Rate (UER) eine wichtige Kennzahl von Festplatten ist. Bei PC-, NAS- und Surveillance-HDDs beträgt sie 1 in 1014 – ein nicht korrigierbarer Bitfehler tritt durchschnittlich alle 1014 gelesenen Bits auf, also alle 12,5 TByte. Bei Enterprise-HDDs mit einer UER von 1 in 1015 kommt es hingegen nur alle 125 TByte zu einem Lesefehler.

Verteilt man den jährlichen Workload einer PC-Festplatte (55 TByte) gleichmäßig, gibt es etwa alle 2,7 Monate einen nicht korrigierbaren Lesefehler. Würde sie allerdings mit dem jährlichen Workload einer Enterprise-Festplatte (550 TByte) konfrontiert, käme es alle 0,27 Monate – etwa alle acht Tage – zu einem Fehler. Umgekehrt würde das Enterprise-Laufwerk ebenfalls alle acht Tage statt alle 2,7 Monate einen Lesefehler produzieren, läge seine UER bei den 1 in 1014 des PC-Laufwerks.

Sowohl MTTF als auch UER lassen sich nur erreichen, wenn Nutzer die Festplatten innerhalb der von den Herstellern vorgegebenen Umgebungsbedingungen einsetzen. Das betrifft etwa die Temperatur. PC-Laufwerke beispielsweise sind zumeist für den Einsatz zwischen 0 und 60 Grad Celsius ausgelegt, Enterprise-Laufwerke wiederum für 5 bis 55 Grad Celsius – sie stecken schließlich in Systemen, die in klimatisierten Räumen oder Rechenzentren untergebracht sind. Auch zur Empfindlichkeit gegenüber Stößen und Vibrationen machen die Hersteller Angaben. NAS-HDDs sind in dieser Hinsicht etwas unempfindlicher als PC- oder Surveillance-HDDs, weil mehrere von ihnen in einem Gerät arbeiten. Deren Rotationsschwingungen können sich gegenseitig verstärken, weshalb die NAS-Modelle mit speziellen Schwingungssensoren und Steuerungsmechanismen ausgestattet sind, die das registrieren und ausgleichen.
 
Auf den äußeren Datenspuren schreibt sich's schneller
Neben der Zuverlässigkeit kommt es bei Festplatten vor allem auf die Leistung und den Energieverbrauch an. Die höchste Leistung bieten spezielle Performance-HDDs, die mit 10.500 oder 15.000 Umdrehungen pro Minute arbeiten – sie werden jedoch seit einigen Jahren zunehmend von SSDs verdrängt. Inzwischen liefern zudem schon Enterprise-HDDs mit 7200 Umdrehungen pro Minute einen sequentiellen Durchsatz von bis zu 280 MByte/s und bis zu 400 IOPS. Speichersysteme mit einigen Dutzend dieser Laufwerke erreichen über 5 GByte/s und mehr als 10.000 IOPS, was für viele moderne Anwendungen ausreichend ist.

Allerdings sinkt die Performance von HDDs mit ihrem Füllstand, weil die äußeren, zuerst beschriebenen Datenspuren auf den rotierenden Magnetscheiben länger sind und mehr Daten aufnehmen als die inneren. Während einer Umdrehung kann der Schreib-Lese-Kopf außen schlicht mehr Daten schreiben oder lesen als innen. Die von den Herstellern in Datenblättern angegebene "Sustained Data Rate" bezieht sich stets auf die äußeren Spuren – weiter innen kann der Wert auf circa zwei Drittel absinken.

Typischerweise werden alle Festplattenkategorien mit SATA-Schnittstelle angebunden, lediglich die oben erwähnten Performance-HDDs gibt es ausschließlich mit SAS-Interface. Standard beim SATA-Interface ist heute die Datenrate von 6 GBit/s (genannt SATA-3.3), mit Rückwärtskompatibilität zu den Vorgängerversionen mit 3 und 1,5 GBit/s.

Enterprise-HDDs sind wahlweise mit SATA- oder SAS-Schnittstelle zu haben, wobei SAS mit höheren Signalstärken, End-to-End Datenschutz und Dual Porting wichtige Features bietet, die SATA fehlen. Allerdings ist SAS teuer und hat einen etwas höheren Strombedarf. Für Unternehmen, die ihren Energiekosten optimieren wollen, gibt es jedoch andere Stellschrauben, allen voran die Modernisierung ihrer Festplatteninfrastruktur. Denn weil der größte Teil der Energie bei einer HDD für die Rotation der Spindeln benötigt wird, haben die Speicherkapazität sowie die Arbeitslast nur einen geringen Einfluss auf den Stromverbrauch. Wenige Festplatten mit hoher Kapazität sind daher wirtschaftlicher als viele kleine Festplatten.

Der derzeit verwendete SAS-Standard heißt SAS-3.0, bisweilen auch SAS3 genannt, und hat eine Datengeschwindigkeit von 12 GBit/s, ebenfalls mit Rückwärtskompatibilität zu 6, 3 und 1,5 GBit/s. SAS4 mit 24 GBit/s existiert auch schon, findet aber bei Festplatten keine Verwendung, da die Datenrate durch die Mechanik begrenzt ist.
 
Verschiedene Blockgrößen bieten Flexibilität
In den Datenblättern von Enterprise-HDDs findet sich zudem in der Regel auch eine Angabe zur Blockgröße: 512n, 512e oder 4Kn. Dabei handelt es sich um die Größe der logischen Blöcke, die auf eine Platte geschrieben beziehungsweise von ihr gelesen werden können. Früher waren das immer 512 Byte, die Laufwerke hatten also native 512-Byte-Sektoren – daher das "n" in der Bezeichnung. Später wurden größere Sektoren mit 4 KByte eingeführt, um größere Blöcke zu schreiben und zu lesen, was die Verwaltung von Festplatten mit hoher Kapazität erleichtert. Zudem arbeitet auch die Fehlerkorrektur bei größeren Blöcken effizienter.

Moderne Datei- und Betriebssysteme vermögen mit nativen 4K-Sektoren auf Festplatten umzugehen, ältere Versionen jedoch häufig nicht. Deshalb wurde mit 512e ein Format entwickelt, das zwar auf 4K-Sektoren setzt, in diesen aber jeweils acht 512-Byte-Sektoren emuliert. Ältere Datei- und Betriebssysteme können wie gewohnt 512-Byte-Blöcke schreiben und lesen. Beim Schreiben kann es aber zu Geschwindigkeitseinbußen kommen, wenn nicht der gesamte 4K-Sektor beschrieben wird. Die Festplatte muss zunächst den gesamten 4K-Sektor auslesen, um einen oder mehrere seiner emulierten 512-Byte-Bereiche zu füllen, und schreibt den Sektor dann zurück – es fällt also eine zusätzliche Leseoperation an.

Durch die verschiedenen Blockgrößen der Enterprise-Modelle bleiben Unternehmen flexibel und können jeweils zu den Festplatten greifen, die optimal zu ihren Datei- und Betriebssystemen passen. Ebenso bieten die Enterprise-HDDs flexible Security-Optionen, im Datenblatt meist als SED und SIE bezeichnet. SED steht für "Self-Encrypting Drive" und ist eine hardwarebasierte Verschlüsselung direkt durch die Festplatte, die nicht nur sehr sicher ist, sondern auch das System entlastet, in dem das Laufwerk steckt. SIE steht für "Sanitize Instant Erase" und ist eine Option, sämtliche Daten umgehend statt durch langwieriges Überschreiben sicher zu löschen.

SMR und MAMR sorgen für mehr Speicherplatz
Die verschiedenen HDD-Modelle unterscheiden sich zudem in der genutzten Aufzeichnungstechnologie: CMR, SMR und MAMR. CMR ist das seit Jahren übliche Conventional Magnetic Recording, das früher in Abgrenzung zur Vorgängertechnologie Longitudinal Magnetic Recording (LMR) auch als Perpendicular Magnetic Recording (PMR) bezeichnet wurde. Da PMR seit 15 Jahren nicht mehr zum Einsatz kommt, nennt man PMR heute auch "konventionell". PMR respektive CMR hat bei 16 TByte pro Laufwerk allerdings seine Grenze erreicht.

Shingled Magnetic Recording (SMR) erhöht die Speicherdichte, indem es mit überlappenden Datenspuren arbeitet. Das Lesen der Spuren funktioniert wie bisher, doch beim Überschreiben einer bestehenden Spur müssen zunächst die Daten der überlagernden Spur gelesen und dann mit den neuen Daten zurückgeschrieben werden. Das kann für Schwankungen bei der Schreibgeschwindigkeit sorgen, die Caches und Caching-Algorithmen jedoch abfangen. SMR findet in erster Linie bei PC- und Surveillance-HDDs Verwendung, weil diese keine dauerhaft hohen Schreiblasten mit zufälligen Zugriffen bewältigen müssen. Für gelegentliches Schreiben oder sequentielle Datenströme, wie sie etwa Überwachungskameras liefern, ist SMR ideal.

Enterprise-HDDs höherer Kapazität setzen hingegen auf Microwave Assisted Magnetic Recording (MAMR). Ein mikrowellenerzeugendes Element am Schreibkopf hilft, den magnetischen Fluss zu bündeln, sodass weniger magnetische Energie beim Schreiben benötigt wird. Der Schreibkopf kann dadurch kleiner ausfallen und Bits dichter schreiben. Aktuell kommt MAMR bei Festplatten mit 18 und 20 TByte zum Einsatz, und mit Weiterentwicklungen dieser Technologie können in Zukunft auch Festplatten mit bis zu 30 TByte erwartet werden.

Da keine Daten überlappend geschrieben werden müssen, unterliegt MAMR nicht den Einschränkungen und Performance-Limitierungen der SMR-Technologie. Festplatten mit MAMR erreichen den gleichen Level wie ihre PMR/CMR-Vorgänger. Eine Kombination von MAMR und SMR ist technisch ebenfalls möglich, wird aber zurzeit noch sehr limitiert praktiziert. Bei Kombination dieser beiden Verfahren erwartet die Industrie in Zukunft Kapazitäten bis zu 40 TByte – allerdings wieder mit den SMR-typischen Performance-Einschränkungen im wahlfreien Schreibzugriff.

Fazit
Kapazität und Preis sind nicht die einzigen Kriterien, die über die Wahl einer Festplatte entscheiden sollten. Andere Spezifikationen – etwa zur Zuverlässigkeit und den Betriebsbedingungen – gilt es ebenfalls zu berücksichtigen, damit Anwendungen zuverlässig mit Daten versorgt und Datenbestände nicht gefährdet werden. Die Herstellerklassifizierungen als PC-, NAS-, Surveillance- oder Enterprise-HDD sind bereits ein guter Wegweiser. Versteht der Nutzer aber auch noch die technischen Daten, kann er einfacher die bestmögliche Festplatte für den jeweiligen Anwendungsfall finden und optimal einsetzen. Denn unterschiedliche Anwendungsfälle erfordern unterschiedliche Festplattenmodelle.
 
11.01.2023/ln/Rainer W. Kaese, Senior Manager Business Development Storage Products bei Toshiba Electronics Europe

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.