Seite 2 - Ausblick auf die Festplattenzukunft

Lesezeit
2 Minuten
Bis jetzt gelesen

Seite 2 - Ausblick auf die Festplattenzukunft

16.02.2022 - 14:00
Veröffentlicht in:
Firmware-Optimierungen für mehr Geschwindigkeit
Mit den wachsenden Festplattenkapazitäten steigt indes der Aufwand, Daten auf den Magnetscheiben zu suchen und die Schreib-Lese-Köpfe zu positionieren. Lange Zeit war das kein Problem, da es in den großen Online-Storages, in denen Festplatten vornehmlich eingesetzt werden, vor allem auf Speicherkapazität und weniger auf Performance ankam, während man für schnelle Speicher SSD-basierte Lösungen einsetzte.

Das hat sich allerdings geändert, weil die großen Onlinespeicher in Rechenzentren und Clouds nicht mehr als reine Datenlager dienen, auf die nur gelegentlich zugegriffen wird, sondern Unternehmen zunehmend in Echtzeit mit ihren riesigen Datenbeständen arbeiten wollen. SSD-basierte Systeme für diese Storage-Kapazitäten wären zu teuer, daher kommt als neue Anforderung für die Festplatten neben hoher Kapazität nun auch höhere Geschwindigkeit dazu.

Durch Firmware-Optimierungen konnten die Festplattenhersteller die IOPS-Leistung ihrer Laufwerke bereits deutlich erhöhen. Unter anderen verlagerten sie Prüfroutinen, Logging-Funktionen und Aufräumarbeiten, die früher mit höchster Priorität liefen, in Phasen, in denen die Festplatte nicht unter Volllast steht. Dadurch wurden Ressourcen für zusätzliche Schreib- und Lesezugriffe frei.

Aktuelle Nearline-Festplatten mit 7200 Umdrehungen pro Minute erreichen so 400 bis 500 IOPS, was früher nur Laufwerke mit 10.000 und 15.000 Umdrehungen pro Minute schafften. Das reicht zwar nicht an die IOPS-Leistung von SSDs heran – in einem Storage-System, in dem mehrere Dutzend HDDs im Verbund arbeiten, können Festplatten aber durchaus einige tausend IOPS liefern und die meisten Anwendungen zuverlässig mit Daten versorgen.

Zwei Aktuatoren statt einem
Höhere Geschwindigkeiten lassen sich durch zusätzliche Aktuatoren erreichen, auf denen weitere Schreib-Lese-Köpfe sitzen. Weil sich aus Platzgründen im Gehäuse aber kein zweiter Aktuator mit eigenem Gelenk unterbringen lässt, konzentrieren sich die Hersteller in der Entwicklung auf mehrere Aktuatoren an einem Gelenk. Im Prinzip werden aus dem Aktuator mit 20 Köpfen, der in einer Festplatte mit zehn Magnetscheiben steckt, zwei Aktuatoren mit jeweils zehn Köpfen. Beide können unabhängig voneinander bewegt werden, wodurch sich die Geschwindigkeit des Laufwerks verdoppelt.

Ein Ein Ein Dual-Aktuator verhilft Festplatten zu doppelter Performance, weil die beiden Aktuatoren sich getrennt
ansteuern lassen und R/W-Operationen unabhängig voneinander durchführen können.

Abzuwarten bleibt noch, über welches Interface und Konfiguration diese zwei Arme konkret angesteuert werden. Sobald sie verfügbar sind, wird sich der Markt jedenfalls stärker in Kapazitäts- und Performance-HDDs aufteilen: Dort, wo rein die Speicherkapazität im Vordergrund steht, dürften Laufwerke mit SMR dominieren, weil sie den niedrigsten Preis pro TByte bieten. Wo es auf hohe und deterministische Geschwindigkeiten ankommt, setzen sich dagegen voraussichtlich Laufwerke mit MAMR (nicht-überlappend) und Dual-Aktuator durch. Deren Preis pro Kapazität wird teurer sein als bei Single-Actuator-SMR-HDDs, weil die Datendichte geringer ist und zwischen den beiden Aktuatoren eine Lücke notwendig ist und deshalb eine Magnetscheibe weniger ins Gehäuse passt.

Fazit
Durch die kontinuierliche Weiterentwicklung der Festplattentechnik bleiben die Speicherklassiker langfristig zukunftsfähig und können auch steigende Kapazitäts- und Performance-Anforderungen erfüllen. Wichtig bei allen Weiterentwicklungen ist allerdings, dass die Platten weder mechanisch größer noch langsamer, empfindlicher oder teurer werden, damit sie sich weiter in bestehenden Systemen nutzen lassen und keine höheren Kosten verursachen. Technisch wäre es durchaus möglich, Speicherkapazitäten und Leistung deutlich schneller als bisher zu steigern – aber würde eine neue 20-TByte-HDD das Fünffache einer 10-TByte-HDD älterer Generation kosten, würden die meisten Unternehmen einfach zu zwei alten Platten greifen.

Aus ähnlichen Gründen wird sich auf absehbare Zeit auch nichts am 3,5-Zoll-Formfaktor ändern, selbst wenn in größeren Gehäusen mehr Magnetscheiben und Aktuatoren Platz finden würden. Der Markt wäre schlicht zu klein, weil die Laufwerke nicht in aktuelle Server und Storage-Arrays passen und Unternehmen teure Spezialsysteme bräuchten. Jedoch denken die Festplattenhersteller über PCIe-Schnittstellen und NVMe-Support für Festplatten nach – nicht wegen der höheren Geschwindigkeiten, die diese unterstützen, sondern damit sich HDDs an denselben Schnittstellen wie SSDs betreiben lassen. Unternehmen hätten dann mehr Möglichkeiten bei der Bestückung von reinen PCIe-Systemen beziehungsweise könnten ihre Infrastrukturen durch einheitliche Schnittstellen vereinfachen.

Seite 1: Überlappende Datenspuren und kleinere Schreibköpfe
Seite 2: Firmware-Optimierungen und Dual-Aktuator


<< Vorherige Seite Seite 2 von 2



ln/Rainer W. Kaese, Senior Manager, HDD Business Development bei Toshiba Electronics Europe

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.