Fachartikel

Technologie-Update Flash

Viele Storage-Experten prognostizieren, dass die IT im Jahr 2018 an einen entscheidenden Punkt gelangt – der Preispunkt von Flash pro GByte dürfte zum ersten Mal unter dem von magnetischen Festplatten liegen. Dazu kommen eine stark verbesserte Performance sowie fast immer signifikant niedrigere Gesamtkosten. Der Artikel widerspricht den gängigen Argumenten gegen Flash und beleuchtet technische Hintergründe und aktuelle Entwicklungen zu den Themenfeldern Robustheit, Performance und Dichte.
Der Weg weg von der HDD hin zu Flash-Speicher mit verschiedenen Schnittstellen dürfte sich 2018 weiter beschleunigen.
Viele Storage-Experten prognostizieren, dass die IT im Jahr 2018 an einen entscheidenden Punkt gelangt – der Preispunkt von Flash pro GByte dürfte zum ersten Mal unter dem von magnetischen Festplatten liegen. Dazu kommen eine stark verbesserte Performance sowie fast immer signifikant niedrigere Gesamtkosten. Der Artikel widerspricht den gängigen Argumenten gegen Flash und beleuchtet technische Hintergründe und aktuelle Entwicklungen zu den Themenfeldern Robustheit, Performance und Dichte.

2018 ist nun schon fast zur Hälfte vorbei und es gibt einige spannende Entwicklungen in der Speicherindustrie, insbesondere in der Welt der Flash-Speicher – zum Beispiel NVMe oder 3D-NAND. Hersteller versuchen mit häufigen Innovationen, der wachsenden Nachfrage ihrer Kunden nach effizienten und preiswerten Speicherlösungen nachzukommen. Ebenso haben die Gegenargumente für die Nutzung von Flash-Speichern in Unternehmen, die sich hauptsächlich um die Kosten drehten, an Überzeugungskraft verloren. Die sinkenden Kosten von Flash lassen sie in der gleichen Preisliga wie andere traditionellere Speichermedien spielen. Neben dem Kostenfaktor geht es in diesem Artikel aber auch um andere Aspekte von Flash, die eine wichtige Rolle in der zunehmenden Beliebtheit dieses Speichermediums spielen – die Rede ist von Dichte und Leistung.

DWPD als Indikator für Langlebigkeit
Die kontinuierliche Verbesserung der Flash-Technik wurde in den letzten Jahren von vielen Beobachtern verfolgt und früher auch schon vorhergesagt. Der vielleicht wichtigste Aspekt ist womöglich das Mooresche Gesetz, das mit beispielloser Genauigkeit die Fortschritte in der Chip-Technologie vorhergesehen hat und so eine Benchmark für alle bietet, die in der Industrie arbeiten. Als Flash-Speicher zuerst auf dem Markt erschienen, gab es viele Argumente gegen sie. Zahlreiche Analysten warnten vor ihrer Unzuverlässigkeit auf lange Sicht. Sie behaupteten, dass Flash sich langfristig nicht mit Festplatten messen können, und zwar insbesondere in Speicherumgebungen, in denen Daten sich im hohen Tempo erneuert werden. Diese Behauptung hat sich jedoch nicht bestätigt. Sehen wir uns nun an, wie die Dichte der Flash-Speicher abschneidet.

Dafür müssen wir zunächst einmal festlegen, wie wir die Speicherdichte überhaupt messen. Da die Flash-Entwickler schon in der ersten Zeit neue Techniken verwendeten, um die Auswirkungen der Schreibvorgänge auf das gesamte Laufwerk zu verteilen, wurde es schwierig, die Zahl der Programme/Erase-Zyklen (PE) zu messen, dem Speicherzellen standhalten können. Aus diesem Grund wird die Langlebigkeit von Flash-Speichern nun allgemein in Schreibvorgängen pro Tag (DWPD) gemessen. Im Gegensatz zur PE-Messung berücksichtigt die DWPD-Messung das Wear-Leveling und andere Techniken, die dazu dienen, die Lebensdauer zu verlängern. Das ermöglicht es IT-Teams, ihre Anforderungen an Flash mit einigen simplen Berechnungen zu ermitteln und so Medien zu kaufen, die für das vorgesehene Nutzungsmuster geeignet sind.

Hersteller haben bisher zwei Verfahren verwendet, um die Speicherdichte zu steigern. Zunächst einmal haben sie die Datenmenge erhöht, die in jeder Flash-Zelle gespeichert werden kann. Die NAND-Typen Multilevel Cell (MLC), Triple Level Cell (TLC) und Quad Level Cell (QLC) spielen hier eine große Rolle. Neben der Möglichkeit, mehr Daten in einer einzelnen NAND-Zelle zu speichern, haben die Hersteller zudem die Größe der einzelnen Zellen verringert, was jedoch auf Kosten der Zuverlässigkeit ging. Kleinere Zellen haben eine kürzere Lebensdauer als große Zellen. Es gibt eine physische Untergrenze für die Zellgröße, bevor ein Produkt unbrauchbar wird. Irgendwann kommt der Punkt, an dem die Interferenzen zwischen den Zellen so groß sind, dass der Speicher einfach nicht funktionieren kann. Jedoch haben die zügigen Weiterentwicklungen als Reaktion auf die Nachfrage dazu geführt, dass Flash-Speicher nun zuverlässig genug sind, um anwendungsbasierte Lösungen zu unterstützen, die auf diesen neuen Fortschritten beruhen.
3D-Nand im Kommen
Die zweite Technik zur Steigerung der Dichte war die Umstrukturierung des gesamten Speichermediums: Die Entwickler haben die Zellen von der senkrechten in die horizontale Position gekippt, sodass sie nun auf der Seite liegen und sich übereinander stapeln lassen. Obwohl das Konzept sehr einfach klingt, ist es eine hochkomplexe Herausforderung, nach oben zu bauen. Und ebenso, wie es unmöglich ist, einen Wolkenkratzer mit der gleichen Technik wie ein Einfamilienhaus zu bauen, lassen sich die Techniken für einschichtige beziehungsweise flache NAND-Speicher nicht auf 3D-NAND-Speicher übertragen. Es genügt nicht, die NAND-Zellen einfach auf die Seite zu legen. Es sind neue Strukturen nötig, damit die 3D-NAND-Speicher auch wirklich funktionieren.

Im Prinzip funktioniert 3D-NAND genauso wie 2D-NAND: Die Elektronen in den Zellen helfen bei der Bestimmung des Zellwerts. Ansonsten sieht diese Technik jedoch ziemlich anders aus. Sie umfasst neue Materialien, die die 3D-Struktur und eine viel höhere Dichte möglich machen. 3D-NAND wird durch die Zahl seiner Schichten beschrieben und für jede Schicht ist eine Isolierung notwendig. Zwischen den Schichten befindet sich ein nicht leitendes isolierendes Material, das Interferenzen zwischen den Schichten verhindert. In den einzelnen Schichten beruht das Speichermedium nach wie vor auf MLC-, TLC- und QLC-Technologie.

Dennoch gibt es ein ziemlich interessantes Potenzial, das 2D nicht bietet: Die 3D-NAND-Speicher sind häufig zuverlässiger und schneller als ihre 2D-Pendanten. Heute gibt es schon 3D-NAND-Speicher mit Dutzenden Schichten, wobei neue Produkte mit immer mehr Schichten auf den Markt drängen. Vor Kurzem wurde die Einführung eines TLC-Speichers mit 96 Schichten und einer sehr hohen Dichte angekündigt. Die endgültige Umstellung von 2D- auf 3D-NAND wird voraussichtlich sehr schnell passieren, den 3D-NAND-Speicher sind zwar komplexer in der Herstellung, bieten aber am Ende geringere Kosten pro GByte und benötigen weniger physischen Raum für die Speicherung.

Seite 1: 3D-Nand im Kommen


Seite 1 von 2 Nächste Seite >>
6.06.2018/ln/Dieter Schmitt, Regional Director DACH bei Tegile

Nachrichten

Hochverfügbares All-Flash-NAS [17.02.2020]

QNAP erweitert sein NAS-Portfolio für den Enterprise-Bereich um das All-Flash-Array "ES2486dc" mit 24 Festplatteneinschüben. Mit seiner dualen ActiveActive-Architektur soll das Gerät für nahezu störungsfreie Hochverfügbarkeit sorgen. [mehr]

Hochverfügbares NAS mit Dual-Controller [31.01.2020]

Synology hat mit dem "SA3200D" ein neues NAS auf den Markt gebracht. Hierbei handelt es sich um ein Speichersystem mit einem aktiven und einem passiven Controller für maximale Systemverfügbarkeit. Die Neuvorstellung soll Unternehmen helfen, ihr Datenmanagement zu vereinfachen und zu zentralisieren. [mehr]

Tipps & Tools

Download der Woche: Meld [15.10.2019]

Bei der Systemwartung finden sich immer wieder doppelt vorhandene Dateien und Ordner unter Windows. Diese sorgen nicht nur für Verwirrung, sondern rauben auch Zeit beim Säubern der Struktur auf dem Rechner. Mit dem kostenfreien Tool "Meld" lassen sich durch einen sogenannten "Zwei- und Drei-Wege-Vergleich" sowohl von Files als auch Verzeichnissen die nicht mehr benötigten Daten ermitteln. [mehr]

Backupserver absichern [6.10.2019]

Backupserver spielen in vielen Unternehmen eine wichtige Rolle, wenn es darum geht, geschäftskritische Informationen mit einer Backup-Software vor dem Verlust zu schützen. Dieser Tipp verrät, wie sich der Backupserver mithilfe von Veritas Backup Exec am besten sichern und wiederherstellen lässt. [mehr]

Buchbesprechung

Handbuch Online-Shop

von Alexander Steireif, Rouven Rieker, Markus Bückle

Anzeigen