Fachartikel

Datenspeicher für das IoT-Zeitalter

Die meisten Daten werden heute nicht mehr auf Computern oder in Rechenzentren generiert, sondern von Milliarden vernetzten Maschinen, Smart Devices und Sensoren. Deren Speicher müssen hohe Anforderungen erfüllen. Flash ist hier das Speichermedium der Wahl. Doch unterscheiden sich die Anforderungen an die Schreib- und Leseperformance, Speichergrößen, Leistungsaufnahme sowie Schnittstellen je nach Anwendungsfall deutlich. Dieser Artikel schildert, welche Flash-Lösungen für welche Einsatzszenarien geeignet sind.
Beim Edge-Computing kommt der Wahl des richtigen Storage eine große Bedeutung zu.
In den meisten Unternehmen wachsen die Datenmengen heute exponentiell, woran vernetzte Maschinen, Smart Devices und unzählige neue Sensoren einen entscheidenden Anteil haben. Mit ihnen verlagert sich der Schwerpunkt der Datengenerierung von den Rechnern der Mitarbeiter und aus den klassischen Rechenzentren an den äußersten Rand der Infrastruktur, den sogenannten Edge. Teilweise findet die Verarbeitung der Daten direkt auf dem Edge-Device statt, etwa beim autonomen Fahren, wo das Fahrzeug sämtliche Verkehrssituationen völlig selbständig bewerten und entsprechend reagieren muss. In der Regel findet jedoch auch eine Datenübertragung statt, da auf dem Edge-Gerät nicht ausreichend Rechenkraft bereitsteht oder die Daten für weitere Analysen mit anderen Daten zusammengeführt werden müssen.

Allerdings erfolgt die Verarbeitung auch dann möglichst nah am Ort der Datengenerierung, um die mit Verzögerungen verbundene Übertragung in zentrale Rechenzentren oder die Cloud zu vermeiden. Schließlich werden die Ergebnisse der Analysen am Edge gebraucht, und das in Echtzeit oder nahezu in Echtzeit. Beispielsweise um einem Servicetechniker live im AR-Headset einen wichtigen Hinweis einzublenden, eine Zahlung im Einzelhandel ohne große Wartezeiten freizugeben, eine Produktionsanlage schnell zu stoppen, wenn eine Komponente ausfällt, oder eine Lastspitze im Energienetz abzufangen.
5G erhöht die Storage-Anforderungen
Nach Prognosen der Marktforscher von Gartner wird bereits 2022 mehr als die Hälfte der Daten von Unternehmen am Edge generiert und verarbeitet. Diese Verarbeitung übernehmen Server, die mit SSDs ausgestattet sind, denn kein anderes Speichermedium vermag die hohen Anforderungen des Edge-Computing so gut zu erfüllen. Insbesondere die hohe Performance und geringe Latenz der mit Flash-Speicher bestückten Laufwerke ist unerlässlich, um den wertvollen Datenstrom, auf dem viele unternehmenskritische Anwendungen und Geschäftsmodelle basieren, zuverlässig aufzunehmen.

Häufig treffen die Daten über drahtlose Verbindungen ein, da zahlreiche IoT-Geräte mobil sind oder in Umgebungen stehen, die sich nicht verkabeln lassen. Unternehmen bauen deshalb für IoT-Anwendungen eigene Campus-Netzwerke auf – früher mit WLAN und 3G-Mobilfunk, inzwischen mit LTE und zunehmend 5G. Der neue Mobilfunkstandard kann deutlich mehr Geräte ansprechen als die bisherigen Standards, was perfekt fürs IoT-Zeitalter mit seinen unzähligen vernetzten Geräten ist, und unterstützt überdies weitaus höhere Datenraten bei geringerer Latenz. Dadurch lassen sich mehr Daten schneller übertragen, jedoch erhöhen sich die Anforderungen an den Storage beim Edge-Computing weiter. Ohne SSDs würde der Speicher schnell zum Flaschenhals und den Datenstrom ausbremsen.

Edge-Workload ist nicht gleich Edge-Workload
Welche SSDs zum Einsatz kommen, hängt indes vom konkreten Anwendungsfall und dessen Schreib- und Leselasten ab. Diese können höchst unterschiedlich sein – je nach Anzahl der vernetzten Geräte und Sensoren, der Art der Daten, die diese liefern, und ob sie das kontinuierlich oder nur zu bestimmten Zeiten tun. Ebenso spielt eine Rolle, ob die Analysen in Echtzeit erfolgen und nur neue oder auch ältere Daten einbeziehen müssen.

In leseintensiven Umgebungen ohne große Schreiblasten genügen Server-SSDs, die einen hohen Durchsatz und viele IOPS bieten. So können sie die eintreffenden Daten zügig schreiben und sehr schnell für Echtzeitauswertungen, etwa mit KI-Algorithmen, bereitstellen. Solche Laufwerke setzen meist auf TLC-NAND, bei dem eine Zelle drei Bits speichert, wodurch sich eine hohe Speicherdichte zu vergleichsweise geringen Kosten erreichen lässt. Sie sind üblicherweise für einen Drive Write Per Day (DWPD) ausgelegt, können also über die Garantiezeit pro Tag einmal mit ihrer vollen Kapazität beschrieben werden.



Seite 1 von 2 Nächste Seite >>
5.01.2022/ln/Frederik Haak, Senior Marketing Manager SSD-Produktmarketing bei KIOXIA Europe

Nachrichten

Dell unterzieht Speichersysteme umfrangreichem Softwareupdate [4.05.2022]

Auf der Dell Technologies World 2022 in Las Vegas hat der Hersteller ein umfangreiches Softwareupdate seines Storage-Portfolios vorgestellt. Insgesamt will Dell über 500 neue Features in seine Produktlinien PowerStore, PowerMax und PowerFlex integriert haben. Entscheidende Neuerungen gibt es in den Bereichen VMware-Integration, Cyberresilienz und File-Services. [mehr]

KMU-Datenlager [31.03.2022]

Dell Technologies stellt mit der Serie Dell PowerVault ME5 drei neue Geräte für SAN und DAS in kleinen und mittelständischen Unternehmen vor. Für die unkomplizierte Verwaltung dieser Speicherboliden soll insbesondere der PowerVault Manager sorgen. [mehr]

Simpel sichern [29.03.2022]

Tipps & Tools

Vorschau Juni 2022: Storage & Backup [23.05.2022]

Nicht zuletzt aufgrund der andauernden Bedrohung durch Ransomware stellt ein sicheres Backup die letzte Verteidigungslinie dar. Und Storage als physischer Unterbau der Datenhaltung ist einer der Grundpfeiler jeder Unternehmens-IT. Im Juni-Heft des IT-Administrator dreht sich deshalb alles um den Schwerpunkt "Storage & Backup". Lesen Sie in der Ausgabe, wie Sie physische Rechner und VMs mit Azure-Bordmitteln sichern und wie Sie verteilten Speicher mithilfe von Ceph in der Praxis umsetzen. In der Testrubrik werfen wir unter anderem einen Blick auf die virtuelle Appliance von Dells Data Domain. [mehr]

Automatisierung bei der Storage-Verwaltung [21.04.2022]

Damit beispielsweise Migrationsprojekte im PByte-Bereich nicht Jahre dauern, werden Prozesse im Speicherumfeld heutzutage immer stärker automatisiert – das gilt genauso für Umzugsprozesse selbst wie für das Datenmanagement. Lesen Sie in unserem Fachartikel unter anderem, wie sich dabei Fehler vermeiden lassen. [mehr]

Buchbesprechung

Datenschutz im Unternehmen

von Michael Wächter

Anzeigen