Datenspeicher für das IoT-Zeitalter

Lesezeit
2 Minuten
Bis jetzt gelesen

Datenspeicher für das IoT-Zeitalter

05.01.2022 - 14:00
Veröffentlicht in:
Die meisten Daten werden heute nicht mehr auf Computern oder in Rechenzentren generiert, sondern von Milliarden vernetzten Maschinen, Smart Devices und Sensoren. Deren Speicher müssen hohe Anforderungen erfüllen. Flash ist hier das Speichermedium der Wahl. Doch unterscheiden sich die Anforderungen an die Schreib- und Leseperformance, Speichergrößen, Leistungsaufnahme sowie Schnittstellen je nach Anwendungsfall deutlich. Dieser Artikel schildert, welche Flash-Lösungen für welche Einsatzszenarien geeignet sind.
In den meisten Unternehmen wachsen die Datenmengen heute exponentiell, woran vernetzte Maschinen, Smart Devices und unzählige neue Sensoren einen entscheidenden Anteil haben. Mit ihnen verlagert sich der Schwerpunkt der Datengenerierung von den Rechnern der Mitarbeiter und aus den klassischen Rechenzentren an den äußersten Rand der Infrastruktur, den sogenannten Edge. Teilweise findet die Verarbeitung der Daten direkt auf dem Edge-Device statt, etwa beim autonomen Fahren, wo das Fahrzeug sämtliche Verkehrssituationen völlig selbständig bewerten und entsprechend reagieren muss. In der Regel findet jedoch auch eine Datenübertragung statt, da auf dem Edge-Gerät nicht ausreichend Rechenkraft bereitsteht oder die Daten für weitere Analysen mit anderen Daten zusammengeführt werden müssen.

Allerdings erfolgt die Verarbeitung auch dann möglichst nah am Ort der Datengenerierung, um die mit Verzögerungen verbundene Übertragung in zentrale Rechenzentren oder die Cloud zu vermeiden. Schließlich werden die Ergebnisse der Analysen am Edge gebraucht, und das in Echtzeit oder nahezu in Echtzeit. Beispielsweise um einem Servicetechniker live im AR-Headset einen wichtigen Hinweis einzublenden, eine Zahlung im Einzelhandel ohne große Wartezeiten freizugeben, eine Produktionsanlage schnell zu stoppen, wenn eine Komponente ausfällt, oder eine Lastspitze im Energienetz abzufangen.

5G erhöht die Storage-Anforderungen
Nach Prognosen der Marktforscher von Gartner wird bereits 2022 mehr als die Hälfte der Daten von Unternehmen am Edge generiert und verarbeitet. Diese Verarbeitung übernehmen Server, die mit SSDs ausgestattet sind, denn kein anderes Speichermedium vermag die hohen Anforderungen des Edge-Computing so gut zu erfüllen. Insbesondere die hohe Performance und geringe Latenz der mit Flash-Speicher bestückten Laufwerke ist unerlässlich, um den wertvollen Datenstrom, auf dem viele unternehmenskritische Anwendungen und Geschäftsmodelle basieren, zuverlässig aufzunehmen.

Häufig treffen die Daten über drahtlose Verbindungen ein, da zahlreiche IoT-Geräte mobil sind oder in Umgebungen stehen, die sich nicht verkabeln lassen. Unternehmen bauen deshalb für IoT-Anwendungen eigene Campus-Netzwerke auf – früher mit WLAN und 3G-Mobilfunk, inzwischen mit LTE und zunehmend 5G. Der neue Mobilfunkstandard kann deutlich mehr Geräte ansprechen als die bisherigen Standards, was perfekt fürs IoT-Zeitalter mit seinen unzähligen vernetzten Geräten ist, und unterstützt überdies weitaus höhere Datenraten bei geringerer Latenz. Dadurch lassen sich mehr Daten schneller übertragen, jedoch erhöhen sich die Anforderungen an den Storage beim Edge-Computing weiter. Ohne SSDs würde der Speicher schnell zum Flaschenhals und den Datenstrom ausbremsen.

Edge-Workload ist nicht gleich Edge-Workload
Welche SSDs zum Einsatz kommen, hängt indes vom konkreten Anwendungsfall und dessen Schreib- und Leselasten ab. Diese können höchst unterschiedlich sein – je nach Anzahl der vernetzten Geräte und Sensoren, der Art der Daten, die diese liefern, und ob sie das kontinuierlich oder nur zu bestimmten Zeiten tun. Ebenso spielt eine Rolle, ob die Analysen in Echtzeit erfolgen und nur neue oder auch ältere Daten einbeziehen müssen.

In leseintensiven Umgebungen ohne große Schreiblasten genügen Server-SSDs, die einen hohen Durchsatz und viele IOPS bieten. So können sie die eintreffenden Daten zügig schreiben und sehr schnell für Echtzeitauswertungen, etwa mit KI-Algorithmen, bereitstellen. Solche Laufwerke setzen meist auf TLC-NAND, bei dem eine Zelle drei Bits speichert, wodurch sich eine hohe Speicherdichte zu vergleichsweise geringen Kosten erreichen lässt. Sie sind üblicherweise für einen Drive Write Per Day (DWPD) ausgelegt, können also über die Garantiezeit pro Tag einmal mit ihrer vollen Kapazität beschrieben werden.



Seite 1 von 2 Nächste Seite >>


ln/Frederik Haak, Senior Marketing Manager SSD-Produktmarketing bei KIOXIA Europe

Tags

Ähnliche Beiträge

MTTF, UER, MAMR – Das steckt hinter HDD-Spezifikationen

Festplatten liefern hohe Speicherkapazitäten zu geringen Kosten, doch die verschiedenen HDD-Modelle unterscheiden sich zum Teil erheblich. Was steckt eigentlich hinter Angaben wie MTTF und AFR? Was sagt die Unrecoverable Error Rate aus? Und was ist der Unterschied zwischen SMR- und MAMR-Laufwerken? Wir bieten einen Überblick über die wichtigsten Spezifikationen und wie sie zusammenhängen, um Nutzer bei der Auswahl von Festplattenmodellen zu unterstützen, die optimal zu ihren konkreten Anwendungsfällen passen.

Datensicherheit durch Backupmonitoring und -reporting

Administratoren für den Bereich Datensicherung haben zunehmend mit einer fragmentierten Umgebung zu kämpfen. Backuptools erfüllen zudem die spezifischen Anforderungen bei Monitoring, Reporting und Audit häufig nicht zu 100 Prozent. Dies kann zu einem Mangel an Überblick und im schlimmsten Fall zu einem Kontrollverlust führen. Der Fachartikel beschreibt die vielfältigen Probleme, die sich hier ergeben und wie eine automatisierte Backupüberwachung Ordnung in das Chaos bringt.