Seite 2 - Wie künstliche Intelligenz das Rechenzentrum prägt

Lesezeit
3 Minuten
Bis jetzt gelesen

Seite 2 - Wie künstliche Intelligenz das Rechenzentrum prägt

26.10.2022 - 14:00
Veröffentlicht in:
5G und IoT verlagern Workloads an den Edge
Cloud und mobile Konnektivität haben in den vergangenen Jahren auf vielen Gebieten die IT-Entwicklung geprägt. Über zehn Millionen Haushalte haben inzwischen zum Smarthome umgerüstet, nutzen also Geräte des IoT. Ein Ende dieses Wachstums ist derzeit noch nicht auszumachen. Die zunehmende Adaption von 5G wird der gesamten Entwicklung einen weiteren Schub verleihen und den Weg vom IoT zum IoE (Internet of Everything) bahnen.

Waren die Verbindungen zuvor noch durch das Netz beschränkt, da Bandbreiten-, Latenz- und Kapazitätsprobleme die möglichen intelligenten IoE- Anwendungen limitierten, hebt 5G mit Enhanced Mobile Broad Band (eMBB) und Ultra Reliable & Low Latency Communication die Einschränkungen auf. Die Spitzendatenraten werden im zweistelligen GB/s-Bereich liegen. 5G ermöglicht eine enorme Netzkapazität, um Tausende von IoT-Endpunkten und Edge-Geräten zuverlässig und ohne Überlastungsprobleme zu verbinden.

So ist die Folge, dass das IoT und IoE zunehmend große Datenmengen erzeugen werden, die letztlich in die Cloud und damit in die Rechenzentren wandern. Aus Kosten- und Effizienzgründen sind allerdings auch in Zukunft längst nicht alle Endgeräte und Sensoren mit direkter 5G-Konnektivität versehen. Stattdessen nutzen sie den Weg der Maschine-zu-Maschine-Kommunikation, um ihre Daten an 5G-Edge-Geräte wie IoT-Gateways zu übertragen. KI wird hier an der Edge bereits die Daten analysieren, um so die Informationsflut für die weitere Verarbeitung zu reduzieren.

Wandel der Storage-Schnittstellen
Das Rechenzentrum der Zukunft muss nicht allein auf wachsende Kapazitäten vorbereitet sein, sondern auch Fortschritte bei der Verarbeitungsgeschwindigkeit und Speicherdichte machen. Um Daten so schnell speichern zu können, wie es in Zukunft notwendig sein wird, werden Flash-Technologien in Zukunft noch stärkere Verbreitung finden.

Dazu gehört beispielsweise Non-Volatile Memory Express (NVMe). Es handelt sich dabei um ein sehr leistungsfähiges Protokoll, das speziell für Flash-Storage-Systeme ausgelegt ist. Durch die Unterstützung von Niedriglatenz-Befehlen und parallelen Warteschlangen lassen sich leistungsstarke Speichersysteme besser unterstützen.

Das NVMe-Protokoll ist allerdings nicht nur in der Lage, Flash-Laufwerke miteinander zu verbinden. Auch als Netzwerkprotokoll kann es zum Einsatz kommen: Damit ist es möglich, Hochleistungs-Storage-Netzwerke aufzubauen, deren Latenzzeiten sich auf ähnlichem Niveau wie Direct Attached Storage (DAS) bewegen. Besonders wertvoll kann die Kombination von NVMe und NVMe-oF deshalb für Unternehmen sein, die datengetrieben arbeiten oder auf Echtzeit-Analyse setzen.

Die oben skizzierte Entwicklung wird die Nachfrage nach hochdichtem Codespeicher sowie nach Streaming- und gepufferten Daten weiterwachsen lassen. Die in IoT-Anwendungen vorwiegend verwendeten Speichertypen sind NOR- und NAND-Flash-Speicher. Hier dürfte in Zukunft eine stärkere Verlagerung zu NAND-Flash zu sehen sein – insbesondere bei eingebetteten Anwendungen, die eine Codekapazität von 512 MByte und mehr erfordern. Die intelligenten IoT-Geräte der nächsten Generation, wie sie in der Automobil-, Medizin- und Industrierobotik zum Einsatz kommen, werden über größere und komplexere Betriebssysteme, Edge-Software-Agenten, KI-Engines und Speicher für die Codespeicherung verfügen. Auch dafür ist NAND geradezu prädestiniert.

Energieeffizienz im Fokus
Im Hinblick auf die Klimapolitik ist die Verbesserung der Energieeffizienz geboten. Mit dem Thema hat sich im August 2021 der Deutsche Bundestag beschäftigt. Es liegt auf der Hand, dass die Steigerung der Energieeffizienz aus Gründen der Nachhaltigkeit ein wichtiger Gesichtspunkt des Rechenzentrums der Zukunft ist. Denn mit der Zunahme der Datenmenge steigt auch der Stromkonsum.

Bitkom rechnet in einer aktuellen Studie mit einem jährlichen Energiebedarfszuwachs von etwa 3,5 bis 5 Prozent bis 2030. Dies erfordert zuverlässige Speicherlösungen, die hoch performant und gleichzeitig energie- sowie kosteneffizient sind. Dafür gibt es verschiedene Ansätze. Helium-Festplatten sind einer davon.

Helium statt Luft
Von außen lässt sich eine Helium-HDD nicht ohne weiteres von einem konventionellen luftgefüllten Laufwerk unterscheiden. Das Innenleben hingegen schon: Anstelle von Luft ist das Festplattengehäuse mit Helium gefüllt und dort hermetisch verschlossen. Das Edelgas ist aus unterschiedlichen Gründen für den Einsatz in HDDs geeignet.

Zum einen hat Helium nur ein Siebtel der Dichte von Luft. Dadurch lassen sich Strömungseffekte verringern, die bei der Rotation der Scheiben in der Festplatte entstehen. Dies senkt den Energieaufwand und ermöglicht den Einsatz dünnerer und damit mehr Scheiben im Gehäuse. Das Ergebnis: Höhere Kapazitäten bei gleichem Formfaktor der HDD.

Zum anderen sind Helium-HDDs im Vergleich zu luftgefüllten Festplatten 4 bis 5 Grad Celsius kühler im Betrieb. Dies bringt mehrere Vorteile mit sich: Die Helium-Platten erfordern weniger Kühlung im Rechenzentrum. Dies senkt die Energiekosten für Kühlung und Betrieb. Eine niedrigere Temperatur wirkt sich zudem positiv auf die Zuverlässigkeit der Laufwerke aus. Darüber hinaus sind die Festplatten leichter und leiser, was positive Auswirkungen auf die RZ-Architektur hat.

Fazit
Das Rechenzentrum ist der Motor für KI, weshalb es bei der Vorbereitung auf KI-Projekte einige technologische Entwicklungen in diesem Zusammenhang genauer zu betrachten gilt. Die Verlagerung von Workloads, Kopplung mit der Cloud sowie noch mehr Speicherkapazität und Speicherdichte sind dabei wesentliche Aspekte. Jüngst vorgestellte Festplattenmodelle von Western Digital mit bis zu 26 TByte Speicherplatz deuten an, wohin es gehen wird. Die für KI optimierten und für Data Center ausgewählten Speichertechnologien müssen die steigenden Bedürfnisse in Hinblick auf Echtzeitverarbeitung erfüllen und sich zugleich langfristig positiv auf das Thema Energieeffizienz auswirken.

Seite 1: Komplexität von KI-Modellen und Datenmenge steigt
Seite 2: Wandel der Storage-Schnittstellen

<< Vorherige Seite Seite 2 von 2


ln/Manfred Berger, Senior Manager Business Development für Data Center Solutions and Platforms bei Western Digital

Ähnliche Beiträge

Wie künstliche Intelligenz das Rechenzentrum prägt

Der Erfolg von KI-Projekten hängt von zahlreichen Faktoren ab. Dazu zählen die gewählten Methoden, die Modelle, die konkreten Algorithmen und auch die Datenqualität. Unterschätzt wird von IT-Verantwortlichen oft aber ein anderer, hoch relevanter Aspekt: die Infrastruktur des Rechenzentrums. Unser Fachartikel erklärt, wieso es nicht genügt, sich nur um Speicherkapazität und Sicherungskonzepte wie Data Warehouse, Data Lake, und Lakehouse Gedanken zu machen.

Im Test: Gapteq 3.5.3

SQL-Datenbanken sind ein wichtiges Hilfsmittel zur einfachen Speicherung und Verwaltung größerer Datenmengen. Eine applikationsunabhängige Nutzung von SQL für eigene Unternehmensdaten scheitert allerdings oft an der fehlenden Ein- und Ausgabeschnittstelle hin zu den Anwendern. Abhilfe verspricht die Low-Code-Plattform Gapteq, mit der sich sehr einfach komfortable Benutzeroberflächen für MS SQL und mySQL per Drag & Drop gestalten lassen.

Seite 2 - Zentrales Datenmanagement bei der Refratechnik-Gruppe

Komplexe SAP-Integration
Eine weitere Herausforderung bereitete das FI-Modell. Für die Integration in SAP-BW/4HANA 2.0 gab es kein durchgängiges Datenmodell, da im SAP-ECC noch das alte Hauptbuch zum Einsatz kam. Aus diesem Grund musste ein neuer Ansatz entwickelt werden, mit dem sich Bilanzen- und G&V-Rechnungen (Gewinn und Verlust) in gewünschter Form darstellen lassen – sowohl in kumulierter als auch in periodengerechter Abgrenzung.