Storage-Turbo für seismische 3D-Analyse

Lesezeit
2 Minuten
Bis jetzt gelesen

Storage-Turbo für seismische 3D-Analyse

07.09.2022 - 14:00
Veröffentlicht in:
High Perfomance Computing gehört seit 20 Jahren zum Portfolio der DUG Technology. Das Unternehmen ermöglicht damit beispielsweise geowissenschaftliche Analysen für die Öl- und Gasindustrie. Um den flexiblen Bedarf der Kunden zu erfüllen und neue Märkte zu erschließen, bietet das Unternehmen nun HPC-as-a-Service an. Bei Projekten im PByte-Bereich stößt aber die HDD-basierte Infrastruktur rasch an ihre Grenzen. Abhilfe schafft eine neue All-Flash-Umgebung, die auf das Konzept "Disaggregated Shared Everything" setzt.
Die seismische Analyse ist eine HPC-Disziplin, bei der es darum geht, aus der Reflexion von Schall zu erkennen, was sich unter der Erdoberfläche befindet. Um brauchbare 3D-Analysen zu erstellen, werden PBytes an Daten und Tausende von leistungsstarken Computern benötigt. Nicht einmal die großen Ölgesellschaften verfügen über die notwendigen Rechenressourcen, um diese Analysen intern durchzuführen. Daher wenden sie sich an Unternehmen wie DUG Technology, um Details aus ihren Datenbergen zu gewinnen.

Völlig neuer Storage-Ansatz erforderlich
HPCaaS steht für spezialisierte, vollwertige Exascale-Rechenleistung, die on demand verfügbar ist. Bisher waren diese Dienste von DUG nur für bestimmte Kunden, wie zum Beispiel große Öl- und Gasunternehmen, verfügbar. Als der Markt auf die Fähigkeiten aufmerksam wurde, hat das Unternehmen sein Angebot auf andere Branchen ausgeweitet, um eine Vielzahl von extremen Rechenanforderungen zu erfüllen. DUG beschloss, den gleichen einfachen Service für Unternehmen außerhalb des Energiesektors anzubieten, die nichts als ihre Daten mitbringen. Um eine belastbare und anpassungsfähige Speicherumgebung aufzubauen, die eine Expansion in neue Märkte ermöglicht, musste DUG jedoch den Umgang mit Storage grundlegend ändern.

In den ersten zehn Jahren seines Bestehens hatte das Unternehmen HDD-basierten Speicher eingesetzt, um die erforderliche Skalierung und Kosteneffizienz zu erreichen. In dieser Zeit musste das DUG viele Kompromisse eingehen. Wenn beispielsweise die Dateisystem-Clients bei einem bestimmten Workflow den maximalen Durchsatz erreichten, hatten andere Benutzer, die dasselbe Dateisystem nutzten, darunter zu leiden. Obwohl DUG seine Software so konzipiert hat, dass sie vor Festplattenausfällen schützt, war dem Unternehmen der wöchentliche Austausch ausgefallener Festplatten ein ständiger Dorn im Auge.

Die damaligen Anwendungen von DUG waren zwar für Festplattenspeicher optimiert, aber neue Anwendungen, die DUG unterstützen sollte, gingen mit dem Input/Output (I/O) von Speicherdaten anders um. Die Vielseitigkeit des Speichers und die Mehrmandantenfähigkeit wurden für DUG von entscheidender Bedeutung. Jede neue Implementierung musste eine breite Palette von Anforderungen und das alles im Exascale-Maßstab unterstützen. DUG benötigte außerdem eine Storage-Plattform, die vielfältige Durchsatzanforderungen erfüllen konnte. Der Dienstleister suchte deshalb nach einer SSD-basierten Speicherumgebung, um eine höhere Leistung und Zuverlässigkeit zu erreichen und die Kosteneffizienz zu gewährleisten.

Paralleles Dateisystem mit kosteneffizientem Flash-Speicher
Um sein Geschäft zu erweitern und die Anforderungen einer Vielzahl neuer Märkte und Kunden zu erfüllen, entschied sich DUG schließlich für VAST Data Universal Storage. Das Produkt kombiniert die Geschwindigkeit und Skalierbarkeit eines parallelen Dateisystems mit energieeffizientem Flash-Speicher und Multimandantenfähigkeit, was für DUG einen kompletten Technologiesprung darstellte. Die DASE-Architektur (Disaggregated Shared Everything) sorgt für eine konsistente Leistung, indem nicht optimierte I/Os isoliert werden, um andere Tenants nicht zu beeinträchtigen. Mit dem DASE-Ansatz beseitigt VAST Data die Probleme der parallelen Speicherung, um eine hohe Leistung für bestimmte Workloads zu liefern, die nicht zu Lasten anderer Workloads geht.

Bild 1: In der sogenannten DASE-Architektur hat jeder Protokollserver gleichzeitigen Zugriff auf
alle Laufwerke und damit alle Daten im System.

Die DASE-Architektur bietet die nötige Skalierbarkeit, die es DUG ermöglicht, auf Dutzende von PBytes an Flash-Speicher zu wachsen, ohne dass einzelne Fehlerpunkte in einer Architektur auftreten. Zudem lässt sich die Umgebung nach einem Ausfall schnell wiederherstellen. Die Zuverlässigkeit der Architektur ist ein Ergebnis der effizienten Datensicherung und der Stateless-Architektur von Universal Storage. Neben der Ausfallsicherheit vereinfacht der Ansatz auch die Bereitstellung und Verwaltung durch eine integrierte Scale-Out-Appliance. Diese stellt kontinuierlich neue Funktionen bereit, die automatisch angewendet werden, während das System online ist, so dass es keine Ausfallzeiten für DUG gibt.

Seite 1: Völlig neuer Storage-Ansatz erforderlich


Seite 1 von 2 Nächste Seite >>


ln/Sven Breuner, Field CTO International bei VAST Data

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.