Meldung

Microsoft holt versenktes Rechenzentrum hoch

Vor ein paar Wochen bargen Marinespezialisten vor den schottischen Orkney-Inseln einen riesigen Metall-Zylinder, der dicht mit Algen, Seepocken und Seeanemonen bewachsen war. Die Bergung des vor zwei Jahren versenkten Unterwasser-Rechenzentrums von Microsoft war der Start zum Endspurt des Projektes, das nun gezeigt hat, dass Unterwasser-Datenzentren möglich sind.
Aus der Versenkung geholt: Das Unterwasser-Rechenzentrum von Microsoft hat sich bewiesen.
Die Anfangsthese des Forschungsteams von Project Natick [1] war einfach: Der Meeresboden bietet eine stabile und zuverlässige Betriebsumgebung. Unter Wasser sind die Komponenten von Rechenzentren keiner Korrosion durch Sauerstoff und Feuchtigkeit ausgesetzt. Sie müssen auch keine Temperaturschwankungen oder Erschütterungen durch Personen verkraften, die vielleicht zum Austausch von defekten Komponenten vorbeikommen. Das sind alles bekannte Fehlerquellen.

Der Feldversuch hat nun die Annahmen bestätigt: "Unsere Ausfallrate ist achtmal geringer als an Land“, sagt der Leiter von Project Natick, Ben Cutler. Die Erkenntnisse würden jetzt in die Nachhaltigkeitsstrategie für die Rechenzentren von Microsoft einfließen. Die Zuverlässigkeit der Unterwasser-Datacenter öffne außerdem die Tür für völlig neue Angebote, mit denen man Kunden bedienen kann, die überall auf der Welt taktische und kritische Rechenzentren einrichten und betreiben müssen.

Cloud für Küstenbewohner

Die ersten Ideen für Rechenzentren im Meer entstanden 2014 bei einer ThinkWeek, als Mitarbeiter von Microsoft wieder einmal zusammenkamen, um besonders unkonventionelle Ideen auszutauschen. Das neue Konzept wurde als Möglichkeit gesehen, um schnelle Cloud-Dienste für die Küstenbevölkerung bereitzustellen und dabei auch noch Energie zu sparen.

Ein Jahr später bewies das Natick-Team bei einem 105-tägigen Test im Pazifik, dass der Plan aufgehen kann. Bald wurden auch Verträge mit Spezialfirmen aus den Bereichen Logistik, Schiffbau und erneuerbare Energien abgeschlossen, um zu zeigen, dass dieses Konzept praktikabel ist.

Rechenzentren unter Wasser – dafür sprechen viele Gründe: Mehr als die Hälfte der Weltbevölkerung lebt weniger als 200 Kilometer von der Küste entfernt. Wenn die Datenzentren im Meer in der Nähe von Städten liegen, müssen Daten nur kurze Entfernungen zurücklegen. Das macht das Surfen im Internet oder Video-Streaming und Gaming schneller und reibungsloser.

Bei den Orkney-Inseln sind die Gezeitenströmungen bis zu 14 Kilometer pro Stunde schnell, und Wellen wachsen im Sturm auf über 18 Meter an. Während des zweijährigen Probebetriebs sorgte die raue See dafür, dass der schneeweiße Zylinder sich mit einer Schicht aus Algen und Seepocken überzog, an der sich Seeanemonen festsetzten, die bis zu der Größe von Zuckermelonen heranwuchsen.

Gründe für Ausfallsicherheit untersucht

Doch die Hochdruckreiniger machten die Röhre wieder sauber, in der zwölf Racks und 864 Server steckten. Anschließend führten die Wissenschaftler Röhrchen durch ein Ventil an der Oberseite ein, um die Atmosphäre in der Anlage zu analysieren. Sie besteht aus trockenem Stickstoff, weil das die IT-Infrastruktur gut vor Korrosion schützt.

Nun gilt es herauszufinden, wie die Gase, die mit der Zeit von den Kabeln und anderen Geräten freigesetzt werden, die Umgebung für die Computer beeinflusst haben könnten. Anschließend wurde das ganze Rechenzentrum auf einen Lastwagen geladen und zum Nigg Energy Park im Norden Schottlands gefahren. Erst dort wurde es aufgeschraubt, um die Serverschränke zu bergen und für weitere Analysen in die Microsoft-Zentrale nach Redmond zu schicken.

Fehlen von Menschen als Vorteil

Die Forscher wollen vor allem herausfinden, warum die Server unter Wasser achtmal zuverlässiger arbeiten als an Land. Auch dafür haben sie bereits eine Hypothese: Die Stickstoffatmosphäre ist viel weniger korrosiv als Sauerstoff. Außerdem wirkt sich das Fehlen von Menschen aus, die bei ihrer Arbeit die Komponenten durch Anstoßen beschädigen können. Wenn sich diese Analyse als richtig erweist, lassen sich die Erkenntnisse wohl auch auf den Betrieb von Rechenzentren an Land übertragen.

Andere Ergebnisse des Feldversuchs gaben bereits Aufschluss über Möglichkeiten, den Energieverbrauch von Rechenzentren nachhaltiger zu gestalten. Das Versuchsfeld im Nordatlantik wurde auch deshalb ausgesucht, weil der Strom dort zu 100 Prozent aus Wind- und Sonnenenergie sowie weiteren ökologischen Quellen erzeugt wird.

Rechenzentren in Offshore-Windparks

Ben Cutler denkt bereits darüber nach, Unterwasser-Rechenzentren in Offshore-Windparks zu versenken, weil dort selbst bei schwachem Wind genug Elektrizität für solche Zwecke produziert wird. Für den Notfall könne man auch eine Stromleitung vom Land mit den Glasfaserkabeln bündeln, die für den Transport der Daten nötig sind.

Wegen Kühlung durch das Meer wird außerdem kein Süßwasser zur Temperatur-Regulierung benötigt, das in vielen Landstrichen eine knappe Ressource ist. Auch das ist ein Beitrag zur Nachhaltigkeit. Zusätzlich spricht die geringe Anfälligkeit des Rechenzentrums für den Unterwasserbetrieb: In so einer lichtlosen Röhre werden Server nur alle fünf Jahre ausgetauscht. Die wenigen, die vorher ausfallen, werden einfach vom Netz genommen.

Bei Microsoft wird schon überlegt, wie man noch mehr Unterwasser-Rechenzentren errichten und miteinander vernetzen kann, damit sie gemeinsam die ganze Cloud-Palette von Microsoft Azure anbieten. Der Trend geht außerdem zum Edge-Computing, bei dem wichtige Teile der Datenverarbeitung gleich am Ort erfolgen, statt zuerst alles in die Cloud zu laden. Damit steigt auch der Bedarf an kleineren Rechenzentren, die näher bei den Kunden sind, statt irgendwo im Nirgendwo als Riesenklötze auf der grünen Wiese zu stehen.
17.09.2020/dr

Tipps & Tools

Download der Woche: CenterTaskbar [28.10.2020]

Wenn Sie sich unter Windows 10 eine ähnliche Taskleiste wie bei macOS wünschen, kann das kostenfreie Tool "CenterTaskbar" weiterhelfen. Die Software zentriert die Icons in der Taskbar und skaliert sie je nach Anzahl automatisch. Das Programm eignet sich auch für den Einsatz auf hochauflösenden Displays und mehreren Monitoren. [mehr]

HPE baut schnellsten Supercomputer [27.10.2020]

EuroHPC und das LUMI-Konsortium haben 144,5 Millionen Euro in den Bau eines der schnellsten HPE-Supercomputer investiert. Dieser wird laut Hersteller eine Spitzenleistung von mehr als 550 Petaflop/s erreichen – das entspricht etwa der Leistung von 1,5 Millionen Laptops. Das neue System soll Mitte 2021 in Finnland in Betrieb gehen. [mehr]

Fachartikel

Ob Hausbau oder IT – nichts geht über eine gute Basis bei der Hafner Gruppe [27.10.2020]

Wer heute ein Haus bauen möchte, steht vor vielen Herausforderungen – nicht zuletzt die Koordination von Architekten, Bauunternehmern und den Handwerkern. Die Hafner Gruppe bietet all das aus einer Hand an. Das 1971 als Familienbetrieb gegründete Unternehmen startete mit drei Mitarbeitern ins Baugeschäft. Heute beschäftigt Hafner an seinen Standorten Kinding, Ingolstadt, Beilngries und Greding über 100 Mitarbeiter. [mehr]

Buchbesprechung

Windows 10 Pannenhilfe

von Wolfram Gieseke

Anzeigen