Rechenzentrumsausstattung

Lesezeit
4 Minuten
Bis jetzt gelesen

Rechenzentrumsausstattung

27.09.2010 - 00:00
Veröffentlicht in:
In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Ein Rechenzentrum bezeichnet in Unternehmen einen räumlich abgetrennten Bereich, in dem in der Regel Bladeserver in Serverschränken betrieben werden. Aufgrund der Bedeutung der Server für das Unternehmen sowie der Betriebserfordernisse gelten besondere Anforderungen an diese Serverräume. Zum einen müssen diese über eine ausreichende Klimatisierung verfügen, um ein Überhitzen der Server zu verhindern sowie Schutz vor unbefugten Zutritten beziehungsweise Zugriffen bieten. Auch spielt die passende Verkabelung eine entscheidende Rolle, da diese ansonsten einen Engpass im Unternehmensnetzwerk darstellen.
Serverschränke
Serverschränke machen den wesentlichen Teil von Rechenzentren aus. Ein sogenanntes Rack nimmt als Serverschrank mehrere Server und Netzwerkkomponenten üblicherweise im 19-Zoll-Format (482,6 mm Breite) auf verschiedenen Ebenen auf. Dabei ist die Grundkonstruktion seit Jahren gleich geblieben. Ein wichtiges Kriterium, das bei der Auswahl von Racks ganz oben auf der Liste stehen sollte, ist die Stabilität. Die platzsparende Anordnung von IT-Komponenten innerhalb von Racks bis zu 42 Höheneinheiten (HE) führt zu einer hohen Packungsdichte und somit niedrigeren Flächenkosten.

Daraus resultiert jedoch in der Praxis, dass ein Server-Rack Lasten von bis zu 1.000 kg aufnehmen muss, die Heavy-Duty-Varianten tragen sogar bis zu 1.300 kg. Moderne Server-Hardware fordert immer tiefere Racks. 1.000 mm Tiefe sind heute Standard. Einige Anbieter haben Schränke mit Tiefen bis zu 1.200 mm im Programm. Das ist hilfreich, um vor und hinter den Systemen noch Platz für Stromverteilung, Kabel und einen freien Kühlluftfluss zu lassen.

Sind heterogene Server-Systeme im selben Rack installiert oder liegt wie häufig bei kleinen Unternehmen oder Filialen eine Mischbestückung mit Servern und Netzwerktechnik vor, sind tiefenvariable Ausbauten hilfreich. Zudem sollten sich mehrere der Serverschränke nebeneinander aufbauen und miteinander zu einer Einheit verbinden lassen. Den Zugriff auf die Server im Rack erlauben KVM-Systeme. Da ein Administrator nicht an jedem System vor Ort arbeiten möchte oder kann, bieten sich IP-basierte KVM-Switches für den Fernzugriff über das Netzwerk an.

Angemessene Klimatisierung
Der Betrieb zahlreicher Server auf engem Raum verursacht eine große Menge an Abwärme. Diese muss angemessen abgeführt und die Server mit kühlerer Luft versorgt werden, um ein Überhitzen der Rechner zu vermeiden. Realisieren lässt sich dies über eine passende Klimatisierung. Als energieeffiziente Richtwerte dienen laut Energieagentur NRW dabei eine Raumluft von maximal 26 Grad Celsius im Sommer und mindestens 20 Grad im Winter. Die Zuluft sollte zudem nicht unter 18 Grad liegen. Die Klimatisierung kann dabei bis zu 50 Prozent der gesamten Energiekosten im IT-Betrieb ausmachen. Pro kWh eingesparte Stromkosten beim IT-Equipment werden zusätzlich ca. 0,5 kWh für die Klimatisierung eingespart.

Für eine möglichst effiziente Raumkühlung ist die Luftführung von besonderer Bedeutung. So sollten sich warme Abluft und kühle Frischluft nicht vermischen. Daher müssen beide Luftströme getrennt voneinander durch den Raum und an die Racks beziehungsweise von diesen weggeleitet werden. Hierzu dienen Bleche oder Abdeckungen in und zwischen den Serverracks. Doppelte Böden eignen sich besonders gut, um frische Zuluft an die Racks heranzuführen. Dabei handelt es sich um einen Zwischenraum unter den Bodenplatten, durch den neben der kühlen Zuluft auch die Kabel zu den Serverschränken geführt werden. Dies erlaubt eine geordnete und im Alltagsbetrieb unsichtbare Kabelführung, die jedoch schnell zugänglich ist.

Verkabelung und Netzwerkkomponenten
Grundsätzlich lässt sich bei der Verkabelung im Rechenzentrum zwischen Kupfer- und Glasfaserkabel unterscheiden. Ausgenommen im SAN, in dem große Datenmengen bewegt werden, kommen in Rechenzentren überwiegend Kupferkabel (Twisted-Pair-Kabel) zum Einsatz. Um der steigenden I/O-Leistung von modernen Servern und Anwendungen gerecht zu werden, empfiehlt sich der Einsatz von 10-GBit-Ethernet-Adaptern. Je höher die Übertragungsgeschwindigkeit, desto besser muss ein Kupferkabel gegen Störungen von außen abgeschirmt sein. Die Qualität dieser Abschirmung bewegt sich zwischen Cat 3 und Cat 7, wobei es in der höchsten Stufe Cat 7 möglich ist, 10 GBit-Signale über 100 Meter Distanz zu übertragen. 10 GBase-T funktioniert über bestehende Cat 5e-Kabel immerhin über Distanzen von bis zu 45 Metern, was selbst für die Anbindung leistungsstarker Server an End of Row-Switches (EoR) ausreicht.

Die erste Netzwerkebene (Tier 1) bilden im Rechenzentrum sogenannte Core-Switches. Zur Anbindung von Servern kommen dann entweder so genannte Top-of-Rack-(ToR)- oder EoR-Switches zum Einsatz. ToR- und EoR-Switches sind wiederum entweder direkt mit dem Core (2-Tier-Architektur) oder über Aggregation-Switches (3-Tier-Architektur) angeschlossen. Doch im Gegensatz zum Unternehmensnetz ist im Rechenzentrum oft noch nicht Schluss. So kommen beispielsweise in Blade-Centern eigene Switches zum Einsatz, die ihre Serverblades über Uplinks mit einem ToR- oder EoR-Switch verbinden.

Sicherheit im Serverraum
Rechenzentren sollten stets vor unerlaubten Zutritten physikalisch geschützt werden. Dies kann im einfachsten Fall durch eine stabile, verschlossene Türe geschehen, für die es nur eine festgelegte Anzahl an Sicherheitsschlüsseln gibt. In größeren Umgebungen bieten sich elektronische Verfahren an, etwa PIN-Eingaben oder Chipkarten. Letztere Verfahren bieten den Vorteil, dass sich die Zutritte protokollieren und damit nachvollziehen lassen. Nicht vergessen werden sollten auch Schwachpunkte wie Fenster. Der Zugriffsschutz auf Racks ist insbesondere bei frei zugänglichen Aufstellorten von Bedeutung. Ein erstes Einbruchhindernis ist eine solide Vier-Punkt-Verriegelung. Sie schützt den Inhalt mechanisch gegen Unbefugte.

Brandmeldeanlagen dienen dazu, Feuer beziehungsweise Rauch im Serverraum zu erkennen und einen Alarm auszulösen. Verfügt das Rechenzentrum über eine Löschanlage, wird diese mit ausgelöst. Da Wasser zu einem Kurzschluss in den Servern führen würde, kommt meist ein Löschgas wie CO2 zum Einsatz, das das Feuer erstickt. Hochwertige und moderne Brandmeldeanlagen sind dabei in der Lage, selbst geringste Mengen an Rauch in der Luft zu erkennen und so einen Brand zu melden, bevor dieser vom betroffenen Server auf benachbarte Rechner übergreifen kann.

Stromversorgung
Da sich in Rechenzentren zahlreiche Server auf engstem Raum befinden, spielt die Stromversorgung eine entscheidende Rolle. Diese ist vor Inbetriebnahme des Rechenzentrums grundlegend zu planen. Hierbei muss die Spitzenlast berücksichtigt werden, wenn alle Server laufen und ausgelastet sind. Trotz der insgesamt hohen Leistungsaufnahme eines Rechenzentrums gelten Serverblades in Racks als energieeffizienter als einzeln betriebene Server. Auch zwischen den Rackservern unterschiedlicher Hersteller gibt es durchaus größere Unterschiede, was den Strombedarf anbelangt. Zudem lässt sich durch eine Abschaltung nicht benötigter Komponenten wie etwa einzelner Netzteile Strom sparen.

Um einem möglichen Stromausfall und damit einhergehend Datenverlusten vorzubeugen, bieten sich Anlagen zur unterbrechungsfreien Stromversorgung an – kurz USV. Diese meist batteriebetriebenen Einheiten sind in der Lage, Strom für einige Minuten zu liefern, sodass sich die Server zumindest kontrolliert herunterfahren lassen. Für längere Überbrückungszeiten und damit den autonomen RZ-Betrieb – etwa von mehreren Stunden oder Tagen – dienen dieselbetriebene USVs. Diese sind solange in der Lage, die IT mit Energie zu versorgen, wie der Kraftstoffvorrat reicht. Unabhängig von der Art der USV ist deren Reaktionszeit wichtig. Innerhalb weniger Millisekunden muss bei einem Stromausfall der Notstrom verfügbar sein, sodass die Server ohne Unterbrechung funktionieren.

dr

Mehr zu diesem Thema finden Sie in der Ausgabe März 2010 des IT-Administrator.

Ähnliche Beiträge

Software-defined Networking

Der Informationsfluss im Netzwerk ist die Lebensader eines Unternehmens. Die Informationen müssen ungestört fließen und gleichzeitig kontrolliert und überwacht werden, um die Sicherheit und Integrität zu gewährleisten. Dabei haben sich die Anwendungen deutlich weiterentwickelt – von E-Mail, Drucken und Datei-Übertragungen hin zu zeitkritischen Video- und Audio-Übertragungen seit in Unternehmen IP-Netze die zentrale Rolle eingenommen haben.

WLAN

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

In der Mehrzahl der Unternehmen findet die Kommunikation zwischen Servern und Clients über ein kabelgebundenes Netzwerk (LAN) statt. Daneben existiert mit Wireless LAN (WLAN) die Möglichkeit, ein lokales Funknetzwerk aufzubauen. Die drahtlose Übertragung von Daten ist im Regelfall allerdings nicht so schnell und setzt ein höheres Sicherheitsbewusstsein voraus, da im Äther verschickte Informationen zunächst einmal für jeden zu empfangen sind.

Zehn Beschützer

Check Point bringt mit den Force-Gateways gleich zehn neue Firewalls an den Start. Alle Geräte basieren auf der Plattform Check Point Infinity, die cloudbasierte Sicherheitsintelligenz, ein automatisches Bedrohungsabwehrsystem und über 50 integrierte KI-Engines vereint.