Grundlagen

Speichermedien

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Digitale Daten erfordern physikalischen Raum – auch wenn der Platzbedarf hier weitaus geringer ist als bei Akten aus Papier. Das klassische Speichermedium zur Ablage von elektronischen Daten ist sowohl im Consumer-Bereich als auch in der Unternehmens-IT die Festplatte. Hier werden auf einer magnetisierbaren Oberfläche Informationen geschrieben und gelesen. Moderne Festplatten bestehen aus mehreren Scheiben (Platter), die von einem beziehungsweise mehreren Magnetköpfen abgetastet werden. Außerdem verrichten im Speicher-Bereich weiterhin Bandlaufwerke ihren Dienst, im Regelfall jedoch nur noch zu Backup- und Archivierungszwecken. Immer stärker im Kommen sind Solid State Disks, die auf Flash-Speicher basieren und rasante Durchsatzraten bieten, jedoch deutlich teurer sind als ihre magnetischen Counterparts. Optische Speichermedien spielen im Unternehmenseinsatz so gut wie keine Rolle.

Netzwerksicherheit

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Das Thema Netzwerksicherheit lässt sich heute längst nicht mehr so klar definieren und abgrenzen wie noch vor einigen Jahren. Die Netzwerkgrenzen verschwimmen dank mobiler Arbeitsplätze und privater Devices im Unternehmen zusehends, was Administratoren neue Wege zur Absicherung ihrer Infrastruktur aufzwingt. In diesem Grundlagen-Beitrag zeigen wir Ihnen, mit welchen Technologien Sie auf alte und neue Herausforderungen reagieren.

Systemmanagement

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Systemmanagement hängt eng mit dem Begriff Netzwerkmanagement zusammen. Während das Netzwerkmanagement seinen Schwerpunkt auf die Betrachtung des physikalischen Netzwerks in seiner Gesamtheit setzt, liegt der Fokus beim Systemmanagement einerseits auf der Funktionsfähigkeit aller Unternehmensprozesse im Ganzen (etwa die Kommunikation zwischen Produktion, Lieferanten, Kunden und Mitarbeitern), andererseits aber auch auf dem reibungslosen Funktionieren einzelner Systeme – wozu insbesondere auch Anwendungen zählen.

Hochverfügbarkeit

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

In der heutigen Arbeitswelt ist die Verfügbarkeit der IT-Systeme und -Komponenten die Grundlage für den reibungslosen Ablauf der unternehmensinternen Geschäftsprozesse. Ist beispielsweise der E-Mailserver nicht verfügbar, können die Anwender keine E-Mails verschicken, steht das Warenwirtschaftssystem still, stockt die Produktion und so weiter. Die Verfügbarkeit wird als Verhältnis aus fehlerbedingter Ausfallzeit und Gesamtzeit eines Systems gemessen. Das Ziel der Hochverfügbarkeit (High Availability, HA) in der IT ist es, die Systeme auch dann verfügbar zu halten, wenn eine oder mehrere für das Funktionieren notwendigen Komponenten ausfallen.

Definition von Hochverfügbarkeit


Das Institute of Electrical and Electronics Engineers (IEEE) definiert Hochverfügbarkeit als Verfügbarkeit der IT-Ressourcen im Falle eines Ausfalls von Systemkomponenten. Ein System gilt also dann als hochverfügbar, wenn eine Anwendung auch im Fehlerfall weiterhin verfügbar ist und ohne unmittelbaren menschlichen Eingriff weiter genutzt werden kann. In der Konsequenz heißt dies, dass der Anwender keine oder nur eine kurze Unterbrechung wahrnimmt. Hochverfügbarkeit bezeichnet die Fähigkeit eines Systems, bei Ausfall einer seiner Komponenten einen uneingeschränkten Betrieb zu gewährleisten.

Verfügbarkeitsklassen

Die letzte Definition beschreibt ein System auch bei einer kurzen Unterbrechung als hochverfügbar, was uns direkt zu der Einteilung in Verfügbarkeitsklassen führt. Allerdings wird die Frage, ab welcher Verfügbarkeitsklasse ein System als hochverfügbar einzustufen ist, wird je nach Definition der Verfügbarkeit unterschiedlich beantwortet.

Bei einer Verfügbarkeit von 99 Prozent (Ausfall von etwa vier Tagen pro Jahr) ist in der Regel noch keine Hochverfügbarkeit erreicht, diese prozentuale Verfügbarkeit wird heutzutage bei qualitativ hochwertigen EDV-Komponenten als normal betrachtet. Hochverfügbarkeit wird erst ab einem Wert von 99,9 Prozent oder höher erreicht. Die weitere Steigerung der Verfügbarkeit wird durch das "Anhängen" weiterer 9en erreicht:
- Verfügbarkeit 99 Prozent entspricht einer Ausfallzeit von etwa 87 Stunden/Jahr
- Verfügbarkeit 99,9 Prozent entspricht einer Ausfallzeit von etwa 8:46 Stunden/Jahr.
- Verfügbarkeit 99,99 Prozent entspricht einer Ausfallzeit von etwa 53 Minuten/Jahr
- Verfügbarkeit 99,999 Prozent entspricht einer Ausfallzeit von etwa 5 Minuten/Jahr
- Verfügbarkeit 99,9999 Prozent entspricht einer Ausfallzeit von etwa 32 Sekunden/Jahr

In dieser Form wird die Hochverfügbarkeit von IT-Komponenten heute am Markt angeboten, beziehungsweise klassifizieren sich Produkte, die Hochverfügbarkeit sicherstellen sollen an Hand dieser Werte.

Availability Environment Classification

Dabei ist es naheliegend, das letztgenannte Produkte um teurer werden, je mehr 9en sie aufweisen. Daher ist es vor einer – teilweise nicht unerheblichen – Investition in einer derartige Technologie wichtig, sich zu fragen, wie verfügbar die im Unternehmen eingesetzten IT-Systeme eigentlich sein sollen. Dafür gibt die Harvard Research Group (HRG) in ihrer Einteilung der Hochverfügbarkeit in "Availability Environment Classification (AEC)" in sechs Klassen einen guten Hinweis:
- AEC-0 (Conventional): Funktion kann unterbrochen werden, Datenintegrität ist nicht essentiell.
- AEC-1 (Highly Reliable): Funktion kann unterbrochen werden, Datenintegrität muss jedoch gewährleistet sein.
- AEC-2 (High Availability) Funktion darf nur innerhalb festgelegter Zeiten oder zur Hauptbetriebszeit minimal unterbrochen werden.
- AEC-3 (Fault Resilient); Funktion muss innerhalb festgelegter Zeiten oder während der Hauptbetriebszeit ununterbrochen aufrechterhalten werden.
- AEC-4 (Fault Tolerant): Funktion muss ununterbrochen aufrechterhalten werden, 24/7-Betrieb muss gewährleistet sein.
- AEC-5 (Disaster Tolerant): Funktion muss unter allen Umständen verfügbar sein.

Weitere Kenngrößen

Im Umfeld der Hochverfügbarkeit gibt einige weitere wichtige Kenngrößen, die über die reine Messung der Ausfallzeit hinausgehen. Diese beschreiben zum einen das Verhalten des hochverfügbaren Systems und erlauben zum anderen den Vergleich unterschiedlicher HA-Produkte beziehungsweise Anbietern:
- Mean Time Between Failure (MTBF): mittlere ausfallfreie Zeit eines Systems
- Mean Time To Repair (MTTR): mittlere Dauer für die Wiederherstellung nach einem Ausfall
- Mean Time Between Crash (MTBC): mittlere ausfallfreie Zeit eines Betriebssystems

Technische Umsetzung von Hochverfügbarkeit

Generell streben HA-Systeme danach, sogenannte Single-Point-of-Failure-Risiken (SPOF) zu eliminieren (ein SPOF ist eine einzelne Komponente, deren Versagen zum Ausfall des gesamten Systems führt). Ein Hersteller eines hochverfügbaren Systems muss dieses mit folgenden Merkmalen ausstatten: Redundanz kritischer Systemkomponenten sowie fehlertolerantes und robustes Verhalten des Gesamtsystems. Typische Beispiele für solche Komponenten sind unterbrechungsfreie Stromversorgungen, doppelte Netzteile oder der Einsatz von RAID-Systemen. Weiter kommen Techniken zur Serverspiegelung oder auch redundante Cluster zum Einsatz.

In der IT-Infrastruktur hat die Hochverfügbarkeit folgende Ausprägungen: Als Cold-Standby werden HA-Lösungen bezeichnet, bei denen die Anwendungen des Rechners im Fehlerfalle auf einem Ersatzrechner zur Verfügung stehen. Hot-Standby bezeichnet Systeme, bei denen die Anwendungen des Rechners im Fehlerfalle auf einem Ersatzrechner zur Verfügung stehen, dieser jedoch die Arbeit sofort nach Ausfall des primären Rechners aufnimmt. In Cluster-Systemen sind mehrere Rechner sind miteinander gekoppelt, sie erscheinen nach außen als ein einziger Rechner. Cluster können sich im Fehlerfall unterschiedlich verhalten, es wird zwischen Failover und Takeover unterschieden. Failover heißt, dass im Fehlerfall die Anwendung auf einem anderen Rechner im Cluster neu gestartet wird. Takeover bedeutet, dass die Dienste auf zwei oder mehreren Servern gleichzeitig aktiv sind. Fällt ein Server aus, so schaltet der Cluster auf einen anderen Server um.

jp

Mehr zu diesem Thema finden Sie im IT-Administrator Ausgabe Juli 2011.

Cloud Computing

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Der Begriff Cloud Computing umschreibt sowohl das Konzept als auch die Technologie, abstrahierte IT-Infrastrukturen (CPU-Leistung, Speicherplatz oder auch Software) dynamisch an den Bedarf angepasst über ein Netzwerk (in den meisten Definitionen das Internet, beziehungsweise IP-basierte Netze) zur Verfügung zu stellen. Allerdings sind in der Praxis zahlreiche, sich teilweise wiedersprechende Definitionen des Begriffs zu finden.

Backup und Recovery

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Backups spielen eine zentrale Rolle in der Datensicherheit. Nur mit ihrer Hilfe lassen sich Datenverluste zuverlässig vermeiden, die etwa durch technische Defekte oder Bedienfehler entstehen. Je nach Art der Daten, den laufenden Änderungen an ihnen und der benötigten Wiederherstellzeit im Fall eines Recovery bieten sich unterschiedliche Backup-Methoden an. Nicht zuletzt spielt die Kostenfrage eine Rolle, wenn es um die Wahl von Backup-Medien und -Methoden geht.

Netzwerkmanagement

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Netzwerkmanagement bedeutet die Verwaltung und Überwachung von Computernetzwerken. Eine besondere Rolle spielt hierbei die Erfassung sämtlicher Geräte im Netzwerk (Inventarisierung), die Überwachung dieser Komponenten auf deren ordnungsgemäßes Funktionieren (Monitoring) sowie die ständige Messung der Leistungsfähigkeit des Netzwerks (Performance).

Datensicherheit

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Das Thema Sicherheit von Unternehmensdaten ist vielschichtig. In erster Linie gilt es, die vertraulichen Informationen vor den Zugriffen Unbefugter sowie vor tatsächlichem Verlust etwa durch Plattenausfälle oder Anwenderfehler zu schützen. In diesem Grundlagen-Beitrag beleuchten wir die Aspekte der Datensicherheit in Bezug auf Angreifer. Diese können sich sowohl im als auch außerhalb des Unternehmens befinden. Von besonderer Bedeutung sind daher neben einem Virenschutz durchdachte Konzepte zur Sicherheit in Storage-Umfeld, in virtuellen Umgebungen sowie gegen Insiderdelikte durch Data Leakage Prevention.

Virtualisierung von PC-Arbeitsplätzen

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

Als konsequente Weiterentwicklung der Server- und Storage-Virtualisierung bietet sich IT-Verantwortlichen die Möglichkeit, Clients zu virtualisieren. Allerdings sind die Begrifflichkeiten und die Technologien im Gegensatz zur Server-Virtualisierung vielfältig und werden oft nicht sauber unterschieden, sodass anzuraten ist, sich jedes Mal genau zu informieren, was gemeint ist, wenn von "Desktop-Virtualisierung", "Virtual Desktop Infrastructure/VDI" oder ähnlichem die Rede ist. Genau genommen bezeichnet die Desktop-Virtualisierung eine Technologie, bei der das Betriebssystem des Clients lokal virtualisiert wird, während VDI Images des Betriebssystems im Rechenzentrum hostet und dem Client virtualisiert zur Verfügung stellt. Zudem bieten sich Kombinationsmöglichkeiten mit virtualisierten Anwendungen und Terminaldiensten, was die Komplexität weiter erhöht. Dieser Beitrag stellt die verschiedenen Technologien vor.

WLAN

In unserer Grundlagen-Rubrik erklären wir wichtige Aufgaben und Technologien aus dem Arbeitsalltag eines Netzwerk- und Systemadministrators. Hier erfahren Sie anhand prägnanter Erklärungen zu den wichtigsten Begriffen des jeweiligen Themenfeldes Hintergründe und Zusammenhänge in kompakter, praxisnaher Form.

In der Mehrzahl der Unternehmen findet die Kommunikation zwischen Servern und Clients über ein kabelgebundenes Netzwerk (LAN) statt. Daneben existiert mit Wireless LAN (WLAN) die Möglichkeit, ein lokales Funknetzwerk aufzubauen. Die drahtlose Übertragung von Daten ist im Regelfall allerdings nicht so schnell und setzt ein höheres Sicherheitsbewusstsein voraus, da im Äther verschickte Informationen zunächst einmal für jeden zu empfangen sind.