Seite 2 - Abgestufte Speicherverfahren: HSM, ILM und Tiered Storage

Lesezeit
2 Minuten
Bis jetzt gelesen

Seite 2 - Abgestufte Speicherverfahren: HSM, ILM und Tiered Storage

25.11.2009 - 00:00
Veröffentlicht in:
Tiered Storage und Datenklassen
Die klassische Aufteilung kannte nur zwei Speicherebenen: In einem ersten Schritt wurden die Daten auf servernahen Festplatten (Direct Attached Storage / DAS) abgelegt, eine Zeit lang dort für den schnellen Datenzugriff vorrätig gehalten und dann in einem zweiten Schritt auf eine Tape Library weiter verschoben. Mussten sie auch dort für einen Datenzugriff bereit stehen, kamen im Enterprise-Bereich nur mächtige Tape Libraries von StorageTek oder IBM mit ihrer performanten Motorik für das schnelle Be- und Entladen der Bandlager zum Einsatz.

Daneben wurden auch Backup- und Archivdaten auf Bänder abgelegt und – der Theorie nach – an einen sicheren Ort verbracht, oft außerhalb des Firmenstandortes. Wurden die Daten im Recovery-Fall wieder gebraucht, mussten sie zurücktransportiert und in einem stunden- oder tagelangen Prozess wieder in die produktiven Systeme eingespielt werden.


Bild 3: Der verwendete Tier bestimmt in der Regel auch die Lebenszeit der Daten

Mit der Weiterentwicklung der Platten- und Arraytechnologie geht man heute von einem mehrstufigen Tiered-Storage-Modell aus, das mindestens drei oder vier Klassen umfasst:

Tier 0: Hier kommen schnelle Datenspeicher wie Solid State Disks (SSD) zum Einsatz, um Informationen in einem sehr schnellen Zugriff zu halten. SSDs werden von Spezialanbietern wie Texas Memory Systems schon seit Jahren als sehr teurer Cache-Speicher angeboten, wurden in letzter Zeit aber deutlich günstiger Bevorzugte Kunden sind staatliche Organisationen in den USA, Banken oder Firmen, die in der Erdöl-Exploration aktiv sind, wo sehr große Datenmengen anfallen, die selbst auf Online Storage schon zu weit weg von den Applikationen wären.

Tier 1: Mission critical data, also umsatzkritische Daten, umfassen etwa 15 Prozent der Daten. Sehr schnelle Antwortzeit, abgelegt auf FC- oder SAS-Disk, in der Regel in einem FC-SAN mit Datenspiegelung und lokaler oder entfernter Replikation. Angestrebte Verfügbarkeit von 99,999 Prozent. Sofortige Wiederherstellbarkeit erforderlich. Aufbewahrungszeit: Stunden.

Tier 2: Vital Data, etwa 20 Prozent der Daten, weniger umsatzkritische Daten als bei Tier 1. Ebenfalls schnelle Antwortzeit erforderlich, FC- oder SAS-Disk. Neben FC-SAN auch IP-SAN (iSCSI) mit 99,99 Prozent Verfügbarkeit. Tolerierbare Ausfallzeiten im Sekundenbereich. Aufbewahrungszeit: Tage.

Tier 3: Sensitive Data, machen etwa 25 Prozent der Daten aus und erfordern eher moderate Antwortzeiten. Hier kommen meist SATA-Disk und IP-SANs (iSCSI) zum Einsatz. Einsatzfeld von Virtual Tape Libraries (VTL) und Disk-to-Disk-to-Tape mit periodischen Backups. 99,9 Prozent Verfügbarkeit, mögliche Ausfallzeiten im Minutenbereich. Aufbewahrungszeit: Jahre.

Tier 4: Non-critical Data, etwa 40 Prozent der Daten. Gespeichert meist auf Tape, angeschlossen an FC-SAN oder IP-SAN (iSCSI). 99,0 Prozent Verfügbarkeit. Ausfallzeiten können Stunden oder sogar Tage umfassen, da die Daten sich nicht mehr im produktiven Zugriff befinden. Aufbewahrungszeit: Unbegrenzt.

Entscheidend ist eine kontinuierliche Datenklassifizierung
HSM, ILM oder Tiered Storage setzen eine saubere, kontinuierliche Datenklassifizierung voraus. Diese kann heute, insbesondere bei unstrukturierten Daten, in der Regel nur manuell erfolgen, was allerdings viel zu teuer ist. Auf dem Markt erhältliche Software wie "Data Movers" oder "Policy Engines" haben ebenfalls ihren Preis, der sich erst einmal rechnen muss. Die nahe liegende Konsequenz: Viele Kunden halten ILM oder Tiered Storage für eine gute Idee, scheuen sich aber vor entsprechenden Investitionen. In der Praxis hat sich ILM als umfassendes Konzept immer nur dann durchgesetzt, wenn es als integriertes Produkt zu haben war.

Es wäre ein folgenreicher Irrtum zu glauben, einmal gespeicherte Daten verändern nicht ihre Wichtigkeit je nach Stellung im Geschäftsprozess, zeitlicher Nähe zu ihrer Erfassung oder weiteren Kriterien. Schneller Zugriff auf gebuchte Flugdaten ist zum Beispiel unmittelbar vor, während und nach dem Flug notwendig, nach einer Woche sind sie nur noch für Statistiken und Auswertungen des Kaufverhaltens der Kunden von Interesse. Deshalb sind Entscheidungen darüber zu treffen, wo und wie lange die Daten jeweils aufbewahrt werden sollen. Noch zur Zeit der Einführung von "nearline" Tape Libraries zu Anfang der 1990er Jahre ging man davon aus, dass die Archivierung die letzte Phase vor dem Löschen der Daten sei. Längere Lebenszeiten als ein bis zwei Jahre für die meisten Daten konnte sich damals niemand vorstellen.

Doch das hat sich gründlich geändert. Zum einen haben weltweit staatliche Regeln dazu gezwungen, in der IT gespeicherte Daten länger aufzubewahren, zum anderen ermöglichen neue Festplattentechnologien eine Aufspaltung von Disk Storage in mehrere verschiedene Phasen. Jetzt wächst der Anteil der Daten, die gegen Ende ihres Lebenszyklus noch immer aufbewahrt werden, und sinkt nicht mehr so wie früher.

Es gibt also mehr "Verschiebebahnhöfe" als früher, und es muss mehr Rechen- beziehungsweise Serverleistung für das Bewegen der Daten von einem Tiered Storage zum nächsten in Anspruch genommen werden. Für die nötige Klassifizierung der Daten und die Automatisierung der Prozesse haben sich zunächst viele Start-ups engagiert, denen dann auch die Großen der Branche gefolgt sind.


         <<Vorherige Seite                          Seite 2 von 2





ln/Ulrike Rüger, Director Storage Product Marketing, Fujitsu Technology Solutions GmbH

Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.