Fachartikel

Seite 2 - Ordnung ins Datenchaos bringen

Klassifizierungs- und Verhaltensprobleme adressieren
Um die Situation zu verbessern, müssen die ihr zugrunde liegenden Klassifizierungs- und Verhaltensprobleme gelöst werden. Das ist nicht immer einfach, denn um aufzuräumen fehlt es in der Regel an verlässlicher Information: Die Datenmengen liegen zumeist als unstrukturierte oder semistrukturierte Daten vor, die keinerlei oder wenig (Meta-) Information über ihren Inhalt bereitstellen. Das hat zur Folge, dass man jede einzelne Datei auf ihren Nutzen hin überprüfen müsste – und zwar von demjenigen, der sie angelegt hat. Diesen zu identifizieren kann umständlich sein. Eventuell gehört er dem Unternehmen schon gar nicht mehr an.

Information-Governance-Strategie birgt hohes Potenzial
Bereits eine Effektivitätssteigerung im Umgang mit der Datenablage um realistische 25 Prozent birgt ein hohes Potential für die Unternehmen: Sie gewinnen rund fünf komplette Arbeitstage pro Mitarbeiter und Jahr hinzu. Um die entsprechende Struktur, Ordnung und Transparenz auf dem Fileserver zu schaffen, brauchen Unternehmen also eine Strategie. Denn Wissen und der Zugang dazu ist ein strategischer Faktor für jeden Betrieb.

Zwei Schritte führen zum Erfolg: Zunächst müssen sich Unternehmen von der Datenlast befreien und im Anschluss eine Datenkultur mit dazugehörigen Prozessen entwickeln, um die Speicherung und vor allem das Löschen von Dateien zu regeln. Nur so entsteht kein neuer Datenberg mehr. Der erste Schritt lässt sich mit einer Software wie etwa migRaven bewältigen. Sie zeigt zum Beispiel mit dem "obsolete Data Report" auf, wo genau die Datenberge lagern. Die Analyse- und Datenmanagementfunktion der Software bietet dann Unterstützung, um neue Namenskonventionen und Ablagekonzepte statt individueller Bezeichnungen zu entwickeln. Diese Konzepte gehören zum zweiten Schritt, der Erschaffung und Pflege einer neuen Datenkultur.
Wichtig ist, sich dabei nicht auf eine rein technische Lösung zu verlassen. Zwar können Softwarefunktionen wie Data Retention (Aufbewahrungsrichtlinien für unstrukturierte Daten) die Effizienz steigern, indem Daten komplett aus dem Blickfeld der Nutzer verschwinden, was Klickwege verkürzt. Das ersetzt aber nicht eine übergeordnete Information-Governance-Strategie. Diese ist ein notwendiges Tool. Sie legt Richtlinien zum Beispiel für die rechtskonforme Speicherung von Daten oder für das Löschen von ROT-Dateien fest, bringt Licht in Dark Data und fördert konformes Nutzerverhalten. Dazu gehört auch ein Data-Owner-Konzept, das Datenverantwortliche benennt, die entscheiden, welche Daten noch gebraucht werden und welche nicht. Oft liegt diese Aufgabe bei der IT, die dafür in der Regel aber weder Ressourcen noch das Wissen hat.

Verbindliche Richtlinien sorgen für Ordnung, Daten werden schneller gefunden und die Entstehung von Redundanzen verhindert. Eine übergeordnete Strategie muss aber Unterstützung durch die Führungsebene erhalten, um die notwendige Durchschlagskraft zu entwickeln. Dienstleister können Unternehmen mit individuellen Strategien unter die Arme greifen, eine solche Strategie aufzusetzen und Ordnung ins Datenchaos zu bringen.

Fazit
Unstrukturierte Daten auf Unternehmensservern kosten Geld. Sie beeinträchtigen die Effizienz der Mitarbeiter und stellen ein zunehmendes Sicherheitsrisiko dar. Diese Probleme wachsen weiter, weil die Datenbestände exponentiell ansteigen. Unternehmen müssen die Altlasten in den Griff bekommen und das Datenwachstum beenden. In einem ersten Schritt gilt es, die Server zu entrümpeln und Licht ins Dunkel der Dark Data zu bringen. In einem zweiten Schritt sollten Unternehmen dann eine Information-Governance-Strategie aufsetzen, und Richtlinien sowie Data Owner benennen, um eine neue Datenkultur aufzubauen. Nur diese verhindert ein Datenchaos in der Zukunft.
6.11.2019/ln/Thomas Gomell, Geschäftsführer von aikux.com

Nachrichten

Storage für hochskalierbare Cloudinfrastrukturen [28.07.2020]

Supermicro erweitert sein Portfolio an Storagesystemen um neue 60- und 90-Einschub-Optionen. Die Speichersysteme sind laut Hersteller für hochskalierbare Cloudinfrastrukturen sowie HPC-Storageanwendungen optimiert. Bei maximaler Konfiguration soll die Neuvorstellung bis zu 1440 TByte Speicher ermöglichen. [mehr]

Mehr Power mit PowerScale [25.06.2020]

Dell Technologies hat EMC PowerScale angekündigt, eine neue Familie von Speichersystemen. Die neuen Geräte versprechen mehr Leistung mit über 15 Millionen IOPS pro Cluster sowie verbesserte Inline-Datenreduktion und Skalierung von Clustern und File-Operationen. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen