Fachartikel

Seite 2 - Edge Computing konkret: Die optimale IT für Filialen

Daten dürfen nicht zur Belastung werden
Heute landen selbst Daten, die über die IT-Kernsysteme erstellt, gespeichert und verwaltet werden, in fragmentierten Silos. Kommen Daten von Zweigstellen hinzu, entstehen sogar Silos innerhalb von Silos. Dies führt zu großen Herausforderungen. So erkennen Unternehmen zwar zunehmend die Bedeutung von Daten, um Erkenntnisse zu gewinnen. Aber sie verstehen nicht gut genug, wie dies auf effiziente, sichere und kostengünstige Weise geschehen kann. Derzeit erstellt jedes System in erster Linie seine eigenen Daten und verwaltet seine eigene Datenumgebung. Der Backup wird als reine Sicherungskopie verstanden, die keinen Wert erzeugt und möglicherweise nie zur Wiederherstellung zum Einsatz kommt.

Unternehmen aller Größen und Reifegrade haben dabei ein gemeinsames Problem: Daten sind zunehmend über eine Vielzahl von verschiedenen Standorten, Infrastruktursilos und Verwaltungssystemen verteilt. Dieser zunehmende Grad an Datenfragmentierung verhindert, dass das Unternehmen den Wert seiner Daten voll ausschöpfen kann. Eine kürzlich von Vanson Bourne durchgeführte Umfrage ergab, dass 35 Prozent der Teilnehmer sechs oder mehr verschiedene Lösungen für die Verwaltung aller nicht geschäftskritischen Daten verwenden. Mehr als 10 Prozent der Unternehmen nutzen sogar elf oder mehr Lösungen. Dabei ist jede Anwendung mit Lizenzkosten verbunden und kann meist nicht mit anderen Lösungen zusammenarbeiten. Dadurch werden Daten zu einer schweren Belastung, obwohl sie eigentlich zur Wertschöpfung und Verbesserung der Marktposition dienen sollten.
Datenflut an entfernten Standorten
Gleichzeitig entstehen immer mehr Anwendungsfälle, die auf Edge Computing basieren. Dadurch werden 2025 laut Gartner 30 Prozent aller Workloads von Unternehmen am Rand des Netzwerks ablaufen. Dies unterstreicht die Notwendigkeit eines einheitlichen Ansatzes, der in Zweigstellen erzeugte oder gespeicherte Daten auf die gleiche Weise verwaltet und schützt wie Daten in zentralen Systemen oder Cloud-Umgebungen.

Unternehmen benötigen dabei ein Werkzeug, das Bedenken in Bezug auf Management, Sicherheit, Latenz und Bandbreite an entfernten Standorten ausräumt. Gleichzeitig muss es die Anforderungen für die Wiederherstellung von Daten und Compliance erfüllen. Administratoren benötigen eine einfach zu bedienende Anwendung, um Managementprozesse zentral auszuführen. Dazu gehört etwa die Erstellung einfacher Richtlinien für Backup und Wiederherstellung sowie Replikation der Daten an vielen Zweigstellen. Dies gewährleistet, dass bei lokalen Ausfällen eine Datenkopie aus dem Rechenzentrum oder der Cloud verfügbar ist.


Bild 2: Während an klassischen Endgeräten laut IDC  in den nächsten Jahren weniger Daten produziert werden, nehmen Daten vom Edge zu.

Diese Art von Plattform ermöglicht im Idealfall eine hohe Datenstabilität sowie das reibungslose Replizieren oder Archivieren von Daten in das zentrale Rechenzentrum oder die Cloud. Sie reduziert zudem erheblich den Ressourcenverbrauch von Daten und die benötigte WAN-Bandbreite von entfernten Standorten durch Deduplizierung und Komprimierung. Nicht zuletzt ist sie ein großer Schritt in Richtung eines integrierten Ansatzes für Cybersicherheit mit einem unveränderlichen Dateisystem, Datenverschlüsselung und Schutz vor Ransomware.

Ganzheitliche Datenstrategie immer wichtiger
Im Zuge der Digitalisierung wird für Unternehmen ein umfassender Ansatz für ihre Daten immer wichtiger. Damit können sie die Latenzzeit verkürzen, die Anwendererfahrung verbessern und die Compliance gewährleisten. Diese drei Punkte zwingen viele Unternehmen dazu, Daten vor Ort und in verschiedenen Ländern vorzuhalten, in denen sich die Kunden befinden. Ob im zentralen Rechenzentrum, in der Filiale oder der Cloud: Unternehmen müssen sich überlegen, welche Daten möglichst in der Nähe des Kunden bleiben und an welcher Stelle im Netzwerk sie liegen sollen.

Schließlich treiben intelligente, sofort verfügbare Daten nicht nur die Geschäftsprozesse von Unternehmen an, sondern auch das tägliche Leben der Privatanwender. Sind Entscheidungen in Echtzeit zu treffen, dürfen Daten nicht lange von einem Endpunkt über die Hybrid Cloud zum Kern und wieder zurück reisen. Die lokalen Standorte der Unternehmen können dieses Problem lösen, vor allem durch die Datenanalyse sowie Speicherung analysierter und intelligenter Daten vor Ort. So spielen sie eine immer größere Rolle, um Echtzeit-Anwendungen zu ermöglichen.

Fazit
Unternehmen mit einer weit verzweigten IT-Infrastruktur müssen sich fragen, wie sehr sie eine einfache Verwaltung ihrer Daten und Anwendungen über alle Infrastrukturen hinweg benötigen: eigene Rechenzentren, Cloud und Filialen. Und wie hoch ist der ROI durch eine effizientere Edge-IT? Die bestehende heterogene Infrastruktur mag bisher funktioniert haben. Aber im Zuge des steigenden Wettbewerbs durch die digitale Transformation reicht sie nicht mehr aus. Hierzu ist ein einheitliches, modernes Werkzeug für das Datenmanagement nötig.


<< Vorherige Seite Seite 2 von 2
20.05.2020/ln/Wolfgang Huber, Regional Director Central Europe bei Cohesity

Nachrichten

Storage für hochskalierbare Cloudinfrastrukturen [28.07.2020]

Supermicro erweitert sein Portfolio an Storagesystemen um neue 60- und 90-Einschub-Optionen. Die Speichersysteme sind laut Hersteller für hochskalierbare Cloudinfrastrukturen sowie HPC-Storageanwendungen optimiert. Bei maximaler Konfiguration soll die Neuvorstellung bis zu 1440 TByte Speicher ermöglichen. [mehr]

Mehr Power mit PowerScale [25.06.2020]

Dell Technologies hat EMC PowerScale angekündigt, eine neue Familie von Speichersystemen. Die neuen Geräte versprechen mehr Leistung mit über 15 Millionen IOPS pro Cluster sowie verbesserte Inline-Datenreduktion und Skalierung von Clustern und File-Operationen. [mehr]

Tipps & Tools

Im Test: EnterpriseDB Postgres [30.07.2020]

In vielen Unternehmen gilt eine Art Datenbank-Oligopol: Entweder kommt Oracle oder MySQL zum Einsatz. EnterpriseDB will das mit seiner gleichnamigen PostgreSQL-Distribution ändern. EnterpriseDB Postgres erwies sich im Test als robuste relationale Datenbank mit vielen Enterprise-Features, die sich hinter Oracle & Co. keineswegs zu verstecken brauchen. Vor allem in Sachen Migration und Kompatibilität konnte uns die Plattform überzeugen und auch das Backup-Tool erhielt unsere Zustimmung. [mehr]

Hochverfügbare SQL-Cluster in der Google-Cloud [23.07.2020]

SQL-Server-Failovercluster-Instanzen stellen die Hochverfügbarkeit von SQL-Servern sicher. Um der Anforderung an gemeinsam nutzbaren Speicher in der Google-Cloud gerecht zu werden, empfiehlt der Cloudprovider Storage Spaces Direct. Die Krux dabei: Die Einrichtung erfordert, dass sich alle VMs und der Speicher im selben Rechenzentrum befinden. Hochverfügbarkeit gewährleistet Google jedoch nur bei standortübergreifenden Konfigurationen. Wie sich dieses Dilemma lösen lässt, verrät unsere Schritt-für-Schritt-Anleitung. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen