Fachartikel

Die Public Cloud: Allheilmittel oder überschätzt?

Gerade das Management vieler Unternehmen sieht in der Public Cloud so etwas wie das Allheilmittel für ihre digitale Infrastruktur. Doch diese Erwartungen werden im Alltag meist nicht erfüllt. Aus einer Vielzahl von Gründen war die Cloud in der Regel noch nicht in der Lage, ihr volles Potenzial für viele Organisationen auszuschöpfen. Stattdessen wurden bestehende Probleme mit On-Premises-Speicher auf die Cloud ausgeweitet. Der Beitrag diskutiert, warum die Cloud ein Business-Treiber sein kann und ihre Nutzung auch weiter wachsen wird, "All in" aber meist keine gute Strategie darstellt.
Werden Datensilos unverändert in die Public Cloud übernommen, kann diese ihre Vorzüge meist nicht ausspielen.
Viele IT-Abteilungen müssen Anwendungen und Prozesse ihres Unternehmens in die Cloud bringen. So zeigt die Umfrage "Mass Data Fragmentation in the Cloud" von Vanson Bourne unter 900 IT-Entscheidern (darunter 100 aus Deutschland), dass in 92 Prozent der Unternehmen die IT-Teams vom Management mit der Migration in die Public Cloud beauftragt wurden. Aus diversen Gründen entwickelt sich die Cloud in der Praxis aber dann vielerorts vom Hoffnungsträger zum Ressourcenfresser und zur Kostenfalle. 92 Prozent der befragten IT-Entscheider nennen Massenfragmentierung von Daten dabei als eine der Ursachen. Daher sollten Unternehmen ganz genau prüfen, welche Daten und Anwendungen sie tatsächlich in die Cloud auslagern.

Die Hälfte der in der Studie Befragten gibt weiter an, dass sie Schwierigkeiten bei der Entwicklung einer Strategie hat, um die Public Cloud effektiv zum vollen Nutzen des Unternehmens einzusetzen. Grundsätzlich wird von der Verlagerung in die Cloud erwartet, dass sie die Agilität des Unternehmens erhöht und die Kosten senkt. Neun von zehn deutschen Befragten glauben zu Beginn ihrer Cloud-Migration sogar, dass sich dadurch die Prozesse vereinfachen, die Agilität steigern, die Kosten reduzieren und sie grundsätzlich einen besseren Einblick in ihre Daten erhalten.
Datendubletten erhöhen Kosten
Doch häufig ziehen auch Daten und Workloads mit um, die gar nicht in einer cloudbasierten Form benötigt werden. Zusätzlich entstehen auf unterschiedlichen Cloud- und On-Premises-Systemen Datendubletten. Auch das Bemühen, die Veränderungen durch die Cloud mit geeigneter Policy und Compliance der Daten zu begleiten, führt häufig zu höheren Kosten – so die Ergebnisse der Studie. Dadurch wird die mögliche Einsparung wieder getilgt.

Die Kernproblematik besteht hier darin, dass Daten als Kopien in mehreren Silos liegen und somit Kosten verursachen, aber dabei keinen Mehrwert schaffen. Eine Verschiebung dieses Szenarios in die Cloud führt dann häufig zu einer Multiplizierung der Datenmenge und damit der Kosten. Ein Beispiel veranschaulicht diese Entwicklung: Wenn ein Unternehmen IoT-Daten auf NAS-Systemen speichert, werden diese Daten häufig zusätzlich in anderen Formaten im Backupspeicher und weitere Kopien im DR-Speicher abgelegt.

In einer On-Premises-Installation kaufen Kunden für eben jenen Vorgang ein Speichersystem oder mehrere Systeme, um all diese Daten zu sichern. Wenn jemand eine zusätzliche Kopie der Daten benötigt, verwenden die Unternehmen hierfür oft Klon- oder Speichereffizienz-Technologien. Bei der Migration in die Cloud führt dies zu einer Multiplizierung der Datenmenge und damit der Kosten. Bei Daten, die nach der Petabyte-Skala bemessen werden, führen zudem bereits fünf Kopien dazu, dass die Datenmenge kaum noch zu verwalten ist. Und die Wiederherstellungsdauer steigt ins schier Unermessliche. Wenn Unternehmen jedoch die Anzahl der Datensilos oder Kopien beispielsweise von fünf auf zwei reduzieren können, sind durch die Reduzierung der "Mass Data Fragmentation" enorme Einsparungen möglich.

Als kleines Rechenbeispiel: Wenn ein Unternehmen 1 PByte Daten speichert, kostet diese Datenmenge ausgehend vom durchschnittlichen Preis für Cloudspeicher ungefähr 24.000 Euro im Monat. Wird davon eine Sicherheitskopie angefertigt und abgelegt, dann steigt der Preis um weitere 24.000 Euro. Gleiches gilt für eventuelle Archivkopien und Dev/Test-Umgebungen, wodurch sich die Kosten auf 96.000 Euro im Monat erhöhen würden. Wenn Unternehmen nur eine Dateiversion mit Deduplizierung speichern, reduzieren sie die Kosten für Cloud-Storage von 96.000 Euro auf 24.000 Euro pro Monat. Das bedeutet eine Kostenersparnis von 72.000 Euro pro Monat oder auf Jahresbasis 864.000 Euro.

Die Realität sieht jedoch heute anders aus – laut der zitierten Studie nutzen 31 Prozent der Befragten vier oder mehr Kopien derselben Daten in Public-Cloud-Umgebungen.
13.11.2019/ln/Thomas Gomell, Manfred Buchmann, Field CTO EMEA bei Cohesity

Nachrichten

18-TByte-Festplatten dank Mikrowellen-Technologie [16.09.2021]

Toshiba Electronics Europe hat dem Portfolio seiner N300-NAS- und X300-Performance-Festplatten neue 18-TByte-Modelle hinzugefügt. Die beiden neuen Laufwerke arbeiten auf Basis der FC-MAMR-Technologie, die der Hersteller Anfang dieses Jahres angekündigt hat. [mehr]

Datenlieferservice [18.08.2021]

Mit dem neuen HiDrive Share bietet STRATO jetzt einen Dienst, der erlaubt, große Dateien kostenlos zu teilen. Für das Hoch- und Herunterladen von Dateien ist dabei keine E-Mail-Adresse nötig und der Transfer erfolgt verschlüsselt. Anschließend stehen die Files dann bis zu einer Woche über einen sicher generierten Link zur Verfügung. Der kostenlose Dienst stellt pro Upload zwei GByte Speicher für beliebig viele Dateien zur Verfügung. [mehr]

Tipps & Tools

Download der Woche: BleachBit [15.09.2021]

Im Haushalt ist Bleach durch seinen scharfen Geruch gefürchtet, am Rechner kann eine gründliche Reinigung von überlaufenden Festplatten und anderen Speicher-Ressourcen allerdings auch nicht schaden. Mit dem kostenfreien Tool "BleachBit" untersuchen Sie Ihr Windows- oder Linux-System nach nicht mehr benötigten Dateien und löschen diese anschließend sicher. Neben mehr Speicherplatz bringt das in der Regel auch eine Verbesserung der Performance. [mehr]

MariaDB Community Server 10.6 erweitert JSON- und Oracle-Kompatibilität [2.07.2021]

MariaDB hat seine relationale Open-Source-Datenbank einem Update unterzogen. Die neue Version 10.6 erweitert die JSON-Tabellenfunktion ebenso wie die Kompatibilität zur proprietären Oracle-Programmiersprache PL/SQL und wartet mit einer neuen Data Definition Language zur Absicherung von Datenbankausfällen auf. [mehr]

Buchbesprechung

Windows 10 Power-Tipps

von Günter Born

Anzeigen