Fachartikel

Advertorial: Quantum Computing – ein Fall für die Cloud

Viele Unternehmen stecken inmitten der digitalen Transformation, da kommt schon die nächste Revolution: Quantencomputer. Die großen Cloud Service Provider machen die Nutzung für viele Unternehmen erschwinglich. Doch die Einbindung in bestehende Systeme stellt Anforderungen.
Die Idee eines Computers, der nach dem Modell der Quantenmechanik funktioniert, kam bereits in den 1980er-Jahren auf. Aber erst seit Kurzem ist die Technik so weit entwickelt, dass sie relevante Probleme mit realen Unternehmensdaten lösen kann. Dabei handelt es sich oft um Fragestellungen aus der medizinischen Forschung oder der Risikoabschätzung.

Quantencomputer sind mehr als besonders leistungsfähige Rechnersysteme. Sie arbeiten nach einem anderen Prinzip als die traditionellen "Elektronengehirne". Ihre Bausteine, Qubits genannt, kennen nicht nur die binären Zustände 0 und 1, sondern Kombinationen aus – theoretisch – unendlich vielen Abstufungen und somit Informationen dazwischen. Wie die konventionellen Maschinen zerlegen sie Probleme in Komponenten und Spielarten, doch sie berechnen sie nicht nacheinander, sondern simultan.

Teuer und wenig zukunftssicher
Das klingt zu schön, um wahr zu sein. Und tatsächlich hat die Medaille auch eine Kehrseite – genau genommen, sogar mehrere. Es beginnt damit, dass es den Qubits im Vergleich zu den herkömmlichen Bits an Beständigkeit mangelt. Zudem sind Quantencomputer heute noch rar und teuer.

Hinzu kommt: Die Maschinen sind oft schon kurz nach der Installation veraltet. Mitte 2021 weihten IBM und das Fraunhofer-Institut in Ehingen einen Computer ein, dessen Prozessor über eine Kapazität von 27 Qubit verfügt. Erst kürzlich stellte IBM wiederum den "Eagle"-Chip mit 127 Qubit vor. Bislang verdoppelt sich die Leistung im Quantum Computing schon nach sechs bis acht Monaten.

Demokratisierung des Quantensprungs
Bereits aus diesem Grund wäre es für ein gewöhnliches Unternehmen wirtschaftlicher Selbstmord, Quantentechnik On-Premises zu installieren. Das ist auch nicht nötig. Wer die Problemlösungskompetenz des Quantum Computing in Anspruch nehmen möchte, kann auch einen Service Provider hinzuziehen. "Azure Quantum", "Amazon Braket" oder "Google Quantum AI" heißen die Services der Hyperscaler.

Marktbeobachter titulieren diese Public-Cloud-Angebote bereits als die "Demokratisierung des Quantum Computing". Wer diesen Weg einschlägt, spart sich die enormen Anschaffungskosten und die komplexe Installation – ganz zu schweigen von der Wartung und dem notwendigen Know-how der Belegschaft.

Data Fabric statt Datensilos
Um eines muss sich der Cloud-Kunde aber immer noch selbst kümmern: das Datenmanagement. Komplex ist es vor allem in hybriden Umgebungen, in denen die Workloads zu einem Teil On-Premises, zu einem anderen in der Cloud abgearbeitet werden.

Daten lagern sich häufig in Silos ab, wo sie über kurz oder lang quasi mit der jeweiligen Infrastruktur verschmelzen. Externe Cloud Service Provider tendieren dazu, die Kundendaten im Falle eines Anbieterwechsels nur unter Auflagen herauszugeben. Aber auch innerhalb des Unternehmens entwickeln die Daten eine "Schwerkraft", welche die Migration auf eine andere Systemplattform erschwert. Die Folge sind Redundanzen und ein hoher Streaming-Aufwand.

Abhilfe schafft eine Data Fabric. Dabei handelt es sich um eine Architektur und einen Satz von Datendiensten, die einheitliche Funktionen für das Datenmanagement in allen Cloud-, On-Premises- und Edge-Endpunkten bieten. Durch diese Standardisierung gewinnen Unternehmen Datentransparenz und Einblicke aus Daten, Datenzugriff und -kontrolle sowie einen erhöhten Datenschutz und mehr Sicherheit.

Die IT-Infrastruktur erfordert eine individuell zugeschnittene Data-Fabric-Strategie. Deshalb unterstützt NetApp Unternehmen dabei, einen auf ihre Anforderungen angepassten Ansatz zu entwickeln. So werden die Unternehmensdaten auch für das Quantum Computing in der Cloud verwertbar, ohne dass Silos entstehen oder die Daten in der Schwerkraft der Cloud gefangen werden.
17.02.2022

Nachrichten

Dell unterzieht Speichersysteme umfrangreichem Softwareupdate [4.05.2022]

Auf der Dell Technologies World 2022 in Las Vegas hat der Hersteller ein umfangreiches Softwareupdate seines Storage-Portfolios vorgestellt. Insgesamt will Dell über 500 neue Features in seine Produktlinien PowerStore, PowerMax und PowerFlex integriert haben. Entscheidende Neuerungen gibt es in den Bereichen VMware-Integration, Cyberresilienz und File-Services. [mehr]

KMU-Datenlager [31.03.2022]

Dell Technologies stellt mit der Serie Dell PowerVault ME5 drei neue Geräte für SAN und DAS in kleinen und mittelständischen Unternehmen vor. Für die unkomplizierte Verwaltung dieser Speicherboliden soll insbesondere der PowerVault Manager sorgen. [mehr]

Simpel sichern [29.03.2022]

Tipps & Tools

Automatisierung bei der Storage-Verwaltung [21.04.2022]

Damit beispielsweise Migrationsprojekte im PByte-Bereich nicht Jahre dauern, werden Prozesse im Speicherumfeld heutzutage immer stärker automatisiert – das gilt genauso für Umzugsprozesse selbst wie für das Datenmanagement. Lesen Sie in unserem Fachartikel unter anderem, wie sich dabei Fehler vermeiden lassen. [mehr]

Sicherer, kostenfreier Peer-to-Peer-Datentransfer [25.02.2022]

Zwar existieren für die Alltagsaufgabe sicherer Datentransfer bereits viele Hilfsmittel. Doch die meisten von ihnen weisen Nachteile auf wie einen lästigen Registrierungszwang oder die Praxis, die ihnen anvertrauten Daten zwischenzuspeichern. Die kostenfrei nutzbare Website "ToffeeShare" will hingegen für ihre im Peer-to-Peer-Verfahren durchgeführten Datenübertragungen auf unnötige Zwischenstopps verzichten und stattdessen den kürzesten Weg zwischen Sender und Empfänger finden. [mehr]

Buchbesprechung

Datenschutz im Unternehmen

von Michael Wächter

Anzeigen