Quantum Computing – ein Fall für die Cloud

Lesezeit
2 Minuten
Bis jetzt gelesen

Quantum Computing – ein Fall für die Cloud

17.02.2022 - 10:00
Veröffentlicht in:
Viele Unternehmen stecken inmitten der digitalen Transformation, da kommt schon die nächste Revolution: Quantencomputer. Die großen Cloud Service Provider machen die Nutzung für viele Unternehmen erschwinglich. Doch die Einbindung in bestehende Systeme stellt Anforderungen.
Die Idee eines Computers, der nach dem Modell der Quantenmechanik funktioniert, kam bereits in den 1980er-Jahren auf. Aber erst seit Kurzem ist die Technik so weit entwickelt, dass sie relevante Probleme mit realen Unternehmensdaten lösen kann. Dabei handelt es sich oft um Fragestellungen aus der medizinischen Forschung oder der Risikoabschätzung.

Quantencomputer sind mehr als besonders leistungsfähige Rechnersysteme. Sie arbeiten nach einem anderen Prinzip als die traditionellen "Elektronengehirne". Ihre Bausteine, Qubits genannt, kennen nicht nur die binären Zustände 0 und 1, sondern Kombinationen aus – theoretisch – unendlich vielen Abstufungen und somit Informationen dazwischen. Wie die konventionellen Maschinen zerlegen sie Probleme in Komponenten und Spielarten, doch sie berechnen sie nicht nacheinander, sondern simultan.

Teuer und wenig zukunftssicher
Das klingt zu schön, um wahr zu sein. Und tatsächlich hat die Medaille auch eine Kehrseite – genau genommen, sogar mehrere. Es beginnt damit, dass es den Qubits im Vergleich zu den herkömmlichen Bits an Beständigkeit mangelt. Zudem sind Quantencomputer heute noch rar und teuer.

Hinzu kommt: Die Maschinen sind oft schon kurz nach der Installation veraltet. Mitte 2021 weihten IBM und das Fraunhofer-Institut in Ehingen einen Computer ein, dessen Prozessor über eine Kapazität von 27 Qubit verfügt. Erst kürzlich stellte IBM wiederum den "Eagle"-Chip mit 127 Qubit vor. Bislang verdoppelt sich die Leistung im Quantum Computing schon nach sechs bis acht Monaten.

Demokratisierung des Quantensprungs
Bereits aus diesem Grund wäre es für ein gewöhnliches Unternehmen wirtschaftlicher Selbstmord, Quantentechnik On-Premises zu installieren. Das ist auch nicht nötig. Wer die Problemlösungskompetenz des Quantum Computing in Anspruch nehmen möchte, kann auch einen Service Provider hinzuziehen. "Azure Quantum", "Amazon Braket" oder "Google Quantum AI" heißen die Services der Hyperscaler.

Marktbeobachter titulieren diese Public-Cloud-Angebote bereits als die "Demokratisierung des Quantum Computing". Wer diesen Weg einschlägt, spart sich die enormen Anschaffungskosten und die komplexe Installation – ganz zu schweigen von der Wartung und dem notwendigen Know-how der Belegschaft.

Data Fabric statt Datensilos
Um eines muss sich der Cloud-Kunde aber immer noch selbst kümmern: das Datenmanagement. Komplex ist es vor allem in hybriden Umgebungen, in denen die Workloads zu einem Teil On-Premises, zu einem anderen in der Cloud abgearbeitet werden.

Daten lagern sich häufig in Silos ab, wo sie über kurz oder lang quasi mit der jeweiligen Infrastruktur verschmelzen. Externe Cloud Service Provider tendieren dazu, die Kundendaten im Falle eines Anbieterwechsels nur unter Auflagen herauszugeben. Aber auch innerhalb des Unternehmens entwickeln die Daten eine "Schwerkraft", welche die Migration auf eine andere Systemplattform erschwert. Die Folge sind Redundanzen und ein hoher Streaming-Aufwand.

Abhilfe schafft eine Data Fabric. Dabei handelt es sich um eine Architektur und einen Satz von Datendiensten, die einheitliche Funktionen für das Datenmanagement in allen Cloud-, On-Premises- und Edge-Endpunkten bieten. Durch diese Standardisierung gewinnen Unternehmen Datentransparenz und Einblicke aus Daten, Datenzugriff und -kontrolle sowie einen erhöhten Datenschutz und mehr Sicherheit.

Die IT-Infrastruktur erfordert eine individuell zugeschnittene Data-Fabric-Strategie. Deshalb unterstützt NetApp Unternehmen dabei, einen auf ihre Anforderungen angepassten Ansatz zu entwickeln. So werden die Unternehmensdaten auch für das Quantum Computing in der Cloud verwertbar, ohne dass Silos entstehen oder die Daten in der Schwerkraft der Cloud gefangen werden.






Tags

Ähnliche Beiträge

MTTF, UER, MAMR – Das steckt hinter HDD-Spezifikationen

Festplatten liefern hohe Speicherkapazitäten zu geringen Kosten, doch die verschiedenen HDD-Modelle unterscheiden sich zum Teil erheblich. Was steckt eigentlich hinter Angaben wie MTTF und AFR? Was sagt die Unrecoverable Error Rate aus? Und was ist der Unterschied zwischen SMR- und MAMR-Laufwerken? Wir bieten einen Überblick über die wichtigsten Spezifikationen und wie sie zusammenhängen, um Nutzer bei der Auswahl von Festplattenmodellen zu unterstützen, die optimal zu ihren konkreten Anwendungsfällen passen.

Datensicherheit durch Backupmonitoring und -reporting

Administratoren für den Bereich Datensicherung haben zunehmend mit einer fragmentierten Umgebung zu kämpfen. Backuptools erfüllen zudem die spezifischen Anforderungen bei Monitoring, Reporting und Audit häufig nicht zu 100 Prozent. Dies kann zu einem Mangel an Überblick und im schlimmsten Fall zu einem Kontrollverlust führen. Der Fachartikel beschreibt die vielfältigen Probleme, die sich hier ergeben und wie eine automatisierte Backupüberwachung Ordnung in das Chaos bringt.