Lesezeit
2 Minuten
Quantum Computing – ein Fall für die Cloud
Viele Unternehmen stecken inmitten der digitalen Transformation, da kommt schon die nächste Revolution: Quantencomputer. Die großen Cloud Service Provider machen die Nutzung für viele Unternehmen erschwinglich. Doch die Einbindung in bestehende Systeme stellt Anforderungen.
Die Idee eines Computers, der nach dem Modell der Quantenmechanik funktioniert, kam bereits in den 1980er-Jahren auf. Aber erst seit Kurzem ist die Technik so weit entwickelt, dass sie relevante Probleme mit realen Unternehmensdaten lösen kann. Dabei handelt es sich oft um Fragestellungen aus der medizinischen Forschung oder der Risikoabschätzung.
Quantencomputer sind mehr als besonders leistungsfähige Rechnersysteme. Sie arbeiten nach einem anderen Prinzip als die traditionellen "Elektronengehirne". Ihre Bausteine, Qubits genannt, kennen nicht nur die binären Zustände 0 und 1, sondern Kombinationen aus – theoretisch – unendlich vielen Abstufungen und somit Informationen dazwischen. Wie die konventionellen Maschinen zerlegen sie Probleme in Komponenten und Spielarten, doch sie berechnen sie nicht nacheinander, sondern simultan.
Das klingt zu schön, um wahr zu sein. Und tatsächlich hat die Medaille auch eine Kehrseite – genau genommen, sogar mehrere. Es beginnt damit, dass es den Qubits im Vergleich zu den herkömmlichen Bits an Beständigkeit mangelt. Zudem sind Quantencomputer heute noch rar und teuer.
Hinzu kommt: Die Maschinen sind oft schon kurz nach der Installation veraltet. Mitte 2021 weihten IBM und das Fraunhofer-Institut in Ehingen einen Computer ein, dessen Prozessor über eine Kapazität von 27 Qubit verfügt. Erst kürzlich stellte IBM wiederum den "Eagle"-Chip mit 127 Qubit vor. Bislang verdoppelt sich die Leistung im Quantum Computing schon nach sechs bis acht Monaten.
Bereits aus diesem Grund wäre es für ein gewöhnliches Unternehmen wirtschaftlicher Selbstmord, Quantentechnik On-Premises zu installieren. Das ist auch nicht nötig. Wer die Problemlösungskompetenz des Quantum Computing in Anspruch nehmen möchte, kann auch einen Service Provider hinzuziehen. "Azure Quantum", "Amazon Braket" oder "Google Quantum AI" heißen die Services der Hyperscaler.
Marktbeobachter titulieren diese Public-Cloud-Angebote bereits als die "Demokratisierung des Quantum Computing". Wer diesen Weg einschlägt, spart sich die enormen Anschaffungskosten und die komplexe Installation – ganz zu schweigen von der Wartung und dem notwendigen Know-how der Belegschaft.
Um eines muss sich der Cloud-Kunde aber immer noch selbst kümmern: das Datenmanagement. Komplex ist es vor allem in hybriden Umgebungen, in denen die Workloads zu einem Teil On-Premises, zu einem anderen in der Cloud abgearbeitet werden.
Daten lagern sich häufig in Silos ab, wo sie über kurz oder lang quasi mit der jeweiligen Infrastruktur verschmelzen. Externe Cloud Service Provider tendieren dazu, die Kundendaten im Falle eines Anbieterwechsels nur unter Auflagen herauszugeben. Aber auch innerhalb des Unternehmens entwickeln die Daten eine "Schwerkraft", welche die Migration auf eine andere Systemplattform erschwert. Die Folge sind Redundanzen und ein hoher Streaming-Aufwand.
Abhilfe schafft eine Data Fabric. Dabei handelt es sich um eine Architektur und einen Satz von Datendiensten, die einheitliche Funktionen für das Datenmanagement in allen Cloud-, On-Premises- und Edge-Endpunkten bieten. Durch diese Standardisierung gewinnen Unternehmen Datentransparenz und Einblicke aus Daten, Datenzugriff und -kontrolle sowie einen erhöhten Datenschutz und mehr Sicherheit.