Quantum Computing – ein Fall für die Cloud

Lesezeit
2 Minuten
Bis jetzt gelesen

Quantum Computing – ein Fall für die Cloud

17.02.2022 - 10:00
Veröffentlicht in:
Viele Unternehmen stecken inmitten der digitalen Transformation, da kommt schon die nächste Revolution: Quantencomputer. Die großen Cloud Service Provider machen die Nutzung für viele Unternehmen erschwinglich. Doch die Einbindung in bestehende Systeme stellt Anforderungen.
Die Idee eines Computers, der nach dem Modell der Quantenmechanik funktioniert, kam bereits in den 1980er-Jahren auf. Aber erst seit Kurzem ist die Technik so weit entwickelt, dass sie relevante Probleme mit realen Unternehmensdaten lösen kann. Dabei handelt es sich oft um Fragestellungen aus der medizinischen Forschung oder der Risikoabschätzung.

Quantencomputer sind mehr als besonders leistungsfähige Rechnersysteme. Sie arbeiten nach einem anderen Prinzip als die traditionellen "Elektronengehirne". Ihre Bausteine, Qubits genannt, kennen nicht nur die binären Zustände 0 und 1, sondern Kombinationen aus – theoretisch – unendlich vielen Abstufungen und somit Informationen dazwischen. Wie die konventionellen Maschinen zerlegen sie Probleme in Komponenten und Spielarten, doch sie berechnen sie nicht nacheinander, sondern simultan.

Teuer und wenig zukunftssicher
Das klingt zu schön, um wahr zu sein. Und tatsächlich hat die Medaille auch eine Kehrseite – genau genommen, sogar mehrere. Es beginnt damit, dass es den Qubits im Vergleich zu den herkömmlichen Bits an Beständigkeit mangelt. Zudem sind Quantencomputer heute noch rar und teuer.

Hinzu kommt: Die Maschinen sind oft schon kurz nach der Installation veraltet. Mitte 2021 weihten IBM und das Fraunhofer-Institut in Ehingen einen Computer ein, dessen Prozessor über eine Kapazität von 27 Qubit verfügt. Erst kürzlich stellte IBM wiederum den "Eagle"-Chip mit 127 Qubit vor. Bislang verdoppelt sich die Leistung im Quantum Computing schon nach sechs bis acht Monaten.

Demokratisierung des Quantensprungs
Bereits aus diesem Grund wäre es für ein gewöhnliches Unternehmen wirtschaftlicher Selbstmord, Quantentechnik On-Premises zu installieren. Das ist auch nicht nötig. Wer die Problemlösungskompetenz des Quantum Computing in Anspruch nehmen möchte, kann auch einen Service Provider hinzuziehen. "Azure Quantum", "Amazon Braket" oder "Google Quantum AI" heißen die Services der Hyperscaler.

Marktbeobachter titulieren diese Public-Cloud-Angebote bereits als die "Demokratisierung des Quantum Computing". Wer diesen Weg einschlägt, spart sich die enormen Anschaffungskosten und die komplexe Installation – ganz zu schweigen von der Wartung und dem notwendigen Know-how der Belegschaft.

Data Fabric statt Datensilos
Um eines muss sich der Cloud-Kunde aber immer noch selbst kümmern: das Datenmanagement. Komplex ist es vor allem in hybriden Umgebungen, in denen die Workloads zu einem Teil On-Premises, zu einem anderen in der Cloud abgearbeitet werden.

Daten lagern sich häufig in Silos ab, wo sie über kurz oder lang quasi mit der jeweiligen Infrastruktur verschmelzen. Externe Cloud Service Provider tendieren dazu, die Kundendaten im Falle eines Anbieterwechsels nur unter Auflagen herauszugeben. Aber auch innerhalb des Unternehmens entwickeln die Daten eine "Schwerkraft", welche die Migration auf eine andere Systemplattform erschwert. Die Folge sind Redundanzen und ein hoher Streaming-Aufwand.

Abhilfe schafft eine Data Fabric. Dabei handelt es sich um eine Architektur und einen Satz von Datendiensten, die einheitliche Funktionen für das Datenmanagement in allen Cloud-, On-Premises- und Edge-Endpunkten bieten. Durch diese Standardisierung gewinnen Unternehmen Datentransparenz und Einblicke aus Daten, Datenzugriff und -kontrolle sowie einen erhöhten Datenschutz und mehr Sicherheit.

Die IT-Infrastruktur erfordert eine individuell zugeschnittene Data-Fabric-Strategie. Deshalb unterstützt NetApp Unternehmen dabei, einen auf ihre Anforderungen angepassten Ansatz zu entwickeln. So werden die Unternehmensdaten auch für das Quantum Computing in der Cloud verwertbar, ohne dass Silos entstehen oder die Daten in der Schwerkraft der Cloud gefangen werden.






Tags

Ähnliche Beiträge

Drei zentrale Herausforderungen für das Datenmanagement

Daten sind ein unverzichtbarer Vermögenswert für Unternehmen geworden. Für ITAdministratoren bedingt dies, neben fundamentalen Datenmanagement-Anforderungen, Veränderungen in den Bereichen Organisationsstruktur, Kultur und Leadership sowie Rollen und Skills voranzutreiben. Der Fachartikel zählt die drei größten Herausforderungen auf, vor denen Organisationen in Bezug auf Datenmanagement stehen.

Im Test: Power Admin Storage Monitor 9.3

Eine effiziente Planung der Storage-Landschaft und ihrer Verfügbarkeit setzt detailliertes Wissen über Beschaffenheit und Alter der gespeicherten Daten voraus. Power Admin Storage Monitor verspricht, den Datenbestand umfassend zu analysieren, laufend zu überwachen und automatisch auf Ereignisse zu reagieren. Dabei liegt der Schwerpunkt auf Windows, doch das flexible Tool bindet auch andere Speicher im Netzwerk per SNMP an.

All-Flash-Rechenzentrum beim Bio-Großhändler

Seit vielen Jahren arbeiten Storage-Anbieter daran, All-Flash-Systeme so zu konzipieren, dass sie sich nicht nur für Tier-1-Anwendungen, sondern zur Speicherung aller Daten im Rechenzentrum verwenden lassen. Das Ziel, dessen Erreichung vor allem die Anschaffungskosten im Weg standen, lautete: All-Flash-Data Center. Wie sieht es in der Praxis aus? Ein deutsches Handelsunternehmen berichtet erstmals über seine Alltagserfahrungen.