Fachartikel

Der historische Wandel der digitalen Transformation

Der Begriff "Digitale Transformation" kursiert erst seit wenigen Jahren in unserem Sprachgebrauch – und doch haben in der jüngeren Geschichte mehrere wellenartige digitale Transformationen ihre Spuren hinterlassen. Angefangen bei den Großrechnern von IBM in den 1950er-Jahren bis zur heutigen Datenspeicherung in der Cloud. Ein Blick in die Historie zeigt, dass die Digitale Transformation kein einmaliger Schritt, sondern ein laufender Prozess ist, getrieben von der kontinuierlichen Entwicklung der Technologien, die Unternehmen neue Möglichkeiten bietet und zugleich vor neue Herausforderungen stellt.
Personal Computer wie der Commodore PET waren vor Jahrzehnten die ersten Treiber der digitalen Transformation.
Neue Technologien mit disruptivem Potenzial sehen sich zu Beginn großer Skepsis gegenüber. Häufig liegt dies daran, dass deren Tragweite sich anfangs nicht ermessen lässt. Das 20. Jahrhundert ist gespickt mit Fehleinschätzungen technischer Innovationen, darunter von führenden Persönlichkeiten der Branche. So prognostizierte IBM-Chef Thomas Watson einen Weltmarkt von höchstens fünf Computern. Auch das Internet wurde 1996 noch mit einer Supernova verglichen, die in einer Katastrophe untergehen wird – und das von Robert Metcalfe, dem Erfinder von Ethernet. Selbst Smartphones wurden noch vor 13 Jahren als nicht ansprechend bezeichnet – von niemand geringerem als dem damaligen Microsoft-Chef Steve Ballmer.

Heute ist das Bewusstsein für das unentdeckte Potenzial neuer Technologien deutlich stärker ausgeprägt. Ein Großteil des IT-Budgets fließt inzwischen in digitale Transformation, um neue Technologien bestmöglich integrieren zu können. Die immer schnellere Entwicklung wird diese Ausgaben perspektivisch noch steigen lassen. Zusätzlich zum finanziellen Aufwand wird es dabei auch stark auf die Entschlusskraft der IT-Verantwortlichen ankommen, neue Technologien sinnvoll in die bestehenden Abläufe und Infrastruktur zu integrieren. Denn neben einem kurzfristigen Mehrwert legen diese mitunter auch den Grundstein für zukünftige Entwicklungen.
Am Anfang war der Mainframe
Als Thomas Watson im Jahr 1943 den Weltmarkt von fünf Computern prognostizierte, konnte er noch nicht wissen, dass seine Firma mehr als zehn Jahre später den ersten Dominostein umwerfen sollte, der die Geschäftslandschaft über die nächsten Jahrzehnte prägen würde. In den 1950er und 1960er Jahren fertigte IBM zunehmend Großrechner, deren Einsatzgebiet schnell über den militärischen und wissenschaftlichen Bereich hinausging. Banken und Versicherungen profitierten von den effizienten Berechnungen komplexer Operationen. Außerdem hatten sie den nötigen Platz und das nötige Geld, um sich die ersten Computer leisten zu können. Der IBM 1401 kostete auf die heutige Kaufkraft hochgerechnet schließlich rund 20.000 Dollar Miete im Monat.

Analog zu den Anforderungen des kaufmännischen Bereichs wurde Ende der 1950er Jahre die Programmiersprache COBOL für die komplexen Berechnungen großer Datenmengen entwickelt. Da damals wie heute umfangreiche Rechenoperationen im Unternehmenskontext zu den täglichen Aufgaben gehörten, sind sowohl Großrechner als auch COBOL-basierte Anwendungen auch nach über 60 Jahren noch fester Bestandteil großer IT-Infrastrukturen. Damit war die erste Transformation von rein analogen zu digitalen Vorgängen in vollem Gange.

Bahn frei für den Massenmarkt
Heute ist User Experience und intuitive Bedienung entscheidend, wenn neue Endgeräte auf den Markt kommen. Lange vor dem iPad scheiterte zum Beispiel das Microsoft-Tablet aufgrund des klobigen Designs und der Bedienung per Stift. Eine ähnliche Entwicklung haben PCs hinter sich: Die ersten Großrechner waren zwar eine sinnvolle Ergänzung im Unternehmen, aber nicht tauglich für den Massenmarkt, da sie schlicht zu groß waren und nur durch Experten bedient werden konnten.

Es dauerte bis zum Jahr 1977, bis mit dem Commodore PET erstmals ein "Personal Computer" betriebsbereit den Weg in ein kompaktes Gehäuse fand. Ein Jahr zuvor gab es den Apple I immerhin als Lego-Version in Einzelteilen zu erwerben. Mit Kaufpreisen von weniger als 1000 US-Dollar waren diese Geräte nun deutlich erschwinglicher und fanden den Weg in die Büros der Welt.

3.06.2020/ln/Joe Garber, Vice President Strategy & Solutions bei Micro Focus

Nachrichten

Klare Sicht in der Produktion [3.07.2020]

baramundi hat das 2020er-Release der baramundi Management Suite veröffentlicht. Der Hersteller hat sie mit der "Manufacturing Edition" um eine Variante zum Management von Endgeräten in Produktionsumgebungen erweitert. Dadurch soll sie auch die Inventarisierung industrieller Steuerungssysteme ermöglichen. [mehr]

Superrechner auf NVIDIA-Basis [2.07.2020]

Atos bringt seinen neuen BullSequana X2415 heraus, der als erster Supercomputer in Europa mit dem "NVIDIA A100 Tensor Core" die NVIDIA-Ampere-Grafikprozessorarchitektur integriert. Das Supercomputer-Blade verspricht enorme Rechenleistung zur Steigerung der Anwendungs-Performance für HPC- und KI-Workloads. [mehr]

Tipps & Tools

Flexible Datenübertragung [5.07.2020]

Mit der steigenden Anzahl an neuen Apparaten nehmen auch die verschiedenen Schnittstellen zu. Der microSD-Kartenleser von Callstel kann hier aushelfen. Das Gadget bietet vier Anschlüsse für Lightning, Micro-USB sowie USB Typ A und C. In Kombination mit einer SD-Karte können Sie Ihre Daten ganz einfach transportieren und auf verschiedenen Geräten nutzen. [mehr]

Browser für den Feierabend [4.07.2020]

Um nach einem anstrengenden Arbeitstag zu entspannen, können Plattformen wie YouTube oder Facebook weiterhelfen sowie der richtige Browser. Der auf Chromium-basierende "Torch Browser" integriert verschiedene Multimediafunktionen, wie etwa eine Erweiterung, um Videos direkt herunterzuladen und die Möglichkeit, der Facebook-Seite ein eigenes Design zu verpassen. [mehr]

Buchbesprechung

Microsoft Office 365

von Markus Widl

Anzeigen