Fachartikel

Wie künstliche Intelligenz das Rechenzentrum prägt

Der Erfolg von KI-Projekten hängt von zahlreichen Faktoren ab. Dazu zählen die gewählten Methoden, die Modelle, die konkreten Algorithmen und auch die Datenqualität. Unterschätzt wird von IT-Verantwortlichen oft aber ein anderer, hoch relevanter Aspekt: die Infrastruktur des Rechenzentrums. Unser Fachartikel erklärt, wieso es nicht genügt, sich nur um Speicherkapazität und Sicherungskonzepte wie Data Warehouse, Data Lake, und Lakehouse Gedanken zu machen.
Es ist an IT- und RZ-Verantwortlichen, das Rechenzentrum für KI-Projekte fit zu machen.
Die Investitionsbereitschaft in KI-Technologien bleibt nach wie vor hoch. Eine Befragung durch den Branchenverband Bitkom im Jahr 2022 erbrachte, dass jedes vierte Unternehmen in Deutschland in KI-Projekte investieren will. Jedes zehnte davon bereits 2023. Die ohnehin schon rasante Entwicklung auf dem Gebiet der künstlichen Intelligenz wird durch IoT-Lösungen und 5G-basierte Netze noch weiter an Fahrt gewinnen. Ein missionskritischer Parameter für KI-Projekte ist das Rechenzentrum. Viele Verantwortlichen im Rechenzentrum fragen sich, wie sie die Weichen stellen müssen, um hier optimal aufgestellt zu sein.

Denn mit ihren KI-Projekten verknüpfen viele Unternehmen sehr hohe Erwartungen. Maschinelles Lernen, Mustererkennung und Predictive Analytics sollen Absatz-, Produktions- und Materialmengen genauer vorhersagen und die Wünsche von Kunden besser ermitteln. Ist das RZ der Motor für KI-Projekte, muss es genügend Leistung bringen und vielseitig einsetzbar sein. Wie bei einem Auto hängen die konkreten Einsatzmöglichkeiten von bestimmten Faktoren und Bauteilen ab. Im Folgenden beschreiben wir die aktuellen technologischen Entwicklungen im Bereich von KI und Rechenzentrum, über die sich Data-Center-Verantwortliche im Vorfeld von KI-Projekten Gedanken machen sollten.

Daten bleiben in Bewegung
In den vergangenen Jahren hat sich die Haltung von Unternehmen gegenüber ihren Daten massiv gewandelt. Datenanalysten schreiben heute vielen Daten einen potenziellen und langfristigen Wert zu, der sich erst zu einem späteren Zeitpunkt beziffern lässt, wenn die Daten doch noch benötigt werden. Die Frage "Kann das weg?" beantworten die Firmen immer häufiger mit einem Nein und verlagern die Informationen in Data Lakes.

Fakt ist: Archive sind heute zunehmend aktiv und in Bewegung. Im Data Warehouse und Data Lake werden kontinuierlich Daten gelesen und geschrieben. Die permanente Verarbeitung von Informationen stellt dahingehend Anforderungen an verschiedene Bereiche der Rechenzentren.
Komplexität von KI-Modellen und Datenmenge steigt
Die Anfänge künstlicher Intelligenz liegen mit den Turing-Tests und Eliza, dem ersten, Mitte der 60er Jahre entwickelten "Chatbot", bereits über 50 Jahre zurück. Heute ist KI mit Sprachassistenten auf jedem Smartphone zu Hause und erobert die Wohnzimmer der Menschen. Sie macht das Leben allerdings nicht nur bequemer, sondern trägt auch zur Gesundheitsvorsorge bei.

Ein Beispiel ist die Auswertung digitaler Mammografien an der Universität von Hawaii, mit dem Ziel, Brustkrebs früher zu erkennen. Die Mediziner benötigten etwa 25.000 Bilddateien von knapp 6500 Frauen – ein auf den ersten Blick unüberschaubares Projekt für das menschliche Auge. Mit KI ließen sich hier deutlich einfacher mehr Schattierungen erkennen und analysieren.

Welchen Speicherhunger KI-Anwendungen in der nahen Zukunft haben werden, deuten aktuelle Entwicklungen erst an. Das Sprachverarbeitungsmodell GPT-3 von OpenAI nutzt 175 Milliarden Parameter aus Basis von 570 GByte gefilterten Daten. Dafür benötigt GPT-3 mehr Rechenleistung als jedes andere Sprachverarbeitungsmodell vor ihm. Um genau zu sein, beträgt diese für das Training des Modells 3,14x10^23 Gleitkommaoperationen pro Sekunde (Flops). Zum Vergleich: Bei 15 Teraflops, beziehungsweise 1,50x10^13 Flops, würden mit aktueller GPU-Technologie bestückte Computer dafür etwa 665 Jahre in Anspruch nehmen.

Es ist damit zu rechnen, dass die Komplexität exponentiell ansteigen wird, wenn in der Industrie kompliziertere Aufgaben zu lösen sind. Das Startup Fairmatics, das jüngst mit 42 Millionen Dollar finanziert wurde, hat mittels KI ein Risiko- und Tarifmodell für die Kfz-Versicherung entwickelt, das auf der Analyse von über 300 Milliarden gefahrener Kilometer basiert.

Wo die Grenzen liegen werden, ist offen. Wenn das menschliche Gehirn die Benchmark sein soll, ist noch viel Luft nach oben. Denn die körpereigene Rechenzentrale verfügt über 100 Billionen Synapsen. Der Bedarf an größerer Speicherkapazität wird weiterwachsen.

Seite 1: Komplexität von KI-Modellen und Datenmenge steigt


Seite 1 von 2 Nächste Seite >>
26.10.2022/ln/Manfred Berger, Senior Manager Business Development für Data Center Solutions and Platforms bei Western Digital

Nachrichten

Mehr Klarheit beim Backup [2.11.2022]

Die neue Version der NovaStor Backupsoftware soll die Sicherung in die Cloud durch mehr Automatisierung vereinfachen. Gleichzeitig gibt der Hersteller an, dass sich die Einrichtungszeit der Anwendung deutlich verkürzt. Im Bereich der Tape-Sicherung bildet NovaStor die Handhabung der Bandlaufwerke jetzt in der neuen Bedienoberfläche ab. [mehr]

Mehr Platz für Daten [18.10.2022]

Toshiba Electronics Europe kündigt die Einführung seiner neuen MG10-Serie mit "Conventional Magnetic Recording" und 20 TByte Größe an. Die Speicherkapazität der MG10 basiert auf einem Festplattendesign mit zehn magnetischen Scheiben und Heliumversiegelung. Sie nutzt zudem das "Flux Clontrol Microwave Assisted Magnetic Recording" von Toshiba. [mehr]

Tipps & Tools

Datensicherheit durch Backupmonitoring und -reporting [10.11.2022]

Administratoren für den Bereich Datensicherung haben zunehmend mit einer fragmentierten Umgebung zu kämpfen. Gleichzeitig erfüllen auch Backuptools die spezifischen Anforderungen bei Monitoring, Reporting und Audit häufig nicht lückenlos. Unser Fachartikel beschreibt die vielfältigen Probleme, die sich dadurch ergeben, und wie eine automatisierte Backupüberwachung Ordnung in das Chaos bringt. [mehr]

Im Test: Thomas-Krenn Open-E RA1112 Metro Cluster [27.10.2022]

Mit dem Open-E RA1112 (All-Flash) Metro Cluster hat Thomas-Krenn eine sehr kompakte Speicher-Appliance aufgelegt, die auf dem robusten ZFS-Dateisystem und dem bekannten Betriebssystem Open-E JovianDSS basiert. Dabei bilden zwei identische Server einen Metro Cluster, um durch einen synchronen Spiegelbetrieb eine hochverfügbare Datenhaltung zu gewährleisten. Wir haben uns diesen Server-Doppelpack im Labor genauer angesehen. [mehr]

Buchbesprechung

The Security Culture Playbook

von Perry Carpenter und Kai Roer

Anzeigen