Fachartikel

Wie künstliche Intelligenz das Rechenzentrum prägt

Der Erfolg von KI-Projekten hängt von zahlreichen Faktoren ab. Dazu zählen die gewählten Methoden, die Modelle, die konkreten Algorithmen und auch die Datenqualität. Unterschätzt wird von IT-Verantwortlichen oft aber ein anderer, hoch relevanter Aspekt: die Infrastruktur des Rechenzentrums. Unser Fachartikel erklärt, wieso es nicht genügt, sich nur um Speicherkapazität und Sicherungskonzepte wie Data Warehouse, Data Lake, und Lakehouse Gedanken zu machen.
Es ist an IT- und RZ-Verantwortlichen, das Rechenzentrum für KI-Projekte fit zu machen.
Die Investitionsbereitschaft in KI-Technologien bleibt nach wie vor hoch. Eine Befragung durch den Branchenverband Bitkom im Jahr 2022 erbrachte, dass jedes vierte Unternehmen in Deutschland in KI-Projekte investieren will. Jedes zehnte davon bereits 2023. Die ohnehin schon rasante Entwicklung auf dem Gebiet der künstlichen Intelligenz wird durch IoT-Lösungen und 5G-basierte Netze noch weiter an Fahrt gewinnen. Ein missionskritischer Parameter für KI-Projekte ist das Rechenzentrum. Viele Verantwortlichen im Rechenzentrum fragen sich, wie sie die Weichen stellen müssen, um hier optimal aufgestellt zu sein.

Denn mit ihren KI-Projekten verknüpfen viele Unternehmen sehr hohe Erwartungen. Maschinelles Lernen, Mustererkennung und Predictive Analytics sollen Absatz-, Produktions- und Materialmengen genauer vorhersagen und die Wünsche von Kunden besser ermitteln. Ist das RZ der Motor für KI-Projekte, muss es genügend Leistung bringen und vielseitig einsetzbar sein. Wie bei einem Auto hängen die konkreten Einsatzmöglichkeiten von bestimmten Faktoren und Bauteilen ab. Im Folgenden beschreiben wir die aktuellen technologischen Entwicklungen im Bereich von KI und Rechenzentrum, über die sich Data-Center-Verantwortliche im Vorfeld von KI-Projekten Gedanken machen sollten.

Daten bleiben in Bewegung
In den vergangenen Jahren hat sich die Haltung von Unternehmen gegenüber ihren Daten massiv gewandelt. Datenanalysten schreiben heute vielen Daten einen potenziellen und langfristigen Wert zu, der sich erst zu einem späteren Zeitpunkt beziffern lässt, wenn die Daten doch noch benötigt werden. Die Frage "Kann das weg?" beantworten die Firmen immer häufiger mit einem Nein und verlagern die Informationen in Data Lakes.

Fakt ist: Archive sind heute zunehmend aktiv und in Bewegung. Im Data Warehouse und Data Lake werden kontinuierlich Daten gelesen und geschrieben. Die permanente Verarbeitung von Informationen stellt dahingehend Anforderungen an verschiedene Bereiche der Rechenzentren.
Komplexität von KI-Modellen und Datenmenge steigt
Die Anfänge künstlicher Intelligenz liegen mit den Turing-Tests und Eliza, dem ersten, Mitte der 60er Jahre entwickelten "Chatbot", bereits über 50 Jahre zurück. Heute ist KI mit Sprachassistenten auf jedem Smartphone zu Hause und erobert die Wohnzimmer der Menschen. Sie macht das Leben allerdings nicht nur bequemer, sondern trägt auch zur Gesundheitsvorsorge bei.

Ein Beispiel ist die Auswertung digitaler Mammografien an der Universität von Hawaii, mit dem Ziel, Brustkrebs früher zu erkennen. Die Mediziner benötigten etwa 25.000 Bilddateien von knapp 6500 Frauen – ein auf den ersten Blick unüberschaubares Projekt für das menschliche Auge. Mit KI ließen sich hier deutlich einfacher mehr Schattierungen erkennen und analysieren.

Welchen Speicherhunger KI-Anwendungen in der nahen Zukunft haben werden, deuten aktuelle Entwicklungen erst an. Das Sprachverarbeitungsmodell GPT-3 von OpenAI nutzt 175 Milliarden Parameter aus Basis von 570 GByte gefilterten Daten. Dafür benötigt GPT-3 mehr Rechenleistung als jedes andere Sprachverarbeitungsmodell vor ihm. Um genau zu sein, beträgt diese für das Training des Modells 3,14x10^23 Gleitkommaoperationen pro Sekunde (Flops). Zum Vergleich: Bei 15 Teraflops, beziehungsweise 1,50x10^13 Flops, würden mit aktueller GPU-Technologie bestückte Computer dafür etwa 665 Jahre in Anspruch nehmen.

Es ist damit zu rechnen, dass die Komplexität exponentiell ansteigen wird, wenn in der Industrie kompliziertere Aufgaben zu lösen sind. Das Startup Fairmatics, das jüngst mit 42 Millionen Dollar finanziert wurde, hat mittels KI ein Risiko- und Tarifmodell für die Kfz-Versicherung entwickelt, das auf der Analyse von über 300 Milliarden gefahrener Kilometer basiert.

Wo die Grenzen liegen werden, ist offen. Wenn das menschliche Gehirn die Benchmark sein soll, ist noch viel Luft nach oben. Denn die körpereigene Rechenzentrale verfügt über 100 Billionen Synapsen. Der Bedarf an größerer Speicherkapazität wird weiterwachsen.

Seite 1: Komplexität von KI-Modellen und Datenmenge steigt


Seite 1 von 2 Nächste Seite >>
26.10.2022/ln/Manfred Berger, Senior Manager Business Development für Data Center Solutions and Platforms bei Western Digital

Nachrichten

Surface mit neuem Prozessor [30.11.2022]

Microsofts neues Surface Pro 9 ist mit zwei Prozessoroptionen verfügbar: Einem Intel-Core-Prozessor der 12. Generation oder erstmals dem Microsoft-SQ3-Prozessor mit 5G-Konnektivität. Zudem sollen Thunderbolt-4-Anschlüsse die Verbindung mit mehreren 4K-Displays und das Setup mit einer externen Grafikkarte unterstützen. [mehr]

Geballte Rechenkraft [25.11.2022]

Supermicro erweitert sein Produktportfolio um Server, die auf den neuen AMD-EPYC-Prozessoren der vierten Generation basieren. Die Systeme richten sich an Unternehmen, die große Datenmengen analysieren und komplexe Simulationen durchführen, darunter maschinelles Lernen wie auch High-Performance-Clustering-Applikationen. [mehr]

Tipps & Tools

Aumfmerksamkeitserregender Admin-Anstecker [3.12.2022]

Buttons sind wieder in! Und so wie mancher Admin in den 1980er-Jahren mit den bunten Anstecknadeln beispielsweise seine politische Haltung oder seine Lieblingsband kommunizierte, lässt sich heute mit dem Admin-Buttom wunderbar die Verbundenheit mit seinem Berufsstand ausdrücken -- und der Anstecker sich darüber hinaus personalisieren. [mehr]

Im Test: Aagon ACMP 6.3 [1.12.2022]

Cloud hin und SaaS her – in den meisten Firmen arbeiten nach wie vor abertausende Fat Clients, die IT-Administratoren professionell und sicher betreiben und warten müssen. Mit ACMP steht hierzu ein ausgereiftes Programm zur Verfügung, das Clients mit Betriebssystem, Software und Updates versorgt und auch ein Auge auf ihre Security hat. Wie unser Test zeigt, überzeugt es durch umfangreiche Automatisierung im Client-Lebenszyklus. [mehr]

Buchbesprechung

The Security Culture Playbook

von Perry Carpenter und Kai Roer

Anzeigen