KI-Rechenpower vor Ort und als Clouddienst

Lesezeit
1 Minute
Bis jetzt gelesen

KI-Rechenpower vor Ort und als Clouddienst

28.10.2021 - 09:45
Veröffentlicht in:
Der europäische KI-Chiphersteller Graphcore hat mit dem IPU-POD128 und dem IPU-POD256 zwei neue KI-Systeme vorgestellt, die die Stärken und Vorteile der von Grund auf für Scale-Out Anwendungen entwickelten Graphcore-Architektur ausspielen sollen. Mit 32 PetaFLOPS beim IPU-POD128 und 64 PetaFLOPS beim IPU-POD256 bieten die Systeme eine entsprechende KI-Rechenleistung für Supercomputer-Umgebungen. Verfügbar sind die Rechenmaschinen physisch und als Clouddienst.
Die neuen Graphcore-KI-Systeme [1] versprechen ein schnelleres Training großer Transformer-basierter Sprachmodelle, Large-Scale KI-Inferenzberechnungen und die Erforschung neuester KI-Modelle wie GPT und GNN. Durch Aufteilung der Systeme in kleinere, flexible vPODs können mehrere KI-Entwickler Zugriff auf die Graphcore-IPUs (Intelligence Processing Units) erhalten. Die neuen Graphcore KI-Systeme eignen sich damit insbesondere für Cloud-Hyperscaler, wissenschaftliche Rechenzentren und Unternehmen mit großen KI-Teams in Branchen wie der Finanz- oder Pharmaindustrie.

Die Graphcore IPUs sollen aufgrund ihres On-Chip Memory eine sehr gute Leistung für traditionelle große MatMul-Modelle wie BERT und ResNet-50 bieten. Darüber hinaus unterstützen sie auch allgemeinere Berechnungsarten, die die Effizienz von Sparse-Multiplikationen und Fine-Grained Berechnungen erhöhen. Die EfficientNet-Modellfamilie profitiert laut Hersteller davon, aber auch verschiedene KI-Modelle für maschinelles Lernen, die nicht auf klassischen neuronalen Netzen basieren, zum Beispiel GNN (Graph Neural Networks).

Breite Unterstützung von KI-Frameworks
Die IPU-POD128 und IPU-POD256 Systeme unterstützen KI-Frameworks wie TensorFlow, PyTorch, PyTorch Lightning, Keras, Paddle Paddle, Hugging Face, ONNX und HALO sowie Standard-Tools und -Protokolle wie OpenBMC, Redfish DTMF, IPMI over LAN, Prometheus und Grafana. So können die neuen Graphcore KI-Systeme in bestehende Rechenzentrumsumgebungen integriert werden und Nutzer die zusätzliche KI-Rechenleistung sofort produktiv in ihrer bekannten Softwareumgebung nutzen.

Wie bei anderen Graphcore IPU-POD-Systemen auch bedeutet die Disaggregation von KI-Rechenleistung und Servern, dass die IPU-POD128 und IPU-POD256 Systeme weiter verbessert werden können, um eine höhere Leistung für verschiedene KI-Workloads bereitzustellen und die Gesamtbetriebskosten (TCO) bestmöglich zu optimieren. Beispielsweise könnte ein NLP-fokussiertes System mit nur zwei Servern auskommen, während datenintensivere Prozesse, wie zum Beispiel Computer-Vision-Tasks, eher von einer Konfiguration mit acht Servern profitieren würden.

Erhältlich als Hardware und Clouddienst
Darüber lassen sich auch die angebundenen Storage-Systeme für bestimmte KI-Workloads optimieren. Die Storage-Anbieter DDN, Pure Storage, Vast Data und WekaIO unterstützen Graphcore KI-Systeme mit zertifizierten Referenzarchitekturen. Die Graphcore IPU-POD128 und IPU-POD256 Systeme sind ab sofort über die Graphcore-Partner Atos, Boston und Megware in der DACH-Region lieferbar und werden auch als Cloudservice [2] angeboten.

dr

[1] https://www.graphcore.ai/
[2] http://www.graphcloud.ai/

Ähnliche Beiträge

Workstations mit Wumms

Mit "Z by HP" präsentiert der PC-Hersteller eine neue Reihe an High-Performance-Workstations im Desktop-Format. Diese sind vor allem für komplexe, datenintensive Arbeitsabläufe konzipiert. Flaggschiff der Serie ist die Workstation "Z8 Fury G5", die sich mit bis zu 64 CPU-Kernen und vier Grafikkarten ausstatten lässt.