Skalierbare KI/ML-Infrastrukturen
|
ChatGPT hat einen Hype in Sachen Künstliche Intelligenz ausgelöst. Während der Chatbot in der Cloud seine raffinierten Texte erstellt, möchten viele Unternehmen Machine-Learning-Applikationen oder andere skalierbare Workloads im eigenen Rechenzentrum laufen lassen. Wie sie hierfür die passenden Infrastrukturen samt Kubernetes- und OpenShift-Clustern errichten, zeigt Oliver Liebel. Die zugrundeliegende Hardware liefert dabei NVIDIA mit seinen Datacenter-GPUs. Das Ziel des Autors: Er möchte den Weg zu einer verhältnismäßig kostengünstigen, skalierbaren wie auch flexiblen Infrastruktur ebnen, in der Workloads autoskaliert und effizient ablaufen. So soll das "praxisnahe Handbuch für Admins" aufzeigen, welche Kriterien ITVerantwortliche vor dem Einsatz von KI- und ML-Umgebungen in Betracht ziehen müssen und welche Stacks auf welchen Plattformen existieren. Auch bewertet der Autor, welche Infrastuktur- Stacks sich für welche Firmen eignen und wie diese langzeittauglich implementiert werden können. Nach den technischen Grundlagen zu KI und ML legt Liebel in Teil 2 des Buchs mit den nötigen Vorbereitungen los, um vSphere als Hypervisor zu nutzen und mit NVIDIAs AI Enterprise Stack zu verheiraten. Im dritten und letzten Teil folgt dann das Errichten der Machine-Learning-Stacks. Eine zentrale Rolle spielen hierbei Continuos Integration/Continuous Development sowie GitOps. Schließlich findet noch Kubeflow für das Errichten von ML-Pipeline- und KI-Ende-zu-Ende- Implementierungen seinen Einsatz. Fazit Im Rahmen dieser Buchbesprechung ist es gerade einmal möglich, an der Oberfläche von Oliver Liebels Werk zu kratzen. Das liegt weniger an den rund 470 Seiten, als vielmehr am wahrlich komprimierten Inhalt, den der Autor verständlich vermittelt. Er führt Schritt für Schritt durch das Planen und Aufbauen einer eigenen ML/KI-Infrastruktur, ohne unnötige Worte zu verlieren. Auf den Punkt geschrieben, setzt er allerdings Vorkenntnisse in Sachen IT-Administration, Virtualisierung wie auch Cluster voraus. |