Vom KI-Pilot zum Regelbetrieb
KI-Projekte in Unternehmen scheitern selten an der Technologie – sie scheitern am Weg vom Experiment in den geregelten Betrieb. Red Hat hat mit Red Hat AI Enterprise eine Plattform vorgestellt, die genau diese Lücke schließen soll.
Viele Unternehmen stecken mit ihren KI-Initiativen in einer Art Niemandsland fest: Die Piloten laufen, aber der Sprung in produktive, unternehmensweite Abläufe gelingt nicht. Der Grund ist häufig ein Flickenteppich aus isolierten Tools, unterschiedlichen Infrastrukturen und fehlendem Lifecycle-Management. Red Hat AI Enterprise möchte genau hier ansetzen: Die Plattform vereint KI-Inferencing, Modell-Tuning und die Verwaltung autonomer KI-Agenten auf einer einzigen Basis, die auf Red Hat OpenShift aufsetzt.
Definierte Abläufe für KI
Konkret bedeutet das, dass IT-Teams Modelle bereitstellen, überwachen und aktualisieren können, wie sie es von klassischer Enterprise-Software kennen – mit definierten Pipelines, Echtzeit-Telemetrie zu Modellgesundheit und -verhalten sowie integrierten Sicherheitsmechanismen wie NeMo Guardrails, die das Verhalten von KI-Modellen im Betrieb aktiv überwachen und eingrenzen.
Wer auf NVIDIA-Hardware setzt, bekommt mit Red Hat AI Factory with NVIDIA zudem eine gemeinsam entwickelte Kombination aus Red Hat AI Enterprise und NVIDIA AI Enterprise, die den Produktiveinsatz weiter beschleunigen soll. Unter der Haube arbeitet die Plattform mit der Inference Engine vLLM und dem Framework llm-d für verteilte Modelle – beides darauf ausgelegt, GenAI-Workloads in hybriden Umgebungen performant und kosteneffizient zu betreiben.
Neue Modelle in AI 3.3
Parallel dazu erschien Red Hat AI 3.3 mit Erweiterungen des gesamten Portfolios. Neu hinzugekommen sind produktionsreife Modelle wie Mistral-Large-3, Nemotron-Nano und DeepSeek-V3.2, letzteres mit Sparse-Attention-Optimierung für effizientere Inferencing-Kosten. Für IT-Teams besonders praxisrelevant ist die technische Preview von Models-as-a-Service (MaaS): Über ein zentrales API-Gateway lassen sich selbst gehostete Modelle als interner Self-Service bereitstellen – Abteilungen rufen KI-Funktionen dann auf Abruf ab, ohne eigene Infrastruktur aufzubauen.
Wer GPU-Ressourcen effizienter auslasten will, profitiert von der neuen GPU-as-a-Service-Funktion mit intelligenter Orchestrierung und automatisiertem Checkpointing, das den Fortschritt lang laufender Trainingsjobs sichert und damit kostspielige Neustarts verhindert. Bei der Hardware-Unterstützung legt Red Hat 3.3 ebenfalls nach: Die Plattform ist nun für NVIDIAs Blackwell Ultra zertifiziert, erweitert den Support für AMDs MI325X-Beschleuniger und bringt als Preview GenAI-Inferencing auf Intel-CPUs – ein interessanter Ansatz für den kosteneffizienten Betrieb kleinerer Sprachmodelle ohne dedizierte GPU.