3. Dezember 2025, 14.00 Uhr

Red Hat liefert verbesserte KI-Inferenz über AWS​

Red Hat AI auf AWS-KI-Chips Trainium und Inferentia bietet Unternehmen mehr Auswahl, Flexibilität und Effizienz für KI-Workloads in der Produktion.

Zürich, 3. Dezember 2025 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, gibt eine erweiterte Zusammenarbeit mit Amazon Web Services (AWS) bekannt, in deren Rahmen generative KI (GenAI) für Unternehmen auf AWS mit Red Hat AI und AWS AI Silicon bereitgestellt wird. IT-Entscheidungsträgern soll so die Flexibilität gegeben werden, hochperformante, effiziente KI-Inferenz in grossem Massstab auszuführen, unabhängig von der zugrunde liegenden Hardware.

Das Aufkommen der generativen KI und der damit verbundene Bedarf an skalierbarer Inferenz zwingen Unternehmen dazu, ihre IT-Infrastruktur neu zu bewerten. IDC prognostiziert dabei, dass «bis 2027 40 % der Unternehmen massgeschneiderte Siliziumchips, darunter ARM-Prozessoren oder KI/ML-spezifische Chips, einsetzen werden, um den steigenden Anforderungen an Performanceoptimierung, Kosteneffizienz und spezialisierte Rechenleistung gerecht zu werden» (1). Dies unterstreicht den Bedarf an optimierten Lösungen, die die Rechenleistung verbessern, die Kosten minimieren und schnellere Innovationszyklen für leistungsstarke KI-Anwendungen ermöglichen.

Die Zusammenarbeit von Red Hat mit AWS ermöglicht Unternehmen eine Full-Stack-Gen-AI-Strategie, indem die umfassenden Plattformfunktionen von Red Hat mit der AWS-Cloud-Infrastruktur und den AI-Chipsätzen AWS Inferentia2 und AWS Trainium3 kombiniert werden. Zu den wichtigsten Aspekten der Zusammenarbeit gehören: 

  • Red Hat AI Inference Server auf AWS-KI-Chips: Der Red Hat AI Inference Server, der auf vLLM basiert, wird auch mit AWS-KI-Chips wie AWS Inferentia2 und AWS Trainium3 nutzbar sein, um eine gemeinsame Inferenzschicht bereitzustellen, die jedes KI-Modell unterstützen kann. Damit können Unternehmen eine höhere Performance, geringere Latenz und Kosteneffizienz für die Skalierung von KI-Produktionsbereitstellungen erzielen – mit einer um 30 bis 40 % besseren Preis-Leistungs-Bilanz als bei aktuellen, vergleichbaren GPU-basierten Amazon-EC2-Instanzen.
  • Einfacher Zugriff und leichte Bereitstellung: Durch die Unterstützung von AWS-KI-Chips bietet Red Hat seinen Kunden auf AWS einen verbesserten und einfacheren Zugriff auf stark nachgefragte Beschleuniger mit hoher Kapazität. Darüber hinaus hat Red Hat kürzlich die amazon.ai Certified Ansible Collection für Red Hat Ansible Automation Platform veröffentlicht, um die Orchestrierung von KI-Services auf AWS zu ermöglichen. 
  • Beitrag zur Upstream-Community: Red Hat und AWS arbeiten gemeinsam an der Optimierung eines AWS-KI-Chip-Plugins, das an vLLM weitergeleitet wird. Als führender kommerzieller Mitwirkender an vLLM setzt sich Red Hat dafür ein, vLLM auf AWS zu unterstützen, um die KI-Inferenz- und Trainingsfunktionen für Benutzer zu beschleunigen. vLLM ist auch die Grundlage von llm-d, einem Open-Source-Projekt, das sich auf die Bereitstellung von Inferenz in grossem Massstab konzentriert und jetzt als kommerziell unterstützte Funktion in Red Hat OpenShift AI 3 verfügbar ist.

Red Hat blickt auf eine lange Historie der Zusammenarbeit mit AWS zurück, um Kunden vom Rechenzentrum bis zur Edge zu unterstützen. Dieser jüngste Meilenstein zielt nun darauf ab, den sich wandelnden Anforderungen von Unternehmen gerecht zu werden, die KI in ihre Hybrid-Cloud-Strategien integrieren, um optimierte, effiziente Ergebnisse im Bereich der generativen KI zu erzielen.

Informationen zur Zusammenarbeit von Red Hat und AWS erhalten Interessierte auch auf der Konferenz AWS re:Invent 2025 am Stand 839.

Verfügbarkeit

Der AWS Neuron Community Operator ist jetzt im Red Hat OpenShift OperatorHub für Kunden verfügbar, die Red Hat OpenShift oder Red Hat OpenShift Service auf AWS verwenden. Die Unterstützung von Red Hat AI Inference Server für AWS-AI-Chips wird voraussichtlich im Januar 2026 in der Entwicklervorschau verfügbar sein.

Zitate

Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat
«Durch die Kombination von unserem für Unternehmen konzipierten Red Hat AI Inference Server, der auf dem innovativen vLLM-Framework basiert, mit AWS-KI-Chips ermöglichen wir Nutzern die Bereitstellung und Skalierung von KI-Workloads mit verbesserter Effizienz und Flexibilität. Aufbauend auf der Open-Source-Tradition von Red Hat zielt diese Zusammenarbeit darauf ab, generative KI in Hybrid-Cloud-Umgebungen zugänglicher und kostengünstiger zu machen.»

Colin Brace, Vice President, Annapurna Labs, AWS
«Unternehmen benötigen Lösungen, die aussergewöhnliche Performance, Kosteneffizienz und operative Flexibilität für geschäftskritische KI-Workloads bieten. AWS hat seine Trainium- und Inferentia-Chips entwickelt, um leistungsstarke KI-Inferenz und -Trainings zugänglicher und kostengünstiger zu machen. Unsere Zusammenarbeit mit Red Hat bietet Kunden einen unterstützten Weg zur Bereitstellung generativer KI in grossem Massstab, indem sie die Flexibilität von Open Source mit der AWS-Infrastruktur und speziell entwickelten KI-Beschleunigern kombiniert, um die Time-to-Value vom Pilotprojekt bis zur Produktion zu verkürzen.»

Jean-François Gamache, Chief Information Officer und Vice President, Digital Services, CAE
«Die Modernisierung unserer kritischen Applikationen mit Red Hat OpenShift Service auf AWS ist ein wichtiger Meilenstein in unserer digitalen Transformation. Diese Plattform unterstützt unsere Entwickler dabei, sich auf hochwertige Initiativen zu konzentrieren – sie treibt Produktinnovationen voran und beschleunigt die KI-Integration in unseren Lösungen. Red Hat OpenShift bietet die Flexibilität und Skalierbarkeit, die es uns ermöglichen, echte Ergebnisse zu erzielen, von umsetzbaren Erkenntnissen über virtuelles Live-Coaching bis hin zu einer deutlichen Reduzierung der Bearbeitungszeiten für Probleme, die von Benutzern gemeldet werden.» 

Anurag Agrawal, Gründer und Chief Global Analyst, Techaisle
«Angesichts steigender Kosten für KI-Inferenz priorisieren Unternehmen neben der Performance auch die Effizienz. Diese Zusammenarbeit ist ein Beispiel für die Strategie, jedes Modell, jede Hardware von Red Hat, bei der die offene Hybrid-Cloud-Plattform mit den deutlichen wirtschaftlichen Vorteilen von AWS Trainium und Inferentia kombiniert wird. Damit können CIOs generative KI in grossem Massstab operationalisieren und von kostenintensiven Experimenten zu einer nachhaltigen, kontrollierten Produktion übergehen.»

(1) IDC FutureScape: Worldwide Cloud 2025 Predictions, 28. Oktober 2024, Doc #US52640724 

Zusätzliche Informationen

Weitere Informationen zu Red Hat

Zurück

Medienkontakt

Attila Albert
GRIP Agency AG
Tel.: +41 43 222 60 46
Email: redhat@grip-agency.ch 

Über Red Hat

Red Hat ist der weltweit führende Anbieter von Open-Source-Softwarelösungen und -Services für Unternehmen und nutzt einen Community-basierten Ansatz, um zuverlässige und leistungsstarke Linux-, Hybrid-Cloud-, Container- und Kubernetes-Technologien bereitzustellen. Red Hat unterstützt Kunden bei der Entwicklung Cloud-nativer Anwendungen, der Integration bestehender und neuer IT sowie der Automatisierung, Sicherung und Verwaltung komplexer Umgebungen.