Red Hat AI auf AWS-KI-Chips Trainium und Inferentia bietet Unternehmen mehr Auswahl, Flexibilität und Effizienz für KI-Workloads in der Produktion.
Zürich, 3. Dezember 2025 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, gibt eine erweiterte Zusammenarbeit mit Amazon Web Services (AWS) bekannt, in deren Rahmen generative KI (GenAI) für Unternehmen auf AWS mit Red Hat AI und AWS AI Silicon bereitgestellt wird. IT-Entscheidungsträgern soll so die Flexibilität gegeben werden, hochperformante, effiziente KI-Inferenz in grossem Massstab auszuführen, unabhängig von der zugrunde liegenden Hardware.
Das Aufkommen der generativen KI und der damit verbundene Bedarf an skalierbarer Inferenz zwingen Unternehmen dazu, ihre IT-Infrastruktur neu zu bewerten. IDC prognostiziert dabei, dass «bis 2027 40 % der Unternehmen massgeschneiderte Siliziumchips, darunter ARM-Prozessoren oder KI/ML-spezifische Chips, einsetzen werden, um den steigenden Anforderungen an Performanceoptimierung, Kosteneffizienz und spezialisierte Rechenleistung gerecht zu werden» (1). Dies unterstreicht den Bedarf an optimierten Lösungen, die die Rechenleistung verbessern, die Kosten minimieren und schnellere Innovationszyklen für leistungsstarke KI-Anwendungen ermöglichen.
Die Zusammenarbeit von Red Hat mit AWS ermöglicht Unternehmen eine Full-Stack-Gen-AI-Strategie, indem die umfassenden Plattformfunktionen von Red Hat mit der AWS-Cloud-Infrastruktur und den AI-Chipsätzen AWS Inferentia2 und AWS Trainium3 kombiniert werden. Zu den wichtigsten Aspekten der Zusammenarbeit gehören:
Red Hat blickt auf eine lange Historie der Zusammenarbeit mit AWS zurück, um Kunden vom Rechenzentrum bis zur Edge zu unterstützen. Dieser jüngste Meilenstein zielt nun darauf ab, den sich wandelnden Anforderungen von Unternehmen gerecht zu werden, die KI in ihre Hybrid-Cloud-Strategien integrieren, um optimierte, effiziente Ergebnisse im Bereich der generativen KI zu erzielen.
Informationen zur Zusammenarbeit von Red Hat und AWS erhalten Interessierte auch auf der Konferenz AWS re:Invent 2025 am Stand 839.
Verfügbarkeit
Der AWS Neuron Community Operator ist jetzt im Red Hat OpenShift OperatorHub für Kunden verfügbar, die Red Hat OpenShift oder Red Hat OpenShift Service auf AWS verwenden. Die Unterstützung von Red Hat AI Inference Server für AWS-AI-Chips wird voraussichtlich im Januar 2026 in der Entwicklervorschau verfügbar sein.
Zitate
Joe Fernandes, Vice President und General Manager, AI Business Unit, Red Hat
«Durch die Kombination von unserem für Unternehmen konzipierten Red Hat AI Inference Server, der auf dem innovativen vLLM-Framework basiert, mit AWS-KI-Chips ermöglichen wir Nutzern die Bereitstellung und Skalierung von KI-Workloads mit verbesserter Effizienz und Flexibilität. Aufbauend auf der Open-Source-Tradition von Red Hat zielt diese Zusammenarbeit darauf ab, generative KI in Hybrid-Cloud-Umgebungen zugänglicher und kostengünstiger zu machen.»
Colin Brace, Vice President, Annapurna Labs, AWS
«Unternehmen benötigen Lösungen, die aussergewöhnliche Performance, Kosteneffizienz und operative Flexibilität für geschäftskritische KI-Workloads bieten. AWS hat seine Trainium- und Inferentia-Chips entwickelt, um leistungsstarke KI-Inferenz und -Trainings zugänglicher und kostengünstiger zu machen. Unsere Zusammenarbeit mit Red Hat bietet Kunden einen unterstützten Weg zur Bereitstellung generativer KI in grossem Massstab, indem sie die Flexibilität von Open Source mit der AWS-Infrastruktur und speziell entwickelten KI-Beschleunigern kombiniert, um die Time-to-Value vom Pilotprojekt bis zur Produktion zu verkürzen.»
Jean-François Gamache, Chief Information Officer und Vice President, Digital Services, CAE
«Die Modernisierung unserer kritischen Applikationen mit Red Hat OpenShift Service auf AWS ist ein wichtiger Meilenstein in unserer digitalen Transformation. Diese Plattform unterstützt unsere Entwickler dabei, sich auf hochwertige Initiativen zu konzentrieren – sie treibt Produktinnovationen voran und beschleunigt die KI-Integration in unseren Lösungen. Red Hat OpenShift bietet die Flexibilität und Skalierbarkeit, die es uns ermöglichen, echte Ergebnisse zu erzielen, von umsetzbaren Erkenntnissen über virtuelles Live-Coaching bis hin zu einer deutlichen Reduzierung der Bearbeitungszeiten für Probleme, die von Benutzern gemeldet werden.»
Anurag Agrawal, Gründer und Chief Global Analyst, Techaisle
«Angesichts steigender Kosten für KI-Inferenz priorisieren Unternehmen neben der Performance auch die Effizienz. Diese Zusammenarbeit ist ein Beispiel für die Strategie, jedes Modell, jede Hardware von Red Hat, bei der die offene Hybrid-Cloud-Plattform mit den deutlichen wirtschaftlichen Vorteilen von AWS Trainium und Inferentia kombiniert wird. Damit können CIOs generative KI in grossem Massstab operationalisieren und von kostenintensiven Experimenten zu einer nachhaltigen, kontrollierten Produktion übergehen.»
(1) IDC FutureScape: Worldwide Cloud 2025 Predictions, 28. Oktober 2024, Doc #US52640724
Zusätzliche Informationen
Weitere Informationen zu Red Hat