12. Juni 2025, 9.00 Uhr

Red Hat und Meta arbeiten bei Open-Source-KI für Unternehmen zusammen

  • Die beiden Branchenführer arbeiten gemeinsam an Community- und Produktiv-Deployments von generativer KI
  • Red Hat AI Platform wird Llama Stack für die Entwicklung von GenAI-Anwendungen und -Agents integrieren
  • vLLM bleibt wichtige Inference-Plattform für Metas Modelle der nächsten Generation, etwa Llama 4
  • Red Hat liefert Day-0-Support für Llama 4 auf vLLM und Red Hat AI

Zürich/Boston, 12. Juni 2025 – Red Hat, der weltweit führende Anbieter von Open-Source-Lösungen, und Meta haben eine neue Zusammenarbeit bekannt gegeben, um die Weiterentwicklung von generativer KI (GenAI) für Unternehmen voranzutreiben. Die Zusammenarbeit begann mit Red Hats Day-0-Unterstützung der innovativen Modellfamilie Llama 4 auf Red Hat AI und dem hochperformanten Inference-Server vLLM. Darauf aufbauend werden Red Hat und Meta nun die Community-Projekte Llama Stack und vLLM stärker aufeinander ausrichten, um einheitliche Frameworks für die Demokratisierung und Vereinfachung von offenen GenAI-Workloads zu schaffen.

Laut Gartner1 «werden bis 2026 mehr als 80 Prozent der unabhängigen Softwareanbieter (ISVs) GenAI-Funktionalitäten in ihre Enterprise-Anwendungen eingebettet haben, nachdem es bislang nur ein Prozent waren». Dies unterstreicht den großen Bedarf an einer offenen, interoperablen Basis, für die Red Hat und Meta Grundlagenarbeit leisten. Die Zusammenarbeit der beiden Unternehmen adressiert direkt die kritische Anforderung, GenAI-Workloads nahtlos über verschiedene Plattformen, Clouds und KI-Beschleuniger hinweg ausführen zu können – insbesondere auf der entscheidenden API-Ebene und in der Ausführungsphase von AI: dem Inferencing.

Das tiefgehende Engagement von Red Hat und Meta für offene Innovationen zeigt sich in der Rolle der beiden Unternehmen als wichtigste kommerzielle Unterstützer folgender elementarer Projekte:

  • Llama Stack, das von Meta entwickelt und als Open Source bereitgestellt wird. Es liefert standardisierte Building-Blocks und APIs, die den gesamten Lebenszyklus von GenAI-Anwendungen auf ein völlig neues Level heben.
  • vLLM, zu dem Red Hat wichtige Beiträge leistet, um die Entwicklung einer Open-Source-Plattform voranzutreiben, die ein effizientes und optimiertes Inferencing für Large Language Models (LLMs) ermöglicht, inklusive Day-0-Support für Llama 4.

Schaffung gemeinsamer Grundlagen und Wahlmöglichkeiten bei GenAI-Anwendungen

Im Rahmen der Zusammenarbeit zwischen Red Hat und Meta trägt Red Hat aktiv zu Llama Stack bei, um dessen Fähigkeiten zu erweitern und es zu einer überzeugenden Alternative für Entwickler zu machen, die innovative Agentic-AI-Anwendungen auf Red Hat AI erstellen. Damit setzt Red Hat sein Bestreben fort, mit Red Hat AI eine breite Palette an Frameworks für Agentic AI zu unterstützen, darunter auch Llama Stack, damit Unternehmen bei Tools und Innovationen Wahlmöglichkeiten haben. Das Ziel der Zusammenarbeit besteht darin, eine robuste und anpassungsfähige Umgebung für die Entwicklung und Bereitstellung von KI-Lösungen der nächsten Generation zu liefern – und dabei die Fortschritte bei Agentic-AI-Technologien zu berücksichtigen.

Wegbereiter für die Zukunft des KI-Inferencing mit vLLM

Das vLLM-Projekt hat die Grenzen für effiziente und kosteneffektive offene GenAI-Anwendungen bereits verschoben. Durch die Unterstützung und die tiefgehenden Community-Beiträge von Meta gewinnt es weiter an Momentum. vLLM bietet nun Day-0-Support für die neuesten Generationen der Modelle der Llama-Familie, beginnend mit Llama 4. vLLM ist zudem Teil des PyTorch-Ökosystems, in dem Meta und andere zusammenarbeiten, um ein offenes und integratives Angebot an Tools zu schaffen. Damit ist vLLM optimal positioniert, um das volle Potenzial von GenAI in Unternehmen auszuschöpfen.

Red Hat Summit

Auf dem Red Hat Summit lieferten Führungskräfte, Kunden und Partner von Red Hat umfangreiche Einblicke in aktuelle Trends und Entwicklungen. Zu den Highlights zählten die beiden Keynotes:

Zitate

Mike Ferris, Senior Vice President und Chief Strategy Officer, Red Hat:

«Red Hat und Meta sind sich bewusst, dass der zukünftige Erfolg von KI nicht allein von Verbesserungen der KI-Modelle abhängt, sondern auch von deren Inferencing-Fähigkeiten. Sie ermöglichen es Anwendern, das Maximum aus den Modellen der nächsten Generation herauszuholen. Unser gemeinsames Engagement für Llama Stack und vLLM soll dazu beitragen, die Vision von schnelleren, konsistenteren und kosteneffektiveren GenAI-Anwendungen zu verwirklichen – die genau dort in der Hybrid Cloud ausgeführt werden, wo es notwendig ist, unabhängig vom Beschleuniger und der Umgebung. So sieht die Zukunft offener KI aus – und Red Hat und Meta sind bereit für sie.»

Ash Jhaveri, Vice President, AI and Reality Labs Partnerships, Meta:

«Wir freuen uns sehr über die Zusammenarbeit mit Red Hat, mit der wir Llama Stack als Industriestandard für die reibungslose Entwicklung und Bereitstellung von GenAI-Anwendungen etablieren werden. Die Zusammenarbeit unterstreicht unser Engagement für offene Innovationen und die Entwicklung robuster, skalierbarer KI-Lösungen, mit denen Unternehmen das volle Potenzial von KI ausschöpfen können. Gemeinsam mit Red Hat ebnen wir den Weg in eine Zukunft, in der die Llama-Modelle und -Tools zum Rückgrat von Enterprise-KI werden und Effizienz und Innovationen branchenübergreifend vorantreiben.»

Zusätzliche Informationen

1 Gartner, “2025 TSP Planning Trends: Managing the GenAI Inference ‘Tax’”, 2. September 2024,

ID G00818892, John Lovelock und Mark McDonald

Weitere Informationen zu Red Hat

Zurück

Medienkontakt

Attila Albert
GRIP Agency AG
Tel.: +41 43 222 60 46
Email: redhat@grip-agency.ch 

Über Red Hat

Red Hat ist der weltweit führende Anbieter von Open-Source-Softwarelösungen und -Services für Unternehmen und nutzt einen Community-basierten Ansatz, um zuverlässige und leistungsstarke Linux-, Hybrid-Cloud-, Container- und Kubernetes-Technologien bereitzustellen. Red Hat unterstützt Kunden bei der Entwicklung Cloud-nativer Anwendungen, der Integration bestehender und neuer IT sowie der Automatisierung, Sicherung und Verwaltung komplexer Umgebungen.