En rationalisant les workflows d’IA et en fournissant de nouvelles et puissantes capacités d’inférence, la plateforme d’IA hybride cloud-native proposée par Red Hat pose les bases d’une IA agentique à l’échelle tout en permettant aux équipes IT et aux ingénieurs d’IA d’innover en conjuguant rapidité et efficacité.
Zürich, le 14 octobre 2025 – Red Hat, Inc, premier éditeur mondial de solutions Open Source, annonce le lancement de Red Hat AI 3, marquant une évolution significative de sa plateforme d’IA d’entreprise. Regroupant les dernières innovations de Red Hat AI Inference Server, Red Hat Enterprise Linux AI (RHEL AI) et Red Hat OpenShift AI, cette plateforme élimine la complexité qui caractérise l’inférence IA haute performance déployée à grande échelle pour permettre aux organisations de migrer leurs charges de travail plus facilement de la phase de preuve de concept (PoC) à la phase de production tout en améliorant la collaboration autour des applications assistées par l’IA.
À mesure qu’elles dépassent le cap de l’expérimentation de l’IA, les entreprises sont confrontées à des obstacles importants, parmi lesquels la confidentialité des données, le contrôle des coûts et la gestion de modèles diversifiés. L’étude The GenAI Divide: State of AI in Business réalisée dans le cadre du projet NANDA du Massachusetts Institute of Technology met en évidence la réalité de l’IA en production, soulignant qu’environ 95 % des entreprises ne parviennent pas à générer un retour financier mesurable sur les quelques 40 milliards de dollars dépensés.
Red Hat AI 3 se concentre sur la résolution directe de ces défis en offrant une expérience plus cohérente et unifiée aux DSI et aux responsables informatiques afin de maximiser leurs investissements dans les technologies informatiques accélérées par du matériel coûteux et difficile à trouver. Elle permet de monter en échelle et de répartir rapidement les charges de travail d’IA dans les environnements hybrides et multi-fournisseurs tout en améliorant la collaboration entre les équipes sur des charges d’IA de nouvelle génération, comme les agents — et ce, sur une seule et même plateforme commune. Reposant sur des standards ouverts, la solution Red Hat AI 3 accompagne les entreprises dans leur parcours vers l’IA en prenant en charge tous types de modèles sur tous types d’accélérateurs matériels, des centres de données aux environnements de cloud publics en passant par l’IA souveraine et la périphérie de réseau la plus éloignée.
À mesure que les entreprises déplacent leurs projets d’IA en production, leur focalisation passe des modèles de formation et de réglage à l’inférence, c’est-à-dire à la phase d’exécution de l’IA d’entreprise. Red Hat AI 3 met l’accent sur une inférence évolutive, au coût optimisé, en s’appuyant sur les projets des communautés vLLM et llm-d qui connaissent un grand succès, ainsi que sur les capacités d’optimisation des modèles de Red Hat, pour assurer le déploiement en production de grands modèles de langage (LLM).
Pour aider les DSI à tirer le meilleur parti de leur accélération matérielle à forte valeur ajoutée et à maximiser l'utilisation de l'accélération matérielle intensive en capital et limitée, Red Hat OpenShift AI 3.0 annonce la disponibilité générale de llm-d, qui réinvente la façon dont les LLM s'exécutent nativement sur Kubernetes. llm-doffre une inférence distribuée intelligente, en exploitant la valeur éprouvée de l’orchestration Kubernetes et les performances du grand modèle de langage virtuel vLLM, combinées à des technologies open source clés telles que Kubernetes Gateway API Inference Extension, la bibliothèque de transfert de données à faible latence NVIDIA Dynamo (NIXL) et la bibliothèque de communication DeepEP Mixture of Experts (MoE), permettant aux organisations de :
L’inférence distribuée llm-d s’appuie sur le grand modèle de langage virtuel vLLM, le faisant évoluer d’un moteur d’inférence à nœud unique de haute performance vers un système de service distribué, cohérent et évolutif, conçu pour combiner des performances prévisibles, un retour sur investissement quantifiable et une planification efficace de l’infrastructure. Ces améliorations permettent de relever directement les défis liés à la gestion de charges de travail LLM très variables et à la prise en charge de modèles massifs tels que les modèles Mixture-of-Experts (MoE).
La solution Red Hat AI 3 se caractérise par une expérience unifiée et flexible adaptée aux exigences collaboratives inhérentes à la création de solutions d’IA générative prêtes à entrer en production. Conçue pour démystifier l’IA, elle génère une valeur tangible en favorisant la collaboration et en unifiant les workflows entre les différentes équipes. De plus, elle constitue une plateforme unique qui permet aux ingénieurs de plateforme et aux ingénieurs d’IA d’exécuter leur stratégie d’IA. Les nouvelles fonctionnalités axées sur la productivité et l'efficacité nécessaires pour passer de la preuve de concept à la production incluent :
Alors que les agents d’IA devraient pouvoir transformer la manière dont les applications sont créées, leurs workflows autonomes d’une grande complexité vont lourdement solliciter les capacités de l’inférence. La version Red Hat OpenShift AI 3.0 pose les bases de systèmes d’IA agentique évolutifs, non seulement grâce à ses capacités d’inférence, mais également à ses nouvelles fonctionnalités et améliorations axées sur la gestion des agents.
Afin d’accélérer la création et le déploiement d’agents, Red Hat a introduit une couche d’API unifiée basée sur Llama Stack, qui permet d’aligner le développement sur des outils standards tels qu’OpenAI. De plus, dans le but de favoriser un écosystème plus ouvert et interopérable, Red Hat compte parmi les tout premiers utilisateurs du protocole MCP (Model Context Protocol), un puissant standard émergent qui rationalise la façon dont les modèles d’IA interagissent avec les outils externes, ce qui représente une fonctionnalité primordiale pour les agents d’IA de nouvelle génération.
Red Hat AI 3 introduit une nouvelle boîte à outils modulaire et extensible pour la personnalisation des modèles, basée sur les fonctionnalités existantes d'InstructLab. Elle fournit des bibliothèques Python spécialisées qui offrent aux développeurs une plus grande flexibilité et un meilleur contrôle. La boîte à outils s'appuie sur des projets open source tels que Docling pour le traitement des données, qui rationalise l'ingestion de documents non structurés dans un format lisible par l'IA. Elle comprend également un cadre flexible pour la génération de données synthétiques et un centre de formation pour le réglage fin des LLM. Le centre d'évaluation intégré aide les ingénieurs en IA à surveiller et à valider les résultats, leur permettant ainsi d'exploiter en toute confiance leurs données propriétaires pour obtenir des résultats d'IA plus précis et plus pertinents.
Joe Fernandes, vice president and general manager, AI Business Unit, Red Hat
« À mesure qu’elles migrent leur IA du stade de l’expérimentation à celui de la production, les entreprises doivent faire face à une nouvelle vague de défis de complexité, de coûts et de contrôle. Avec Red Hat AI 3, nous leur fournissons une plateforme open source qui minimise ces obstacles. En mettant à leur disposition de nouvelles fonctionnalités telles que l’inférence distribuée avec llm-d ou une base pour l’IA agentique, nous permettons aux équipes IT de déployer une IA de nouvelle génération en toute confiance, selon leurs propres conditions et sur n’importe quelle infrastructure. »
Rick Villars, group vice president, Worldwide Research, IDC
« L'année 2026 marquera un tournant décisif pour les entreprises, qui passeront de la phase initiale de leur transition vers l'IA à celle où elles exigeront des résultats commerciaux plus mesurables et reproductibles de leurs investissements. Alors que les projets initiaux se concentraient sur la formation et le test de modèles, la véritable valeur ajoutée – et le véritable défi – réside dans l'exploitation opérationnelle des informations issues des modèles grâce à une inférence efficace, sécurisée et rentable. Cette évolution nécessite des infrastructures, des données et des environnements de déploiement d'applications plus modernes, dotés de capacités d'inférence prêtes à l'emploi et adaptées à la production, capables de gérer l'échelle et la complexité du monde réel, d'autant plus que l'IA agentielle surcharge les charges d'inférence. Les entreprises qui réussiront à devenir des entreprises alimentées par l'IA seront celles qui mettront en place une plateforme unifiée pour orchestrer ces charges de travail toujours plus sophistiquées dans des environnements cloud hybrides, et non plus seulement dans des domaines cloisonnés. »
Mariano Greco, chief executive officer, ARSAT
« En tant que fournisseur d'infrastructures de connectivité pour l'Argentine, ARSAT traite d'énormes volumes d'interactions avec les clients et de données sensibles. Nous avions besoin d'une solution qui nous permette de passer de la simple automatisation à l'« intelligence augmentée », tout en garantissant une souveraineté absolue des données pour nos clients. En développant notre plateforme d'IA agentielle sur Red Hat OpenShift AI, nous sommes passés de l'identification du besoin à la mise en production en seulement 45 jours. Red Hat OpenShift AI nous a non seulement aidés à améliorer notre service et à réduire le temps que nos ingénieurs consacrent aux problèmes d'assistance, mais leur a également permis de se concentrer sur l'innovation et les nouveaux développements. »
Dan McNamara, senior vice president senior and general manager, Server and Enterprise AI, AMD
« Alors que Red Hat met en production l'inférence IA distribuée, AMD est fier de fournir la base haute performance qui la sous-tend. Ensemble, nous avons intégré l'efficacité des processeurs AMD EPYC™, l'évolutivité des GPU AMD Instinct™ et l'ouverture de la pile logicielle AMD ROCm™ pour aider les entreprises à dépasser le stade de l'expérimentation et à mettre en œuvre l'IA de nouvelle génération, transformant ainsi les performances et l'évolutivité en un impact commercial réel dans les environnements sur site, cloud et périphériques. »
Ujval Kapasi, vice president, Engineering AI Frameworks, NVIDIA
« Une inférence évolutive et hautement performante est essentielle à la prochaine vague d'IA générative et agentique. Grâce à la prise en charge intégrée de l'inférence accélérée avec les technologies open source NVIDIA Dynamo et NIXL, Red Hat AI 3 offre une plateforme unifiée qui permet aux équipes de passer rapidement de l'expérimentation à l'exécution de charges de travail et d'agents IA avancés à grande échelle. »