Mirantis dévoile Mirantis AI Factory
juin 2025 par LA REDACTION DE GS MAG
Mirantis dévoile Mirantis AI Factory, conçue sur Mirantis k0rdent AI, fournit une plateforme sécurisée, composable, évolutive et souveraine pour construire, exploiter et optimiser une infrastructure IA et de Machine Learning (ML) à grande échelle.
Elle permet :
• le déploiement des charges de travail IA en quelques jours seulement après l’installation du matériel, grâce au modèle déclaratif et aux templates de k0rdent AI ;
• une phase de prototypage, d’itération et de mise en production des modèles et services plus rapide, réduisant considérablement les cycles de développement IA ;
• des intégrations sélectionnées (via le catalogue k0rdent) pour les outils IA/ML, l’observabilité, le CI/CD, la sécurité, et bien plus encore, basées sur des standards ouverts.
Grâce à cette architecture, Mirantis répond aux défis complexes liés au calcul haute performance : réseau RDMA, allocation et partitionnement des GPU, exigences avancées de planification, réglage des performances, montée en charge de Kubernetes. L’architecture peut aussi intégrer des plateformes IA tierces comme Gcore Everywhere Inference ou l’écosystème logiciel NVIDIA AI Enterprise.
Contrairement aux charges cloud natives conçues pour le scale-out, les charges IA nécessitent parfois de transformer des dizaines de serveurs GPU en un superordinateur virtuel à mémoire agrégée, reposant sur une connectivité ultra-performante et RDMA.
L’architecture prend en charge plusieurs types de workloads IA (entraînement, fine-tuning, inférence) et s’adapte à différents environnements : serveurs mutualisés ou dédiés, environnements virtualisés (KubeVirt/OpenStack), cloud public ou hybride/multi-cloud, ou encore sites edge. Elle couvre également les besoins spécifiques en matière de provisioning, configuration, maintenance, stockage haute performance et interconnexions ultra-rapides (Ethernet, Infiniband, NVLink, NVSwitch, CXL).
Parmi les défis traités :
• Fine-tuning et configuration souvent plus complexes que pour les infrastructures classiques ;
• Multi-tenance stricte pour garantir la sécurité, l’isolation des données, la gestion des ressources et des conflits ;
• Souveraineté des données IA et ML, souvent sensibles ou contenant de la propriété intellectuelle, impliquant un contrôle strict sur leur usage et leur localisation ;
• Conformité réglementaire et exigences régionales ;
• Gestion de la montée en charge et de la dispersion géographique des infrastructures IA et ML, notamment en edge ;
• Mutualisation des GPU et ressources de calcul coûteuses, nécessitant une gestion fine et un déploiement flexible ;
• Pénurie de compétences en infrastructure chez les développeurs IA ou data scientists, non spécialistes de l’IT.
Modulaire, Mirantis AI Factory permet d’assembler l’infrastructure à partir de templates réutilisables couvrant les couches de calcul, stockage, GPU et réseau, selon les besoins spécifiques de chaque charge de travail IA. Elle est compatible avec les accélérateurs IA NVIDIA, AMD et Intel.