Explore les stratégies open source post-DeepSeek en Chine : MoE, multimodalité, small models; un an de changements techniques décisifs.
En 2025, la Chine a pris des décisions marquantes dans son écosystème d’IA open source, se distanciant des modèles traditionnels occidentaux. Des entreprises locales comme Kimi et Tencent ont accéléré l’adoption de l’architecture Mixture of Experts (MoE) pour répondre aux contraintes économiques et techniques locales, transformant ainsi la manière de concevoir et déployer les modèles d’IA.
Adoption de MoE comme pilier architectural
En adoptant l’architecture Mixture of Experts (MoE), les entreprises chinoises ont prouvé qu’il était possible d’allier performance, coût contrôlé et adoption large. Les modèles tels que Kimi K2, MiniMax M2 et Qwen3 ont montré la voie en partageant les ressources de calcul selon la complexité des tâches, sans nécessiter une infrastructure homogène.
En Chine, l’architecture MoE s’impose pour concilier coût et flexibilité opérationnelle. Un choix motivé par les contraintes locales et l’efficacité prouvée.
Expansion rapide des modèles multimodaux
Dès février 2025, les efforts open source se sont étendus de la simple génération de texte vers des modèles multimodaux et basés sur des agents. Des avancées massives ont été réalisées dans des secteurs comme la génération vidéo et l’audio, avec des acteurs comme StepFun et Tencent prenant les devants. Step-Audio-R1.1 de StepFun s’est distingué par sa performance supérieure aux modèles propriétaires dans la transcription et la génération vocale.
« La transition vers des capacités systèmes réutilisables montre une volonté de dépasser les percées isolées. »
Auteur de l’article
Préférence pour les petits modèles
La tendance s’est orientée vers des modèles de petite taille (0.5B à 30B paramètres) qui sont plus viables pour les opérations locales et les ajustements spécifiques à une entreprise. Ce choix pragmatique répond aux besoins de calcul restreint dans certains environnements ainsi qu’aux exigences de conformité. Les grands modèles restent en usage comme point de référence pour distiller leurs capacités dans ces plus petits modèles, créant ainsi une hiérarchie efficace.
Licences open source plus permissives
Avec l’adoption accrue de l’Apache 2.0, les licences open source plus permissives ont réduit les obstacles à l’exploitation, la modification, et le déploiement des modèles, facilitant une intégration plus aisée et rapide dans les systèmes de production. Cette simplification légale a été cruciale au mouvement open source en Chine.
Passage au matériel domestique
Les développeurs chinois se tournent vers le matériel local non seulement pour l’inférence mais aussi pour la formation de modèles. Huawei, Ant Group et Baidu, entre autres, ont investi massivement dans l’optimisation de leurs architectures pour fonctionner en symbiose avec des puces AI domestiques, poussant ainsi une autonomie matérielle stratégique.
En conclusion, la Chine solidifie sa position non seulement comme contributeur au développement de l’intelligence artificielle open source, mais aussi comme leader dans le recours à des technologies locales pour relever les défis économiques et de performance à long terme. Les choix architecturaux faits après le moment DeepSeek incarnent une flexible robustesse exemplaire.