NVIDIA AI-Q, premier agent de recherche portable, surpasse les alternatives fermées grâce à Llama Nemotron.
En août 2025, le modèle AI-Q de NVIDIA a pris la première place du classement des « LLM avec Recherche » sur le DeepResearch Bench de Hugging Face. Cette avancée prouve que les modèles open-source peuvent rivaliser, voire surpasser, les alternatives fermées en termes d’efficacité et de complexité des tâches de recherche.
AI-Q : Fusion de Llama 3.3 et Nemotron
L’AI-Q de NVIDIA combine habilement deux modèles d’IA de haute performance : le Llama 3.3-70B Instruct et le Llama-3.3-Nemotron-Super-49B-v1.5. Ces modèles permettent une orchestration avancée de la récupération de contexte, du raisonnement agentique et de la synthèse robuste. L’approche basée sur la combinaison de ces modèles ouverts permet à l’AI-Q de se démarquer par sa fluidité et sa capacité à générer des rapports structurés, dépassant les limitations typiques des modèles fermés.
Optimisations et Efficacité des Modèles
Le Llama-3.3-Nemotron-Super-49B-v1.5 se distingue par ses optimisations axées sur le raisonnement multi-étapes, la planification de requêtes et l’utilisation d’outils, le tout avec un encombrement mémoire réduit pour simplifier le déploiement sur des GPU standards. Cette optimisation est le fruit d’une recherche poussée intégrant des méthodes d’architecture neuronale, de la distillation des connaissances et plusieurs tours de formation supervisée et par renforcement.
AI-Q de NVIDIA prouve que les solutions d’IA open-source peuvent exceller face aux produits fermés en offrant transparence, flexibilité et performances avancées.
Évaluation Transparente et Robuste
AI-Q se distingue par sa transparence dans les traces de raisonnement et les étapes intermédiaires. L’équipe de NVIDIA a utilisé des métriques standards et nouvelles, comme la détection de l’hallucination, la synthèse multi-sources et l’évaluation automatisée de la véracité des citations. Ces mesures garantissent une évaluation et un débogage précis, répondant ainsi aux obstacles fréquents lors du développement de pipelines agentiques.
« AI-Q surpasse toutes les attentes pour un agent de recherche libre et ouvre des perspectives inégalées dans le domaine de l’agentic reasoning. »
DeepResearch Bench, August 2025
Benchmark et Résultats du DeepResearch Bench
Sur le DeepResearch Bench, AI-Q a reçu un score impressionnant de 40.52, le plaçant en tête de la catégorie LLM avec Recherche. Les métriques où AI-Q excelle incluent la profondeur des rapports, la qualité des analyses et la véracité des citations. Ces résultats démontrent l’excellence du stack entièrement open-licensed pour les tâches de recherche complexes.
Le succès du modèle AI-Q de NVIDIA sur le DeepResearch Bench montre que l’avenir de la recherche agentique réside probablement dans des solutions ouvertes, où la transparence et la flexibilité ne compromettent plus l’innovation ou la performance.