Consilium optimise les décisions par débat structuré entre plusieurs LLMs, comme un conseil de médecins IA.
Imagine réunir plusieurs experts en intelligence artificielle autour d’une table de poker, débattant en temps réel de tes décisions les plus complexes. C’est exactement ce que fait Consilium, une plateforme multi-LLM développée lors du hackathon Gradio Agents & MCP. En permettant aux modèles d’IA de discuter des questions complexes et de parvenir à un consensus par le biais d’un débat structuré, Consilium redéfinit la collaboration entre intelligence artificielle.
Consilium : de l’idée au concept solide
Initialement, le projet de créer un serveur MCP pour mes projets RevenueCat ne semblait pas ambitieux. Cependant, l’opportunité de bâtir une plateforme où les modèles d’IA discutent et fournissent des réponses raisonnées s’est avérée bien plus captivante. Cette transformation a coïncidé avec la publication par Microsoft de leur Orchestrateur Diagnostique AI (MAI-DxO), démontrant que plusieurs IA collaboratives dépassent en performance des médecins traditionnels avec un taux de succès de 85,5% contre 20% pour ces derniers lors de diagnostics médicaux.
« Multiple AI perspectives can dramatically outperform individual analysis. »
Consilium example with MAI-DxO
Le développement visuel de la plateforme
Le composant Gradio personnalisé s’est imposé comme le cœur du projet : une table ronde style poker où les participants affichent des bulles de réponse. L’adoption de ce style a permis de soumettre le projet à deux pistes de hackathon, tout en créant une expérience visuellement attrayante et engageante. Grâce à l’excellente expérience développeur de Gradio, le développement s’est effectué sans embûches majeures, avec un seul incident de documentation relatif à la publication PyPI qui a conduit à ma première contribution au projet Gradio.
Comment Consilium simule un débat réel entre IA
Pour simuler un véritable échange, des rôles distincts ont été attribués aux différents modèles, encourageant une dynamique de débat productive. Ces rôles incluent notamment l’analyste stratégique, l’expert plaidant ou le spécialiste de la recherche, chacun apportant une perspective unique à la réflexion collective. Cette approche a résolu le problème initial d’absence de discussion authentique, tout en mettant en avant la nécessité de structures de communication contrôlées et de rounds configurables pour maximiser le consensus.
Consilium affine les décisions par débat structuré entre IA, améliorant l’efficacité par consensus. Un atout pour les développeurs face à des décisions complexes.
Intégration et sélection des modèles LLM
Actuellement, Consilium intègre Mistral Large, DeepSeek-R1, Meta-Llama-3.3-70B, et QwQ-32B, reflétant en partie les crédits disponibles lors du hackathon plutôt que les limitations techniques. Cette sélection offre un aperçu des capacités variées, tout en démontrant la flexibilité de Consilium à intégrer des modèles selon les besoins contextuels et techniques.
Avec Consilium, la collaboration entre IA passe à la vitesse supérieure, invitant les développeurs et responsables techniques à réévaluer leurs approches traditionnelles des systèmes de décision basés sur l’IA. Son succès prouve, une nouvelle fois, que la coopération entre modèles peut surclasser les approches solitaires. En résumé, Consilium ne réinvente pas la roue, mais il la rend exponentiellement plus performante.