3LM : Benchmark pour LLMs arabes en STEM et Code

3LM : Benchmark pour LLMs arabes en STEM et Code

🗓 20 Mar 2026 · ⏱ 8 min de lecture · 🤖 Généré par IA

Découvre comment 3LM évalue les LLMs arabes sur des domaines techniques clés avec des données inédites.

Avec la montée en puissance des modèles de langue en arabe, un nouveau point de référence technique voit le jour : 3LM. Conçu pour évaluer la performance de ces modèles dans les domaines critique du STEM (Sciences, Technologie, Ingénierie et Mathématiques) et du code, 3LM comble un vide évident ignoré jusque-là par les évaluations générales.

Des datasets uniques pour évaluation ciblée

3LM se compose de trois ensembles de données distincts visant à tester spécifiquement la compétence des LLMs arabes. Chaque dataset adresse un axe d’évaluation particulier : des questions STEM à choix multiple réelles et synthétiques, et des tâches de génération de code traduites.

💡 À retenir

3LM s’établit comme le premier benchmark arabe axé sur des tâches techniques en STEM et code, offrant un outil indispensable aux chercheurs et développeurs en IA.

Examen des modèles sur du contenu éducatif natif

Le benchmark STEM natif s’appuie sur 865 questions puisées des ressources pédagogiques arabes authentiques de la 8e à la 12e année. L’idée est d’analyser comment les modèles gèrent des informations techniques vérifiables et conceptuelles.

MCQs synthétiques pour des défis accrus

Pour accroître le défi, un sous-ensemble de 1 744 MCQs synthétiques est produit à l’aide du pipeline YourBench.

« L’objectif est de sonder la capacité des modèles à développer une compréhension conceptuelle et analytique au-delà des questions traditionnelles. »

Contexte de mise en œuvre de 3LM

Benchmark pour la génération de code en arabe

3LM inclut également des tâches de génération de code, transposant les benchmarks HumanEval+ et MBPP+ en arabe.

Ce désir d’isolér la compréhension linguistique sans altérer la logique de code démontre l’importance d’une évaluation diligente des compétences techniques des LLMs dans plusieurs langues, dont l’arabe.

Résultats clés et implications pour l’avenir

Des résultats surprenants émergent : les modèles comme Qwen2.5-72B-Instruct et GPT-4o affichent des performances remarquables, éveillant l’intérêt pour un support linguisitique spécifique dans le monde du développement IA.

Avec des performances robustes et une méthodologie efficace, 3LM place les LLMs arabes sur le devant de la scène. Il rappelle que tout modèle, pour briller, doit être jugé sur ses aptitudes spécifiques et pertinence dans des contextes variés.

🔗 Source originaleLire l’article source
Partager : LinkedIn