Accueil Découvertes IA Sécurité Modèles ML : Hugging Face et Protect AI scannent 4M

Sécurité Modèles ML : Hugging Face et Protect AI scannent 4M

· · 2 min
Sécurité Modèles ML : Hugging Face et Protect AI scannent 4M

Depuis octobre 2024, Protect AI et Hugging Face collaborent pour sécuriser les modèles de machine learning grâce à la technologie de scanning de Guardian. Cette alliance a permis de scanner 4,47 millions de versions de modèles uniques en seulement six mois, révélant des vulnérabilités critiques.

Détection de menaces améliorée : 4 nouveaux modules

Protect AI a lancé quatre nouveaux modules de détection, protégeant mieux la communauté des développeurs. Les modules couvrent l’écriture suspecte de fichiers, l’exécution de code malveillant dans Joblib, et les backdoors dans TensorFlow. Cela permet à Guardian de détecter des techniques d’obscurcissement sophistiquées, incluant la vulnérabilité CVE-2025-1550 dans Keras.

💡 À retenir

Hugging Face et Protect AI ont scanné plus de 4 millions de modèles, introduit des modules de détection avancée, et identifié 352,000 problèmes de sécurité.

L’approche Zero Trust de Guardian

Guardian applique une approche Zero Trust, traitant toute exécution de code arbitraire comme potentiellement dangereuse. Cette stratégie met en évidence la nécessité d’une vigilance accrue contre des charges utiles malveillantes camouflées dans des scripts apparemment inoffensifs.

La stratégie Zero Trust renforce la sécurité en anticipant les risques potentiels plutôt qu’en réagissant seulement aux attaques malveillantes.

Extrait du rapport de Protect AI sur les vulnérabilités des modèles ML

Signaux d’alerte : chaînes d’attaque et obfuscation

Les attaques exploitant les dépendances des bibliothèques et l’obfuscation des charges utiles soulignent l’importance de la détection proactive. Les techniques telles que la compression et la sérialisation rendent les charges difficiles à détecter. Guardian identifie ces configurations risquées, aidant à atténuer les menaces avant qu’elles ne causent des dommages.

La communauté Huntr : une force des temps modernes

Huntr, la plus grande plateforme de bug bounty dédiée à l’IA/ML, joue un rôle essentiel dans cette sécurisation. Avec plus de 200 rapports pris en compte depuis le début de leur partenariat, Protect AI intègre ces signalements dans son scanner Guardian, enrichissant ainsi ses capacités de détection.

🔗 Source originaleLire l’article source

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *