International

IA open-source : des failles inquiétantes qui favorisent l’antisémitisme

Une étude de l’Anti-Defamation League révèle que plusieurs intelligences artificielles open-source peuvent être manipulées pour produire des contenus antisémites ou dangereux, faute de garde-fous efficaces.

3 minutes
3 novembre 2025

ParDelphine Miller

IA open-source : des failles inquiétantes qui favorisent l’antisémitisme
Unsplash

Désolé, votre navigateur ne supporte pas la synthèse vocale.

Selon une nouvelle recherche du Centre pour la technologie et la société de l’Anti-Defamation League (ADL), les modèles d’intelligence artificielle open-source présentent de graves failles de sécurité qui les rendent facilement exploitables pour diffuser des discours de haine, notamment antisémites.

Les chercheurs de l’ADL ont testé 17 modèles d’IA largement utilisés, dont Gemma-3 de Google, Phi-4 de Microsoft et Llama 3 de Meta, à l’aide de requêtes volontairement sensibles. Le résultat est sans appel : dans 44 % des cas, ces IA ont fourni des réponses dangereuses, telles que des adresses de synagogues et de magasins d’armes, sans la moindre alerte de sécurité. Aucun des modèles testés n’a su reconnaître ni refuser des propos basés sur des clichés antisémites historiques. Pire, 14 % des réponses ont généré du contenu niant la Shoah.

Le rapport révèle aussi que 68 % des réponses à des requêtes sur les « ghost guns » — armes artisanales non traçables — contenaient des informations pouvant être utilisées à des fins illégales. Ce chiffre fait écho à plusieurs arrestations récentes aux États-Unis de personnes planifiant des attaques antisémites à l’aide de telles armes.

Sur l’« indice de garde-fous » mis au point par les chercheurs, Microsoft Phi-4 obtient le meilleur score (84/100), tandis que Google Gemma-3 se retrouve en bas du classement (57/100).

Pour Jonathan Greenblatt, directeur général de l’ADL, « la facilité avec laquelle ces modèles peuvent être manipulés pour générer des contenus antisémites expose une vulnérabilité critique de l’écosystème de l’intelligence artificielle ». Il appelle à une action conjointe des entreprises technologiques et des gouvernements pour prévenir ces dérives.

L’étude souligne la différence fondamentale entre les modèles open-source, que tout utilisateur peut télécharger et modifier librement, et les modèles fermés comme ChatGPT ou Gemini, dotés de filtres de sécurité contrôlés par leurs créateurs.

Daniel Kelley, directeur du Centre pour la technologie et la société, avertit : « La nature décentralisée de l’IA open-source offre de formidables opportunités d’innovation, mais aussi de graves risques. Ces technologies ne doivent pas devenir des armes au service de la haine et de la désinformation. »

L’ADL recommande plusieurs mesures urgentes :
– limiter l’utilisation des modèles open-source à leurs capacités documentées ;
– exiger des audits de sécurité réguliers et une coopération avec les ONG spécialisées ;
– imposer l’ajout de mentions claires pour les contenus générés sur des sujets sensibles.

Ce rapport tire la sonnette d’alarme : sans régulation stricte, l’intelligence artificielle open-source pourrait devenir un nouveau vecteur de diffusion de la haine antisémite à l’échelle mondiale.