Les attaques par brouillage sont de plus en plus fréquentes et constituent une menace importante pour la sécurité et la fiabilité des réseaux de capteurs sans fil (WSN). Ces attaques peuvent être difficiles à détecter, car elles opèrent souvent de manière furtive, en perturbant la communication entre les capteurs. Les techniques d’intelligence artificielle (IA) peuvent s’avérer très efficaces pour détecter les attaques de brouillage. Toutefois, l’adoption de techniques basées sur l’IA pour détecter les attaques de brouillage a été limitée en raison de la rareté des données actualisées et précises sur ces attaques. La collaboration entre les agents dans le respect de la vie privée devrait être essentielle à la construction de modèles robustes basés sur l’IA pour détecter les attaques de brouillage dans les WSN. Dans ce contexte, nous proposons un nouveau cadre qui utilise l’apprentissage collaboratif fédéré (AF) pour permettre un apprentissage distribué respectueux de la vie privée entre plusieurs agents sans partager leurs données sensibles. Cela peut être particulièrement important pour la détection des attaques de brouillage, où les données peuvent contenir des informations sensibles qui ne devraient pas être partagées. En outre, nous concevons un nouveau schéma d’agrégation sécurisé pour protéger le service d’agrégation FL contre les attaques de rétro-ingénierie. L’efficacité du cadre proposé a été testée à l’aide de l’ensemble de données publiques sur les réseaux de capteurs sans fil (WSN-DS), qui comprend quatre types d’attaques de brouillage bien connues (brouillage constant, brouillage réactif, brouillage aléatoire et brouillage trompeur). Les résultats d’une expérience approfondie utilisant l’ensemble de données WSN-DS démontrent l’efficacité et la grande précision/F1-score (99%) dans la détection des attaques de brouillage tout en préservant la vie privée des participants.