Danny Weber
20:27 16-02-2026
© RusPhotoBank
Découvrez comment les essaims d'IA créent un consensus synthétique pour influencer l'opinion publique, menaçant les processus démocratiques avec des réseaux coordonnés d'agents artificiels.
Une équipe internationale de scientifiques tire la sonnette d'alarme face à une nouvelle menace : les « essaims d'IA » capables de créer l'illusion d'une opinion publique massive. Dans une publication de la revue Science, les chercheurs expliquent que la combinaison de grands modèles de langage avec des systèmes multi-agents permet de constituer des réseaux coordonnés de personnalités artificielles. Ces personnages se comportent comme de vrais utilisateurs et peuvent influencer subtilement les environnements numériques.
Contrairement aux robots primitifs du passé, les agents d'IA modernes peuvent maintenir des « personnalités » cohérentes, mémoriser des interactions antérieures et adapter leur style de communication en fonction des réactions du public. Ces profils numériques agissent de manière synchronisée, en promouvant le même agenda tout en imitant des points de vue indépendants. Cela crée un effet de « consensus synthétique », où une activité générée artificiellement est perçue comme un large soutien public pour une position donnée.
Pour les chercheurs, ces mécanismes représentent une menace sérieuse pour les processus démocratiques et le dialogue public. Un seul acteur malveillant utilisant l'IA peut se faire passer pour des milliers de voix, influençant les tendances, exerçant des pressions sur les personnalités publiques et diffusant de la désinformation. De plus, la production de masse de contenus artificiels peut fausser les données d'entraînement d'autres systèmes d'IA, amplifiant ainsi les effets de manipulation.
Les experts soulignent que la modération traditionnelle des publications individuelles est inefficace face à de tels réseaux. Ils préconisent plutôt de détecter les coordinations statistiquement anormales, de retracer l'origine des contenus et d'appliquer des méthodes de sciences comportementales pour analyser les actions collectives des agents d'IA. Parmi les mesures proposées figurent la mise en place de mécanismes de vérification préservant la vie privée, la création d'un système distribué de surveillance de l'influence de l'IA et la réduction des incitations financières aux activités en ligne non authentiques.