News Release

Les réseaux sociaux sont vulnérables à une manipulation relativement simple par l’IA, selon une nouvelle étude de l’Université Concordia

Les responsables politiques et les entreprises technologiques doivent en prendre en compte, estiment Mohamed Zareer et Rastko Selmic

Peer-Reviewed Publication

Concordia University

image: 

Mohamed Zareer (right) with Rastko Selmic: “We designed our research to be simple and to have as much impact as possible.”

view more 

Credit: Concordia University

Lorsqu’il s’agit de discussions en ligne, les opinions exprimées se divisent en deux camps apparemment irréconciliables, et ce, quel que soit le sujet traité.

Cette réalité s’explique en grande partie par la conception de ces plateformes, dont les algorithmes dirigent les internautes vers des personnes partageant les mêmes idées. Les communautés virtuelles ainsi créées se transforment très facilement en chambres d’écho, exacerbant la polarisation en ligne.

Les vulnérabilités des plateformes aux manipulations extérieures en font des cibles attrayantes pour les acteurs malveillants qui espèrent semer la discorde et perturber les sociétés.

Dans un récent article publié dans la revue IEEE Access, une équipe de recherche de l’Université Concordia décrit une nouvelle méthode facilitant ce type de manipulation. Cette méthode fait appel à l’apprentissage par renforcement pour repérer les comptes d’utilisateurs de médias sociaux piratés qui sont les plus susceptibles de maximiser la polarisation en ligne avec le moins d’indications possible.

« Nous nous sommes servis de la théorie des systèmes pour modéliser les dynamiques d’opinion fondées sur la psychologie ayant été élaborées au cours des 20 dernières années », indique Rastko Selmic, professeur au Département de génie électrique et informatique à l’École de génie et d’informatique Gina-Cody et coauteur de l’article.

« Le caractère novateur de cette étude réside dans le fait que nous appliquons ces modèles à de grands groupes de personnes et que nous recourons à l’intelligence artificielle pour décider où placer les bots – ces agents antagonistes automatisés – et pour mettre au point la méthode d’optimisation. »

« L’objectif de cette recherche est d’améliorer les mécanismes de détection et de mettre en évidence les vulnérabilités des réseaux sociaux », explique le doctorant Mohamed Zareer, auteur principal de l’article.

Une infime quantité de données peut causer beaucoup de tort

L’équipe de recherche s’est servie de données provenant d’environ quatre millions de comptes du réseau social Twitter (aujourd’hui X) répertoriés comme diffusant des opinions sur le thème des vaccins et de la vaccination.

L’équipe a créé des agents antagonistes et les a employés dans une technique appelée « Double Deep Q-Learning » (« apprentissage doublement profond »). Cette méthode d’apprentissage par renforcement permet aux bots d’effectuer des tâches complexes basées sur des récompenses dans des environnements complexes tels que des réseaux sociaux, et ce, avec une supervision relativement limitée de la part des programmeurs humains.

« Nous avons conçu notre recherche de sorte qu’elle soit la plus simple possible et qu’elle ait la plus grande incidence possible », affirment Mohamed Zareer (à droite) et Rastko Selmic.

Dans leur modèle, les agents antagonistes ne disposent que de deux éléments d’information : les opinions actuelles du titulaire du compte et le nombre d’abonnés. Les chercheurs ont appliqué leur algorithme à trois modèles probabilistes avant de les soumettre à des réseaux sociaux artificiels de 20 agents de manière à obtenir des résultats représentatifs et généralisables.

Les expériences de ce type permettent de simuler des menaces réelles comme les bots ou les campagnes de désinformation coordonnées. Elles confirment leur efficacité à intensifier la polarisation et à susciter la controverse sur les réseaux sociaux.

Les chercheurs espèrent que leurs travaux inciteront les responsables politiques et les propriétaires de plateformes à mettre au point de nouvelles mesures de protection contre les manipulations malveillantes perpétrées par des agents nuisibles, et à promouvoir une utilisation transparente et éthique de l’IA.

Lisez l’article cité (en anglais) : « Maximizing Opinion Polarization Using DoublE Deep Q-Learning on Social Networks ».


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.