Poster lauréat sélectionné pour représenter Sciences Po Paris pour la CIVICA Research Conference 2023.
Les systèmes de recommandation sur les plateformes sociales attirent l'attention en partie en raison de leur impact potentiel sur les phénomènes politiques, tels que la polarisation ou la fragmentation des communautés en ligne. Ces sujets de recherche sont également importants en raison de la nécessité de comprendre les effets systémiques dans la perspective de la réglementation à venir de l'IA axée sur les risques dans l'UE et aux États-Unis. Une approche courante consiste à exploiter les résultats des recommandations pour auditer les systèmes de recommandation. Une autre approche est celle de l'explicabilité, qui cherche à rendre les mécanismes de recommandation intelligibles pour les humains, ce qui pourrait permettre à la fois l'audit et la conception d'outils exploitables. Cette deuxième approche est particulièrement difficile dans le contexte des opinions politiques en ligne en raison de l'inobservabilité intrinsèque des opinions.
Dans cet article, nous exploitons l'estimation multidimensionnelle des opinions politiques de larges populations en ligne (selon une dimension gauche-droite, mais aussi selon d'autres dimensions politiques) pour étudier les espaces latents dans l'apprentissage de la représentation calculé par les systèmes de recommandation. Nous formons un système de recommandation basé sur les principes omniprésents du filtrage collaboratif à partir des données sur le partage de contenu sur Twitter par une large population, en évaluant la précision et en extrayant une représentation de l'espace latent exploitée par le système de recommandation. D'autre part, nous exploitons l'inférence multidimensionnelle des opinions politiques pour positionner les utilisateurs dans des espaces politiques représentant leurs opinions. Nous montrons ensuite pour la première fois la relation entre les représentations latentes exploitées par un système de recommandation et la représentation spatiale des utilisateurs. Nous montrons que certaines dimensions apprises par le système de recommandation capturent les positions idéologiques des utilisateurs, faisant le pont entre la politique et l'algorithmique dans notre système social et algorithmique, ouvrant ainsi la voie à l'explicabilité politique de l'IA.
Afin de tester notre méthode, nous exploitons d'autres caractéristiques sociodémographiques importantes telles que la profession et la langue des utilisateurs et nous montrons que les dimensions identifiées comme politiques par notre méthode étaient en fait liées uniquement à des informations politiques et non à d'autres caractéristiques sociodémographiques. Nous comparons ensuite l'analyse factorielle des données d'entrée avec celle de l'espace de représentation de l'algorithme, et nous montrons que, si les professions et les langues sont les principaux déterminants dans les données d'entrée, les opinions politiques sont devenues un déterminant significatif dans les représentations exploitées par le système de recommandation. Nous soutenons que cela prouve non seulement la fiabilité de notre méthode pour expliquer les mécanismes de recommandation en matière de politique, mais ouvre également la possibilité d'évaluer la responsabilité potentielle des algorithmes dans la polarisation et la fragmentation politiques.