image: The upper figure shows the evolution of the ideological gap between conservatives and liberals, calculated based on the difference between the average ideology of the content consumed by each of these groups. The lower figure shows the evolution of the proportion of interactions with posts from low-quality domains in relation to the total number of interactions.
Credit: Authors of the article.
Un estudio liderado por la Universidad Pompeu Fabra (UPF) ha constatado el aumento de la polarización ideológica y de la difusión de noticias sesgadas o falsas en Facebook. Esta investigación puntera ha analizado más de 6 millones de enlaces de noticias -de 1.231 dominios diferentes de Estados Unidos- compartidos a través de Facebook entre 2017 y 2020.
De estos cuatro años, se han examinado noticias de hechos tan relevantes como la pandemia de la covid, las elecciones presidenciales de EE.UU. de 2020 (que desembocaron en el asalto al Congreso tras la derrota de Trump) o las elecciones de medio mandato (2018) en las que se vota a todos los congresistas y a un tercio de los senadores.
La investigación muestra como la tendencia al alza de la polarización ideológica y de la diseminación de las informaciones falsas o sesgadas coincide en el tiempo con cambios de la plataforma, que supusieron modificaciones en la forma de ordenar la información que se muestra a los usuarios, dando más valor a determinados tipos de interacciones en el algoritmo que determina este ranking. Asimismo, estos cambios también coincidieron con variaciones del comportamiento de los usuarios al comprometerse más o menos con los contenidos en la red (patrones de engagement).
Los resultados del estudio se han difundido recientemente en un artículo publicado en la revista EPJ Data Science. Emma Fraxanet, investigadora en ciencias sociales computacionales en el Departamento de Ingeniería de la UPF, es la autora principal de este artículo en el marco de una investigación supervisada por Vicenç Gómez, del grupo de investigación Artificial Intelligence and Machine Learning. También son coautores del artículo Andreas Kaltenbrunner (UOC); y Fabrizio Germano (UPF y BSE).
Se ha analizado el nivel de engagement de los posts en relación a la ideología de los usuarios y la calidad de las fuentes de información
El equipo de investigación ha examinado el nivel de engagement de posts que incluyen más de 6 millones de enlaces noticias, que se ha calculado a partir de una combinación de métricas (clics, comparticiones, “me gustas”, comentarios u otras reacciones) y se ha puesto en relación con la ideología de los usuarios y la calidad de las fuentes de información. De esta forma, se ha podido observar la brecha ideológica entre las informaciones consultadas por conservadores y progresistas, así como su evolución temporal.
También se han examinado detalladamente dos cambios relevantes en la plataforma, implementados en los años 2018 y 2020, que se conocen gracias a una filtración de información que generó controversia pública sobre el algoritmo de Facebook. En ambos casos, los cambios fueron seguidos de variaciones en los patrones de engagement y de un aumento de la polarización ideológica y de la diseminación de noticias de baja calidad, con matices distintos en cada caso. Sin embargo, los investigadores señalan que, en ninguno de los dos casos, ni en 2018 ni 2020, se puede establecer una relación causal directa entre estos hechos, una cuestión que debería examinarse con mayor profundidad con estudios posteriores.
Para ayudar a entender los patrones de engagement, los investigadores lo describen con una forma de “U”: es más alto entre los usuarios de los extremos ideológicos que entre los moderados. Como los contenidos con mayor engagement tienden a ganar visibilidad después de los cambios de 2018 y 2020, esto podría explicar la tendencia al alza de los contenidos de perfil ideológico más extremista de forma diferenciada según el perfil del usuario. Además, el contenido más sesgado también tiende a provenir de fuentes de menor calidad.
¿Qué cambios se aplicaron en Facebook en 2018 y 2020?
Concretamente en 2018, la plataforma decidió restar valor a los “me gustas” y dio más valor a las comparticiones y a los comentarios en el algoritmo del ranking, para fomentar interacciones más significativas entre familia y amigos. El estudio muestra que, tras este cambio, la ideología de los usuarios se polarizó y el engagement asociado a contenidos de menor calidad aumentó.
En 2020, Facebook restó valor a las comparticiones y dio más valor a los comentarios en el algoritmo del ranking. La motivación de la plataforma no está tan clara en este caso, pero estos cambios parecen responder a la necesidad de limitar contenido tóxico o de baja calidad. En este segundo caso, aunque la polarización ideológica volvió a aumentar junto con el engagement asociado a contenidos de menor calidad, la actividad en la plataforma disminuyó significativamente.
Más allá de la posible incidencia de los algoritmos, el estudio advierte que la polarización también se explica por el propio comportamiento de los usuarios, que tienden a consumir contenidos afines a su ideología. Los resultados del estudio sugieren que después de los cambios en la plataforma, las diferencias entre las dietas informativas de progresistas y conservadores se han acentuado, dificultando los puntos de encuentro para el debate democrático.
Artículo de referencia:
Fraxanet, E., Kaltenbrunner, A., Germano, F. et al. Analyzing news engagement on Facebook: tracking ideological segregation and news quality in the Facebook URL dataset. EPJ Data Sci. 14, 73 (2025).<https://doi.org/10.1140/epjds/s13688-025-00585-3>
Journal
EPJ Data Science
Method of Research
Data/statistical analysis
Subject of Research
Not applicable
Article Title
Analyzing news engagement on Facebook: tracking ideological segregation and news quality in the Facebook URL dataset
Article Publication Date
30-Sep-2025