banner
Hogar / Blog / Como
Blog

Como

Apr 19, 2024Apr 19, 2024

Nature volumen 620, páginas 137–144 (2023)Cite este artículo

32k Accesos

2 citas

1599 altmétrico

Detalles de métricas

Muchos críticos expresan su preocupación por la prevalencia de las "cámaras de eco" en las redes sociales y su papel potencial en el aumento de la polarización política. Sin embargo, la falta de datos disponibles y los desafíos que implica realizar experimentos de campo a gran escala han dificultado evaluar el alcance del problema1,2. Aquí presentamos datos de 2020 para toda la población de usuarios adultos activos de Facebook en EE. UU. que muestran que el contenido de fuentes con ideas afines constituye la mayor parte de lo que la gente ve en la plataforma, aunque la información y las noticias políticas representan solo una pequeña fracción de estas exposiciones. Para evaluar una posible respuesta a las preocupaciones sobre los efectos de las cámaras de eco, realizamos un experimento de campo de múltiples ondas en Facebook entre 23.377 usuarios para quienes redujimos la exposición al contenido de fuentes afines durante las elecciones presidenciales de EE. UU. de 2020 en aproximadamente un tercio. . Descubrimos que la intervención aumentó su exposición al contenido de fuentes transversales y disminuyó la exposición al lenguaje descortés, pero no tuvo efectos mensurables en ocho medidas de actitud preregistradas, como la polarización afectiva, la extremidad ideológica, las evaluaciones de los candidatos y la creencia en afirmaciones falsas. Estos resultados estimados con precisión sugieren que, aunque la exposición a contenidos de fuentes afines en las redes sociales es común, la reducción de su prevalencia durante las elecciones presidenciales estadounidenses de 2020 no redujo en consecuencia la polarización en creencias o actitudes.

El aumento de la polarización partidista y la hostilidad a menudo se atribuyen a las cámaras de eco en las redes sociales3,4,5,6,7, una preocupación que ha aumentado desde las elecciones presidenciales estadounidenses de 20168,9,10. Se cree que plataformas como Facebook alimentan el extremismo al mostrar repetidamente a las personas contenido agradable de fuentes con ideas afines y limitar la exposición a contraargumentos que podrían promover la moderación y la tolerancia11,12,13. De manera similar, la comunicación que refuerza la identidad en las redes sociales podría fortalecer las actitudes negativas hacia los exogrupos y reforzar los vínculos con los endogrupos14.

Para evaluar la frecuencia con la que las personas están expuestas a contenido agradable en las redes sociales, utilizamos datos de todos los usuarios adultos activos de Facebook en los EE. UU. para analizar qué parte de lo que ven en la plataforma proviene de fuentes que categorizamos como que comparten sus inclinaciones políticas (que nos referimos como contenido de fuentes afines; ver Métodos, 'Diseño experimental'). Con un subconjunto de participantes que consienten, luego evaluamos una posible respuesta a las preocupaciones sobre los efectos de las cámaras de eco mediante la realización de un experimento de campo a gran escala que reduce la exposición al contenido de fuentes afines en Facebook. Esta investigación aborda tres lagunas principales en nuestra comprensión de la prevalencia y los efectos de la exposición a contenido agradable en las redes sociales.

En primer lugar, no disponemos de medidas sistemáticas de exposición de contenidos en plataformas como Facebook, que son en gran medida inaccesibles para los investigadores2. Los datos de tráfico web sugieren que relativamente pocos estadounidenses tienen dietas informativas muy sesgadas15,16,17,18, pero se sabe menos sobre lo que ven en las redes sociales. Estudios observacionales previos sobre la exposición a la información en plataformas se centran en Twitter, que es utilizado sólo por el 23% del público19,20,21,22, o en la dieta informativa de la pequeña minoría de usuarios adultos activos en los EE. UU. que se autoidentifican como conservadores. o liberal en Facebook en 2014-201523. Sin acceso a medidas conductuales de exposición, los estudios deben basarse en autoinformes de encuestas que son propensos a errores de medición24,25.

En segundo lugar, aunque las encuestas encuentran asociaciones entre mantener actitudes polarizadas y el consumo informado de noticias con ideas afines26,27, pocos estudios proporcionan evidencia causal de que el consumo de contenido con ideas afines conduzca a una polarización duradera. Estas correlaciones observadas pueden ser falsas dado que las personas con opiniones políticas extremas tienen más probabilidades de consumir contenido con ideas afines28,29. Además, aunque la información de ideas afines puede polarizarse30,31,32, la mayoría de las pruebas experimentales de teorías sobre posibles efectos de cámara de eco son breves y utilizan contenido simulado, lo que dificulta saber si estos hallazgos se generalizan a entornos del mundo real. Trabajos experimentales anteriores también plantean dudas sobre si tales efectos polarizadores son comunes18,33, con qué rapidez podrían decaer18,33 y si se concentran entre personas que evitan las noticias y el contenido político28.

Finalmente, reducir la exposición a contenidos con ideas afines puede no conducir a un aumento correspondiente en la exposición a contenidos de fuentes con diferentes inclinaciones políticas (a las que nos referimos como transversales) y también podría tener consecuencias no deseadas. Los feeds de las redes sociales suelen limitarse al contenido de cuentas que los usuarios ya siguen, algunas de las cuales son transversales y muchas no políticas22. Como resultado, reducir la exposición a fuentes afines puede aumentar la prevalencia de contenido de fuentes que son políticamente neutrales en lugar de desagradables. Además, si el contenido de fuentes afines es sistemáticamente diferente (como en su tono o tema), reducir la exposición a dicho contenido también puede tener otros efectos en la composición de las redes sociales. Reducir la exposición a contenidos afines también podría inducir a las personas a buscar dicha información en otros lugares en línea (es decir, no en Facebook34).

En este estudio, medimos la prevalencia de exposición a contenido de fuentes políticamente afines entre usuarios adultos activos de Facebook en los EE. UU. Luego informamos los resultados de un experimento que estima los efectos de reducir la exposición al contenido de amigos, páginas y grupos con ideas políticas afines entre usuarios de Facebook que consienten (n = 23,377) durante tres meses (del 24 de septiembre al 23 de diciembre de 2020). Al combinar datos de comportamiento en la plataforma de Facebook con medidas de encuestas de actitudes recopiladas antes y después de las elecciones presidenciales de EE. UU. de 2020, podemos determinar cómo la reducción de la exposición al contenido de fuentes afines cambia la información que las personas ven y con la que interactúan en la plataforma, como así como probar los efectos a lo largo del tiempo de la reducción de la exposición a estas fuentes en las creencias y actitudes de los usuarios.

Este proyecto es parte del estudio electoral de Facebook e Instagram de EE. UU. de 2020. Aunque tanto los metainvestigadores como los académicos formaban parte del equipo de investigación, los autores académicos principales tenían la última palabra sobre el plan de análisis, colaboraban con los metainvestigadores en el código que implementaba el plan de análisis y tenían derechos de control sobre las decisiones de análisis de datos y el texto del manuscrito. Según los términos de la colaboración, Meta no podía bloquear la publicación de ningún resultado. Los académicos no recibieron compensación económica y el plan de análisis se registró previamente antes de la disponibilidad de los datos (https://osf.io/3sjy2); Se proporcionan más detalles en Información complementaria, sección 4.8.

Informamos varios resultados clave. En primer lugar, la mayoría del contenido que ven los usuarios adultos activos de Facebook en Estados Unidos proviene de amigos, páginas y grupos con ideas afines, aunque sólo pequeñas fracciones de este contenido se clasifican como noticias o tratan explícitamente de política. En segundo lugar, encontramos que una intervención experimental que reduce la exposición a contenido de fuentes afines en aproximadamente un tercio reduce el compromiso total con ese contenido y disminuye la exposición a contenido clasificado como descortés y contenido de fuentes que publican repetidamente información errónea. Sin embargo, la intervención solo aumenta modestamente la exposición al contenido de fuentes transversales. En cambio, observamos un mayor aumento en la exposición a contenidos provenientes de fuentes que no tienen ideas afines ni son transversales. Además, aunque la interacción total con el contenido de fuentes afines disminuyó, la tasa de interacción aumentó (es decir, la probabilidad de interactuar con el contenido de fuentes afines que los participantes sí vieron fue mayor).

Además, a pesar de reducir la exposición a contenidos de fuentes afines en aproximadamente un tercio durante un período de semanas, no encontramos efectos mensurables en 8 medidas de actitud preregistradas, como la extremidad y coherencia ideológicas, las actitudes y evaluaciones afines al partido y las evaluaciones afectivas. polarización. Podemos descartar con seguridad efectos de ±0,12 sd o más en cada uno de estos resultados. Estos efectos estimados con precisión no varían significativamente según la ideología política de los encuestados (dirección o extremidad), la sofisticación política, la alfabetización digital o la exposición previa al tratamiento a contenido político o de fuentes afines.

Nuestro análisis de la exposición y el comportamiento de la plataforma considera la población de usuarios adultos de Facebook en EE. UU. (mayores de 18 años). Nos centramos principalmente en aquellos que utilizan la plataforma al menos una vez al mes, a quienes llamamos usuarios activos mensuales. Los niveles de uso agregados se miden para el subconjunto de adultos estadounidenses que accedieron a Facebook al menos una vez en los 30 días anteriores al 17 de agosto de 2020 (consulte Información complementaria, sección 4.9.4 para obtener más detalles). Durante el tercer y cuarto trimestre de 2020, que abarca este intervalo así como el período de estudio del experimento que se informa a continuación, 231 millones de usuarios accedieron a Facebook cada mes en los EE. UU.

Utilizamos un clasificador interno de Facebook para estimar la inclinación política de los usuarios adultos de Facebook en EE. UU. (consulte Información complementaria, sección 2.1 para la validación y sección 1.3 para obtener detalles del clasificador; Datos ampliados, la figura 1 muestra la distribución de la puntuación de ideología prevista por ideología autoinformada). identificación partidaria y aprobación del expresidente Donald Trump). El clasificador produce predicciones a nivel de usuario que van desde 0 (izquierda) a 1 (derecha). Los usuarios con valores previstos superiores a 0,5 se clasificaron como conservadores y, en caso contrario, como liberales, lo que nos permitió analizar la población completa de usuarios adultos activos de Facebook en EE. UU. La puntuación de una Página es la puntuación media de los usuarios que siguen la Página y/o comparten su contenido; La puntuación de un grupo es la puntuación media de los miembros del grupo y/o usuarios que comparten su contenido. Clasificamos a los amigos, páginas o grupos como liberales si su valor previsto era 0,4 o inferior y conservadores si era 0,6 o superior. Este enfoque nos permite identificar fuentes que son claramente afines o transversales con respecto a los usuarios (los amigos, las páginas y los grupos con valores entre 0,4 y 0,6 no fueron tratados como afines ni transversales).

Comenzamos evaluando el grado en que los usuarios de Facebook de EE. UU. están expuestos al contenido de usuarios, páginas y grupos con ideas políticas afines en su feed durante el período del 26 de junio al 23 de septiembre de 2020 (consulte Información complementaria, sección 4.2, para obtener detalles de las mediciones). Presentamos estimaciones de estas cantidades entre los adultos estadounidenses que iniciaron sesión en Facebook al menos una vez en los 30 días anteriores al 17 de agosto de 2020.

Descubrimos que el usuario medio de Facebook recibió la mayor parte de su contenido de fuentes con ideas afines: 50,4 % frente a 14,7 % de fuentes transversales (el resto proviene de amigos, páginas y grupos que clasificamos como ni de ideas afines ni de ideas afines). corte). La exposición a ideas afines fue similar para el contenido clasificado como "cívico" (es decir, político) o noticias (consulte Información complementaria, sección 4.3 para obtener detalles sobre los clasificadores utilizados en este estudio). El usuario medio recibió el 55% de su exposición a contenido cívico y el 47% de su exposición a contenido de noticias de fuentes afines (consulte la Tabla de datos ampliados 1 para obtener números exactos y la Figura complementaria 3 para una comparación con nuestros participantes experimentales). Sin embargo, el contenido cívico y de noticias constituye una proporción relativamente pequeña de lo que la gente ve en Facebook (medianas de 6,9% y 6,7%, respectivamente; Tabla complementaria 11).

Sin embargo, los patrones de exposición pueden variar sustancialmente entre los usuarios. La Figura 1 proporciona la distribución de la exposición a fuentes con ideas afines, transversales o ninguna de las dos para todo el contenido, contenido cívico y contenido de noticias para los usuarios de Facebook.

a, La distribución de la exposición de los usuarios adultos activos mensuales de Facebook en EE. UU. a contenido de fuentes afines, fuentes transversales y aquellos que no entran en ninguna de las categorías en su feed de Facebook. Se presentan estimaciones para todos los contenidos, contenidos clasificados como cívicos (es decir, políticos) y noticias. b, Funciones de distribución acumulada de niveles de exposición por tipo de fuente. Las clasificaciones de fuentes y contenidos se crearon utilizando clasificadores internos de Facebook (Información complementaria, sección 1.3).

Datos fuente

A pesar de la prevalencia de fuentes afines en lo que la gente ve en Facebook, los patrones extremos de exposición en cámara de eco son poco frecuentes. Sólo el 20,6% de los usuarios de Facebook obtienen más del 75% de su exposición de fuentes con ideas afines. Otro 30,6% obtiene entre el 50% y el 75% de su exposición en Facebook de fuentes con ideas afines. Finalmente, el 25,6% obtiene entre el 25% y el 50% de sus exposiciones de fuentes afines y el 23,1% obtiene entre el 0% y el 25% de sus exposiciones de fuentes afines. Estas proporciones son similares para los subconjuntos de contenido cívico y de noticias (Tabla de datos ampliados 1). Por ejemplo, fuentes con ideas afines son responsables de más del 75% de las exposiciones a este tipo de contenidos para el 29% y el 20,6% de los usuarios, respectivamente.

Sin embargo, la exposición a contenidos de fuentes transversales también es relativamente rara entre los usuarios de Facebook. Sólo el 32,2% tiene una cuarta parte o más de sus exposiciones en Facebook Feed provenientes de fuentes transversales (31,7% y 26,9%, respectivamente, para contenido cívico y de noticias).

Estos patrones de exposición son similares para los usuarios más activos de Facebook, un grupo del que se podría esperar que consuma contenido de fuentes agradables con más frecuencia que otros grupos. Entre los adultos estadounidenses que utilizaron Facebook al menos una vez al día durante los 30 días anteriores al 17 de agosto de 2020, el 53% del contenido visto provino de fuentes afines frente al 14% de fuentes transversales, pero solo el 21,1% recibió más del 75% de sus exposiciones de fuentes afines (consulte Datos ampliados, figura 2 y Tabla de datos ampliados 2).

Estos resultados no concuerdan con los peores temores sobre las cámaras de eco. Incluso entre aquellos que son más activos en la plataforma, sólo una minoría de usuarios de Facebook está expuesta a niveles muy altos de contenido de fuentes afines. Sin embargo, los datos indican claramente que es mucho más probable que los usuarios de Facebook vean contenido de fuentes afines que de fuentes transversales.

Para examinar los efectos de reducir la exposición a información de fuentes afines, llevamos a cabo un experimento de campo entre usuarios adultos estadounidenses de Facebook que consiguieron su consentimiento. Este estudio combina datos sobre el comportamiento de los participantes en Facebook con sus respuestas a una encuesta de múltiples ondas, un diseño que permite estimar los efectos del tratamiento sobre la información que vieron los participantes, su comportamiento en la plataforma y sus actitudes políticas (Métodos) .

Se invitó a los participantes de los grupos de tratamiento y control a completar cinco encuestas antes y después de las elecciones presidenciales de 2020 para evaluar sus actitudes y comportamientos políticos. Se realizaron dos encuestas antes del tratamiento: la ola 1 (del 31 de agosto al 12 de septiembre) y la ola 2 (del 8 de septiembre al 23 de septiembre). El tratamiento se desarrolló del 24 de septiembre al 23 de diciembre. Durante el período de tratamiento, se administraron 3 encuestas más: ola 3 (del 9 de octubre al 23 de octubre), ola 4 (del 4 de noviembre al 18 de noviembre) y ola 5 (del 9 de diciembre al 23 de diciembre). Todas las covariables se midieron en las ondas 1 y 2 y todos los resultados de la encuesta se midieron después de la elección mientras el tratamiento aún estaba en curso (es decir, en las ondas 4 y/o 5). A lo largo del experimento, también recopilamos datos sobre la exposición al contenido y la participación de los participantes en Facebook.

En total, la muestra para este estudio consta de 23,377 usuarios adultos de Facebook con sede en EE. UU. que fueron reclutados a través de invitaciones a encuestas colocadas en la parte superior de sus feeds de Facebook en agosto y septiembre de 2020, brindaron su consentimiento informado para participar y completaron al menos una encuesta postelectoral. ola de encuestas (consulte Información complementaria, secciones 4.5 y 4.9).

Para los participantes asignados al tratamiento, bajamos la clasificación de todo el contenido (incluido, entre otros, contenido cívico y de noticias) de amigos, grupos y páginas que se predijo que compartirían la inclinación política del participante (por ejemplo, todo el contenido de amigos y grupos conservadores y Las páginas con audiencias conservadoras fueron rebajadas para los participantes clasificados como conservadores; consulte Información complementaria, sección 1.1).

Observamos tres características importantes del diseño de la intervención. En primer lugar, el único objetivo de la intervención era reducir la exposición a contenidos de fuentes afines. No fue diseñado para alterar directamente ningún otro aspecto de las transmisiones de los participantes. El contenido de fuentes afines se redujo utilizando la mayor fuerza de degradación posible que una prueba previa demostró que reduciría la exposición sin dejar el Feed casi vacío para algunos usuarios, lo que habría interferido con la usabilidad y, por lo tanto, confundido nuestros resultados; consulte Información complementaria, sección 1.1. En segundo lugar, nuestro tratamiento limitó la exposición a todo el contenido de fuentes afines, no solo a noticias e información política. Debido a que las plataformas de redes sociales desdibujan las identidades sociales y políticas, incluso el contenido que no trata explícitamente de política puede comunicar señales relevantes14,35. Además, debido a que la política y las noticias representan una pequeña fracción de la dieta de información en línea de las personas18,36,37, restringir la intervención al contenido político y/o noticioso produciría cambios mínimos en los feeds de algunas personas. En tercer lugar, dadas las asociaciones entre actitudes polarizadas y exposición a contenido políticamente agradable que se han encontrado en investigaciones anteriores, diseñamos deliberadamente una intervención que reduce, en lugar de aumentar, la exposición a contenido de fuentes afines para minimizar las preocupaciones éticas.

Los efectos observados del tratamiento sobre la exposición a contenido de fuentes afines entre los participantes se muestran en la Fig. 2. Como se esperaba, el tratamiento redujo sustancialmente la exposición al contenido de fuentes afines en relación con el período previo al tratamiento. Durante el período de tratamiento del 24 de septiembre al 23 de diciembre de 2020, la exposición promedio al contenido de fuentes afines disminuyó al 36,2 % en el grupo de tratamiento, mientras que permaneció estable en el 53,7 % en el grupo de control (P <0,01). Los niveles de exposición fueron relativamente estables durante el período de tratamiento en ambos grupos, excepto por un breve aumento en la exposición del grupo de tratamiento a contenido de fuentes afines el 2 y 3 de noviembre, debido a un problema técnico en los servidores de producción que implementaron el tratamiento ( consulte Información complementaria, sección 4.11 para obtener más detalles).

Proporción media diaria de opiniones de los encuestados sobre el contenido de fuentes con ideas afines por grupo experimental entre el 1 de julio y el 23 de diciembre de 2020. Las fuentes se clasifican como con ideas afines sobre la base de estimaciones de un clasificador interno de Facebook a nivel individual para usuarios y amigos y a nivel de audiencia para páginas y grupos. W1-W5 indican las ondas de encuesta 1 a 5; el sombreado indica la duración de la onda. Datos ampliados La figura 3 proporciona un gráfico comparable de vistas de contenido de fuentes transversales. Nota: los niveles de exposición aumentaron brevemente los días 2 y 3 de noviembre debido a un problema técnico; Los detalles se proporcionan en Información complementaria, sección 4.11.

Datos fuente

Nuestros hallazgos principales se visualizan en la Fig. 3, que muestra los efectos del tratamiento sobre la exposición a diferentes tipos de contenido durante el período de tratamiento (Fig. 3a), el número total de acciones relacionadas con ese contenido (Fig. 3b), el tasa de interacción con el contenido condicionada a la exposición a él (Fig. 3c) y medidas de la encuesta de actitudes postelectorales (Fig. 3d; la Tabla de datos ampliada 3 informa las estimaciones puntuales correspondientes de la Fig. 3; Información complementaria, sección 1.4 proporciona mediciones detalles).

Efectos promedio del tratamiento al reducir la exposición a fuentes con ideas afines en el feed de Facebook del 24 de septiembre al 23 de diciembre de 2020. a – c, Muestra de efectos de tratamiento promedio (SATE) sobre la exposición y el compromiso del feed. b, Participación total (para contenido, el número total de acciones de participación). c, Tasa de participación (la probabilidad de participación condicionada a la exposición). d, Resultados de encuestas sobre actitudes, con efectos de tratamiento promedio en la población (PATE) estimados utilizando ponderaciones de encuesta. La información complementaria 1.4 proporciona descripciones completas de todas las variables de resultado. Los resultados que no están en negrita y que aparecen debajo de un encabezado en negrita son parte de esa categoría. Por ejemplo, en d, 'posiciones temáticas', 'evaluaciones de grupo' y 'elección de voto y evaluaciones de candidatos' aparecen debajo de 'opiniones ideológicamente consistentes', lo que indica que todas se miden de manera que los valores más altos indican una mayor consistencia ideológica. Las medidas de resultados de la encuesta son escalas estandarizadas promediadas entre las encuestas realizadas entre el 4 de noviembre y el 18 de noviembre de 2020 y/o el 9 de diciembre y el 23 de diciembre de 2020. Las estimaciones puntuales se proporcionan en la Tabla 3 de datos ampliados. Las estimaciones promedio de muestra del efecto del tratamiento sobre las actitudes se proporcionan en la Figura de datos ampliados. 4. Todos los efectos se estiman utilizando mínimos cuadrados ordinarios (MCO) con errores estándar robustos y siguen el plan de análisis preregistrado. Los puntos marcados con asteriscos indican hallazgos que son significativos (P <0,05 después del ajuste); los puntos marcados con círculos abiertos indican P > 0,05 (todas las pruebas son bilaterales). Los valores de P están ajustados a la tasa de descubrimiento falso (FDR) (Información complementaria, sección 1.5.4).

Datos fuente

Como se ve en la Fig. 3a, la reducción en la exposición al contenido de fuentes afines del 53,7% al 36,2% representa una diferencia de 0,77 sd (intervalo de confianza del 95%: −0,80, −0,75). Las visualizaciones totales por día también disminuyeron en 0,05 sd entre los participantes tratados (intervalo de confianza del 95%: −0,08, −0,02). En términos sustanciales, el participante promedio del grupo de control tuvo 267 visualizaciones totales de contenido en un día normal, de las cuales 143 procedían de fuentes de ideas afines. En comparación, 92 de un total de 255 visualizaciones de contenido para un participante promedio en la condición de tratamiento provinieron de fuentes con ideas afines en un día normal (Tablas complementarias 33 y 40).

Sin embargo, esta reducción en la exposición a información de fuentes afines no condujo a un aumento simétrico en la exposición a información de fuentes transversales, que aumentó del 20,7% en el grupo de control al 27,9% en el grupo de tratamiento, un cambio de 0,43 sd (intervalo de confianza del 95%: 0,40, 0,46). Más bien, los encuestados en el grupo de tratamiento vieron un mayor aumento relativo en la exposición al contenido de fuentes clasificadas como no afines ni transversales. La exposición al contenido de estas fuentes aumentó del 25,6% al 35,9%, un cambio de 0,68 sd (intervalo de confianza del 95%: 0,65, 0,71).

La Figura 3a también indica que la reducción de la exposición al contenido de fuentes con ideas afines redujo la exposición al contenido clasificado como que contiene uno o más insultos en 0,04 sd (intervalo de confianza del 95 %: −0,06, −0,02), el contenido clasificado como incivil en 0,15 sd ( Intervalo de confianza del 95%: −0,18, −0,13), y contenido de desinformadores reincidentes (fuentes identificadas por Facebook que publican repetidamente información errónea) en 0,10 sd (intervalo de confianza del 95%: −0,13, −0,08). Sustancialmente, la proporción promedio de exposiciones disminuyó del 0,034% al 0,030% para contenido con insultos (una reducción de 0,01 visitas por día en promedio), del 3,15% al ​​2,81% para contenido incivilizado (una reducción de 1,24 vistas por día en promedio). ), y del 0,76% al 0,55% para el contenido de información errónea reincidente (una reducción de 0,62 visualizaciones por día en promedio). Finalmente, el tratamiento redujo la exposición al contenido cívico (−0,05 sd; intervalo de confianza del 95 %: −0,08, −0,03) y aumentó la exposición al contenido de noticias (0,05 sd, intervalo de confianza del 95 %: 0,02, 0,07) (ver Información complementaria, sección 1.3 para obtener detalles sobre cómo se miden el contenido descortés, el contenido con insultos y la desinformación de los reincidentes).

A continuación, consideramos los efectos del tratamiento (reducir la exposición al contenido de fuentes afines) sobre cómo los participantes interactúan con el contenido en Facebook. Examinamos la participación en el contenido de dos maneras, que llamamos "participación total" y "tasa de participación". La Figura 3b presenta los efectos del tratamiento sobre la interacción total con el contenido: el número total de acciones realizadas que definimos como formas de interacción "pasivas" (clics, reacciones y me gusta) o "activas" (comentarios y compartidos). La Figura 3c presenta los efectos del tratamiento en la tasa de participación, que es la probabilidad de interactuar con el contenido que los participantes vieron (es decir, participación condicionada a la exposición). Estas dos medidas no necesariamente se mueven en conjunto: como informamos a continuación, los participantes en el grupo de tratamiento tienen menos interacción total con el contenido de fuentes afines (ya que, por diseño, ven mucho menos), pero su tasa de interacción es mayor que el del grupo de control, lo que indica que interactuaron con más frecuencia con el contenido de fuentes afines a las que estuvieron expuestos.

La Figura 3b muestra que la intervención no tuvo un efecto significativo en el tiempo pasado en Facebook (−0,02 sd, intervalo de confianza del 95%: −0,050, 0,004), pero sí disminuyó la interacción total con el contenido de fuentes afines. Esta disminución se observó tanto para la participación pasiva como activa con contenido de fuentes con ideas afines, que disminuyó en 0,24 sd (intervalo de confianza del 95 %: −0,27, −0,22) y 0,12 sd (intervalo de confianza del 95 %: −0,15, −0,10). , respectivamente. Por el contrario, los participantes en la condición de tratamiento se involucraron más con fuentes transversales: la participación pasiva y activa aumentó en 0,11 sd (intervalo de confianza del 95 %: 0,08, 0,14) y 0,04 sd (intervalo de confianza del 95 %: 0,01, 0,07), respectivamente. Finalmente, observamos una disminución de la participación pasiva, pero no una disminución en la participación activa con el contenido de los infractores reincidentes de información errónea (para la participación pasiva, −0,07 sd, intervalo de confianza del 95 %: −0,10, −0,04; para la participación activa, −0,02 sd, 95 % de confianza). intervalo: −0,05, 0,01).

Sin embargo, cuando las personas del grupo de tratamiento vieron contenido de fuentes afines en su Feed, su tasa de participación fue mayor que en el grupo de control. La Figura 3c muestra que, condicionado a la exposición, la participación pasiva y activa con contenido de fuentes afines aumentó en 0,04 sd (intervalo de confianza del 95%: 0,02, 0,06) y 0,13 sd (intervalo de confianza del 95%: 0,08, 0,17), respectivamente. Además, aunque los participantes tratados vieron más contenido de fuentes transversales en general, tenían menos probabilidades de interactuar con el contenido que vieron: la participación pasiva disminuyó en 0,06 sd (intervalo de confianza del 95%: −0,07, −0,04) y la participación activa. disminuyó en 0,02 sd (intervalo de confianza del 95%: −0,04, −0,01). El número de visualizaciones de contenido por día activo en la plataforma también disminuyó ligeramente (–0,05 sd, intervalo de confianza del 95 %: −0,08, −0,02).

Finalmente, examinamos los efectos causales de reducir la exposición a fuentes de ideas afines en Facebook en una variedad de resultados de actitud medidos en encuestas postelectorales (Fig. 3d). Como está registrado previamente, aplicamos ponderaciones de la encuesta para estimar los PATE y ajustamos los valores de P para estos resultados para controlar la tasa de descubrimiento falso (consulte Información complementaria, secciones 1.5.4 y 4.7 para obtener más detalles). Observamos un patrón consistente de resultados estimados con precisión cerca de cero (círculos abiertos en la Fig. 3d) para las medidas de resultado que examinamos: polarización afectiva; extremidad ideológica; posiciones temáticas ideológicamente consistentes, evaluaciones de grupo y elección de votos y evaluaciones de candidatos; y creencias y puntos de vista simpatizantes de los partidos sobre la mala conducta y los resultados electorales, puntos de vista sobre el sistema electoral y el respeto por las normas electorales (consulte Información complementaria, sección 1.4 para obtener detalles sobre las mediciones). En total, encontramos que 7 de las 8 estimaciones puntuales para nuestras medidas de resultado primarias tienen valores de ±0,03 sd o menos y se estiman con precisión (límites de equivalencia exploratoria: ±0,1 sd; Tabla complementaria 60), lo que refleja altos niveles de poder observado. . Por ejemplo, el efecto mínimo detectable en la muestra para la polarización afectiva es 0,019 sd. El octavo resultado es un resultado nulo menos preciso para la elección de votos y las evaluaciones de candidatos ideológicamente consistentes (0,056 sd, límites de equivalencia: 0,001, 0,111).

También probamos los efectos de reducir la exposición a contenido de fuentes con ideas afines en una variedad de medidas de actitud para las cuales teníamos expectativas más débiles. Utilizando una prueba exploratoria de límites de equivalencia, podemos nuevamente descartar con confianza efectos de ±0,18 sd para estas preguntas de investigación preregistradas en 18 resultados, que se informan en la Figura 5 de datos ampliados y en la Tabla complementaria 47. Un análisis exploratorio de límites de equivalencia también descarta una cambio en el consumo autoinformado de medios de comunicación fuera de Facebook que categorizamos como de ideas afines de ±0,07 sd (Tablas complementarias 59 y 67).

Finalmente, examinamos los efectos heterogéneos del tratamiento en las actitudes reportadas en la Fig. 3d y las preguntas de investigación a través de una serie de características preregistradas: ideología política de los encuestados (dirección o extremidad), sofisticación política, alfabetización digital, exposición previa al tratamiento a contenido que es niveles políticos y previos al tratamiento de exposición con ideas afines, tanto como proporción de la dieta de información de los encuestados como como número total de exposiciones (consulte Información complementaria, sección 3.9). Ninguna de las 272 estimaciones del efecto del tratamiento de subgrupos registradas previamente para nuestros resultados primarios es estadísticamente significativa después del ajuste para controlar la tasa de descubrimiento falso. De manera similar, un análisis exploratorio no encuentra evidencia de efectos heterogéneos por edad o número de años desde que se unió a Facebook (consulte Información complementaria, sección 3.9.5).

Muchos observadores comparten la opinión de que los estadounidenses viven en cámaras de eco en línea que polarizan opiniones sobre políticas y profundizan las divisiones políticas6,7. Algunos también argumentan que las plataformas de redes sociales pueden y deben abordar este problema reduciendo la exposición a contenidos políticamente afines38. Sin embargo, tanto estas preocupaciones como la solución propuesta se basan en suposiciones empíricas en gran medida no comprobadas.

Aquí proporcionamos evidencia descriptiva sistemática de hasta qué punto los usuarios de redes sociales consumen desproporcionadamente contenido de fuentes políticamente amigables. Descubrimos que sólo una pequeña proporción del contenido que ven los usuarios de Facebook se refiere explícitamente a política o noticias y relativamente pocos usuarios tienen niveles extremadamente altos de exposición a fuentes con ideas afines. Sin embargo, la mayoría del contenido que los usuarios adultos activos de Facebook en los EE. UU. ven en la plataforma proviene de amigos con ideas políticas afines o de páginas o grupos con audiencias con ideas afines (reflejando patrones de homofilia en las redes del mundo real15,39). Este contenido tiene el potencial de reforzar la identidad partidista incluso si no es explícitamente político14.

Nuestro experimento de campo también muestra que los cambios en los algoritmos de las redes sociales pueden tener efectos marcados en el contenido que ven los usuarios. La intervención redujo sustancialmente la exposición a contenidos de fuentes afines, lo que también tuvo el efecto de reducir la exposición a contenidos clasificados como descorteses y a contenidos de fuentes que publican repetidamente información errónea. Sin embargo, los cambios probados en los algoritmos de las redes sociales no pueden contrarrestar completamente la propensión de los usuarios a buscar información agradable e interactuar con ella. Los participantes en el grupo de tratamiento estuvieron expuestos a menos contenido de fuentes con ideas afines, pero en realidad eran más propensos a interactuar con dicho contenido cuando lo encontraron.

Finalmente, encontramos que reducir la exposición a contenido de fuentes afines en Facebook no tuvo un efecto mensurable en una variedad de actitudes políticas, incluida la polarización afectiva, la extremidad ideológica y las opiniones sobre temas; Nuestros análisis exploratorios de límites de equivalencia nos permiten descartar con confianza efectos de ±0,12 sd. Tampoco pudimos rechazar la hipótesis nula en ninguna de nuestras pruebas para efectos de tratamiento heterogéneos en muchos subgrupos distintos de participantes.

Hay varias explicaciones potenciales para este patrón de resultados nulos. En primer lugar, la información política agradable y las noticias partidistas (los tipos de contenido que se cree que impulsan la polarización) representan una fracción de lo que la gente ve en Facebook. De manera similar, el consumo de redes sociales representa una pequeña fracción de la dieta informativa de la mayoría de las personas37, que incluye información de muchas fuentes (por ejemplo, amigos, televisión, etc.). Por lo tanto, incluso grandes cambios en la exposición en Facebook pueden ser pequeños como porcentaje de toda la información que consume la gente. En segundo lugar, la persuasión es sencillamente difícil: los efectos de la información sobre las creencias y las opiniones suelen ser pequeños y temporales y pueden ser especialmente difíciles de cambiar durante una elección presidencial polémica33,40,41,42,43. Finalmente, buscamos disminuir, en lugar de aumentar, la exposición a información afín por razones éticas. Aunque los resultados sugieren que la disminución de la exposición a información de fuentes afines tiene efectos mínimos en las actitudes, los efectos de dicha exposición pueden no ser simétricos. Específicamente, disminuir la exposición a fuentes afines podría no reducir la polarización tanto como aumentarla la exacerbaría.

Observamos varias otras áreas para futuras investigaciones. En primer lugar, no podemos descartar las muchas formas en que el uso de las redes sociales puede haber afectado las creencias y actitudes de los participantes antes del experimento. En particular, nuestro diseño no puede capturar los efectos del uso anterior de Facebook o los efectos acumulativos a lo largo de años; Se necesitan experimentos realizados durante períodos más largos y/o entre nuevos usuarios (observamos, sin embargo, que no encontramos evidencia de efectos heterogéneos por edad o años desde que se unieron a Facebook). En segundo lugar, aunque los efectos heterogéneos del tratamiento no existen en nuestros datos y son raros en los estudios de persuasión en general44, las características y el comportamiento de la muestra se desvían en algunos aspectos de la población de usuarios de Facebook. Las investigaciones futuras deberían examinar muestras que reflejen más fielmente a los usuarios de Facebook y/o sobremuestrear subgrupos que puedan verse particularmente afectados por contenido con ideas afines. En tercer lugar, sólo una minoría de usuarios de Facebook ocupan cámaras de eco, pero el alcance de la plataforma significa que el grupo en cuestión es grande en términos absolutos. Las investigaciones futuras deberían intentar comprender mejor por qué algunas personas están expuestas a grandes cantidades de información con ideas afines y las consecuencias de esta exposición. En cuarto lugar, nuestro estudio examina la prevalencia de cámaras de eco utilizando las inclinaciones políticas estimadas de los usuarios, páginas y grupos que comparten contenido en las redes sociales. No medimos directamente la inclinación del contenido que se comparte; hacerlo sería una valiosa contribución para futuras investigaciones. Finalmente, las replicaciones en otros países con diferentes sistemas políticos y entornos de información serán esenciales para determinar cómo se generalizan estos resultados.

En última instancia, estos hallazgos desafían las narrativas populares que culpan a las cámaras de eco de las redes sociales por los problemas de la democracia estadounidense contemporánea. Los cambios algorítmicos que reducen la exposición a fuentes afines no parecen ofrecer una solución sencilla para esos problemas. La información que vemos en las redes sociales puede ser más un reflejo de nuestra identidad que una fuente de las opiniones que expresamos.

Los participantes en nuestro experimento de campo son 73,3% blancos, 57,3% mujeres, relativamente bien educados (50,7% tienen un título universitario) y 54,1% se autoidentifican como demócratas o demócratas inclinados. También utilizan Facebook con más frecuencia que la población general de Facebook y están expuestos a más contenido de fuentes con ideas afines políticamente (el fenómeno de interés), incluido contenido cívico y de noticias de fuentes con ideas afines, que otros usuarios de Facebook (Tablas complementarias 2). y 4-10). Por lo tanto, nuestras estimaciones del efecto del tratamiento sobre las actitudes aplican ponderaciones de encuesta creadas para reflejar la población de usuarios adultos mensuales activos de Facebook que eran elegibles para el reclutamiento (consulte Información complementaria, sección 4.7). Las características demográficas de la muestra ponderada son similares a las de los usuarios de Facebook autoinformados en una muestra de probabilidad de AmeriSpeak (Tabla de datos ampliados 5).

Los encuestados fueron asignados al tratamiento o al control con igual probabilidad mediante aleatorización en bloques (consulte Información complementaria, sección 4.5 para obtener más detalles; los participantes estaban cegados a la asignación). La alimentación de los participantes en la condición de control no fue alterada sistemáticamente. Debido a la dificultad de medir la inclinación o inclinación política de muchos tipos diferentes de contenido a escala, variamos la exposición al contenido en función de la inclinación política estimada de la fuente de información. Utilizando un clasificador de Facebook, estimamos directamente la inclinación política de otros usuarios (consulte Información complementaria, sección 1.3 para más detalles). Basándonos en investigaciones anteriores16,17,23,45,46, estimamos las inclinaciones políticas de las páginas y los grupos utilizando las inclinaciones políticas de su audiencia (miembros del grupo y seguidores de la página). Clasificamos a todos los usuarios como liberales o conservadores utilizando un umbral binario para maximizar el poder estadístico, pero los resultados son consistentes cuando excluimos a los encuestados con clasificaciones entre 0,4 y 0,6 en un análisis exploratorio (consulte Información complementaria, secciones 3.10 y 3.11).

Diseñamos el estudio para proporcionar poder estadístico para detectar efectos pequeños. Por ejemplo, nuestros cálculos de poder mostraron que un tamaño de muestra final de 24.480 generaría un efecto mínimo detectable de 1,6 puntos porcentuales en la elección de voto entre los votantes probables (ver Información complementaria, sección 4.5).

La aleatorización fue exitosa: los grupos de tratamiento y control no difieren en sus características demográficas a un ritmo superior a lo que se esperaría por casualidad (consulte la Tabla complementaria 5). En total, el 82,6% de los participantes experimentales completaron al menos una encuesta postelectoral (23.377 respuestas válidas de 28.296 participantes elegibles; consulte Información complementaria, sección 2.1.3). La muestra final está formada por encuestados que completaron al menos una encuesta postelectoral y no eliminaron su cuenta ni se retiraron del estudio antes de que los datos fueran anonimizados. Aquellos que abandonaron el estudio antes de completar una encuesta postelectoral no difieren significativamente de nuestra muestra final (consulte Información complementaria, secciones 2.1 y 1.2).

Todos los análisis en el texto principal y en la Información complementaria siguen el registro previo presentado en la Open Science Foundation (https://osf.io/3sjy2; consulte Información complementaria, sección 4.10, excepto las desviaciones informadas en Información complementaria, sección 4.11). Las estimaciones del efecto del tratamiento utilizan MCO con errores estándar robustos y control de covariables seleccionadas utilizando el operador de selección y contracción mínima absoluta47 (consulte Información complementaria, sección 1.5.1). Como se registró previamente, nuestras pruebas de los efectos del tratamiento en las actitudes también aplican ponderaciones de encuesta para estimar los PATE (consulte Información complementaria, sección 4.7). En la Información complementaria, secciones 3.2 a 3.5, se proporcionan ejemplos de efectos promedio del tratamiento, que son muy similares.

Hemos cumplido con todas las normas éticas pertinentes. El proyecto general fue revisado y aprobado por la Junta de Revisión Institucional (IRB) del Centro Nacional de Investigación de Opinión (NORC). Los investigadores académicos trabajaron con los IRB de sus respectivas universidades para garantizar el cumplimiento de las regulaciones de investigación con seres humanos al analizar los datos recopilados por NORC y Meta y redactar artículos basados ​​en esos hallazgos. El equipo de investigación también recibió orientación ética de Ethical Resolve para informar los diseños de los estudios. Se proporciona información más detallada en Información complementaria, secciones 1.2 y 4.9.

Todos los participantes experimentales dieron su consentimiento informado antes de participar (consulte Información complementaria, sección 4.6 para materiales de reclutamiento y consentimiento). A los participantes se les dio la opción de retirarse del estudio mientras el experimento estaba en curso, así como de retirar sus datos en cualquier momento hasta que sus respuestas a la encuesta se desconectaran de cualquier información de identificación en febrero de 2023. También implementamos una regla de interrupción, inspirada en la clínica. ensayos, que establecían que terminaríamos la intervención antes de las elecciones si detectáramos que estaba generando cambios en variables específicas relacionadas con el bienestar individual que fueran mucho mayores de lo esperado. Más detalles están disponibles en Información complementaria, sección 1.2.

Ninguno de los investigadores académicos recibió compensación financiera de Meta por su participación en el proyecto. Los análisis fueron prerregistrados en la Open Science Foundation (https://osf.io/3sjy2). Los autores principales conservaron su discreción final sobre todo lo informado en este artículo. Meta acordó públicamente que no habría aprobación previa a la publicación de artículos para su publicación sobre la base de sus hallazgos. Consulte Información complementaria, sección 4.8 para obtener más detalles sobre la colaboración metaacadémica.

Más información sobre el diseño de la investigación está disponible en el Resumen del informe de Nature Portfolio vinculado a este artículo.

Datos no identificados de este proyecto (Meta Platforms, Inc. Participantes del experimento de intervención de Facebook. Consorcio interuniversitario para la investigación política y social [distribuidor], 2023-07-27. https://doi.org/10.3886/9wct-2d24 ; Meta Platforms, Inc. Exposición e interacción con las publicaciones de Facebook. Consorcio interuniversitario para la investigación política y social [distribuidor], 2023-07-27. https://doi.org/10.3886/9sqy-ny89; Meta Platforms, Inc. Alineamiento ideológico de los usuarios en las redes de Facebook. Consorcio interuniversitario para la investigación política y social [distribuidor], 27 de julio de 2023. https://doi.org/10.3886/nvh0-jh41; Meta Platforms, Inc. Usuario de Facebook Atributos. Consorcio interuniversitario para la investigación política y social [distribuidor], 27 de julio de 2023. https://doi.org/10.3886/vecn-ze56; Stroud, Natalie J., Tucker, Joshua A., NORC en el Universidad de Chicago y Meta Platforms, Inc. Archivos de datos FIES NORC de EE. UU. 2020. Consorcio interuniversitario para la investigación política y social [distribuidor], 2023-07-27. https://doi.org/10.3886/0d26-d856) están disponibles bajo acceso controlado desde el Social Media Archive (SOMAR) del Consorcio Interuniversitario para la Investigación Política y Social (ICPSR) de la Universidad de Michigan. Se puede acceder a los datos a través del enclave de datos virtual del ICPSR para investigaciones universitarias aprobadas por el IRB sobre elecciones o para validar los hallazgos de este estudio. ICPSR aceptará y examinará todas las solicitudes de acceso a datos. El acceso a los datos se controla para proteger la privacidad de los participantes del estudio y para ser consistente con el formulario de consentimiento firmado por los participantes del estudio donde se les dijo que sus datos se utilizarían para “investigaciones futuras sobre elecciones, para validar los hallazgos de este estudio, o si lo exige la ley para una investigación del IRB”. Las solicitudes de datos se pueden realizar a través de SOMAR (https://socialmediaarchive.org/); Las consultas pueden dirigirse al personal de SOMAR en [email protected]. El personal del ICPSR responderá a las solicitudes de datos dentro de 2 a 4 semanas después de su presentación. Para acceder a los datos, la institución de origen del académico que realiza la solicitud debe completar el Acuerdo de datos restringidos del ICPSR. Los datos originales se proporcionan con este documento.

Código de análisis de este estudio (Meta Platforms, Inc. Código de replicación para el estudio electoral de Facebook e Instagram de 2020 en EE. UU.. Consorcio interuniversitario para la investigación política y social [distribuidor], 2023-07-27. https://doi.org/10.3886 /spb3-g558) está archivado en SOMAR, ICPSR (https://socialmediaarchive.org) y está disponible en el enclave de datos virtual de ICPSR para investigaciones universitarias aprobadas por el IRB sobre elecciones o para validar los hallazgos de este estudio según la declaración de disponibilidad de datos. arriba. Los datos de este estudio se analizaron utilizando R (versión 4.1.1), que se ejecutó mediante cuadernos R en JupyterLab (3.2.3). El código de análisis importa varios paquetes R disponibles en CRAN, incluidos dplyr (1.0.10), ggplot2 (3.4.0), xtable (1.8-4), aws.s3 (0.3.22), glmnet (4.1.2), SuperLearner. (2.0-28), márgenes (0.3.26) y estimación (1.0.0).

Lazer, DMJ y cols. Ciencias sociales computacionales: obstáculos y oportunidades. Ciencia 369, 1060–1062 (2020).

Artículo ADS CAS PubMed Google Scholar

de Vreese, C. & Tromble, R. El abismo de los datos: cómo la falta de acceso a los datos deja a la investigación y a la sociedad en la oscuridad. Comuna política. 40, 356–360 (2023).

Artículo de Google Scholar

Newport, F. & Dugan, A. Las diferencias partidistas aumentan en una serie de cuestiones. Gallup https://news.gallup.com/opinion/polling-matters/215210/partisan-differences-growing-number-issues.aspx (2017).

Iyengar, S., Lelkes, Y., Levendusky, M., Malhotra, N. y Westwood, SJ Los orígenes y consecuencias de la polarización afectiva en los Estados Unidos. Año. Rev. Ciencias Políticas. 22, 129-146 (2019).

Artículo de Google Scholar

Finkel, EJ y cols. Sectarismo político en Estados Unidos. Ciencia 370, 533–536 (2020).

Artículo CAS PubMed Google Scholar

Sunstein, CR Republic.com 2.0 (Princeton Univ. Press, 2009).

Pariser, E. La burbuja del filtro: lo que Internet te oculta (Penguin, 2011).

Hosanagar, K. Culpe a la cámara de eco en Facebook. pero cúlpate a ti mismo también. Cableado https://www.wired.com/2016/11/facebook-echo-chamber/ (25 de noviembre de 2016).

Knight, M. Explicador: Cómo Facebook se ha convertido en la cámara de resonancia más grande del mundo. La conversación https://theconversation.com/explainer-how-facebook-has-become-the-worlds-largest-echo-chamber-91024 (5 de febrero de 2018).

Johnson, SL, Kitchens, B. & Gray, P. Facebook sirve como cámara de resonancia, especialmente para los conservadores. Culpe a su algoritmo. Washington Post https://www.washingtonpost.com/opinions/2020/10/26/facebook-algorithm-conservative-liberal-extremes/ (26 de octubre de 2020).

Helberger, N. La diversidad de exposición como objetivo político. J. Ley de Medios 4, 65–92 (2012).

Artículo de Google Scholar

Stroud, Nueva Jersey Polarización y exposición selectiva partidista. J. Común. 60, 556–576 (2010).

Artículo de Google Scholar

Mutz, DC Redes sociales transversales: Poniendo a prueba la teoría democrática en la práctica. Soy ciencia política. Rev. 96, 111–126 (2002).

Artículo de Google Scholar

Settle, JE Frenemies: Cómo las redes sociales polarizan a Estados Unidos (Cambridge Univ. Press, 2018).

Gentzkow, M. & Shapiro, JM Segregación ideológica en línea y fuera de línea. QJ Economía. 126, 1799–1839 (2011).

Artículo de Google Scholar

Flaxman, S., Goel, S. & Rao, JM Burbujas de filtro, cámaras de eco y consumo de noticias en línea. Opinión pública. P. 80, 298–320 (2016).

Artículo de Google Scholar

Supongo que soy (casi) todo con moderación: nueva evidencia sobre la dieta de los medios en línea de los estadounidenses. Ciencia política. 65, 1007–1022 (2021).

Artículo de Google Scholar

Wojcieszak, M. y col. No hay polarización por noticias partidistas. En t. J. Prensa/Política https://doi.org/10.1177/1940161221104 (2021).

Barberá, P., Jost, JT, Nagler, J., Tucker, JA & Bonneau, R. Tuitear de izquierda a derecha: ¿Es la comunicación política en línea más que una cámara de eco? Psicólogo. Ciencia. 26, 1531-1542 (2015).

Artículo PubMed Google Scholar

Eady, G., Nagler, J., Guess, A., Zilinsky, J. y Tucker, JA ¿Cuántas personas viven en burbujas políticas en las redes sociales? Evidencia de encuestas vinculadas y datos de Twitter. SABIO Abierto 9, 2158244019832705 (2019).

Artículo de Google Scholar

Auxier, B. & Anderson, M. Uso de redes sociales en 2021. https://www.pewresearch.org/internet/2021/04/07/social-media-use-in-2021/ (Pew Research Center, 2021) .

Wojcieszak, M., Casas, A., Yu, X., Nagler, J. & Tucker, JA La mayoría de los usuarios no siguen a las élites políticas en Twitter; aquellos que sí lo hacen muestran preferencias abrumadoras por la congruencia ideológica. Ciencia. Adv. 8, eabn9418 (2022).

Artículo PubMed PubMed Central Google Scholar

Bakshy, E., Messing, S. y Adamic, LA Exposición a noticias y opiniones ideológicamente diversas en Facebook. Ciencia 348, 1130-1132 (2015).

Artículo ADS MathSciNet CAS PubMed MATH Google Scholar

Prior, M. La audiencia de noticias inmensamente inflada: evaluación del sesgo en la exposición a las noticias autoinformada. Opinión pública. P. 73, 130-143 (2009).

Artículo de Google Scholar

Konitzer, T. y col. Comparar estimaciones de consumo de noticias a partir de encuestas y datos de comportamiento recopilados pasivamente. Opinión pública. P. 85, 347–370 (2021).

Artículo de Google Scholar

Garrett, RK y cols. Implicaciones de la exposición a la información a favor y en contra de la actitud para la polarización afectiva: exposición a los medios partidistas y polarización afectiva. Tararear. Comunitario. Res. 40, 309–332 (2014).

Artículo de Google Scholar

Lu, Y. & Lee, JaeKook Fuentes de información partidistas y polarización afectiva: análisis de panel sobre el papel mediador de la ira y el miedo. Diario. Comunión de masas. Pregunta 96, 767–783 (2019).

Artículo de Google Scholar

Arceneaux, K. & Johnson, M. ¿Cambiar de mentalidad o cambiar de canal?: Noticias partidistas en una era de elección (Univ. Chicago Press, 2013).

Levendusky, M. Cómo los medios partidistas polarizan a Estados Unidos (Univ. de Chicago Press, 2013).

Levendusky, MS ¿Por qué los medios partidistas polarizan a los espectadores? Soy. J. Ciencias políticas. 57, 611–623 (2013).

Artículo de Google Scholar

Levendusky, M. Exposición de los medios partidistas y actitudes hacia la oposición. Comuna política. 30, 565–581 (2013).

Artículo de Google Scholar

Hasell, A. & Weeks, BE Provocación partidista: el papel del uso de noticias partidistas y las respuestas emocionales en el intercambio de información política en las redes sociales. Tararear. Comunitario. Res. 42, 641–661 (2016).

Artículo de Google Scholar

Guess, AM, Barbera, P., Munzert, S. & Yang, JH Las consecuencias de los medios partidistas en línea. Proc. Acad. Nacional. Ciencia. EE.UU. 118, e2013464118 (2021).

Artículo CAS PubMed PubMed Central Google Scholar

Hobbs, WR y Roberts, ME Cómo la censura repentina puede aumentar el acceso a la información. Soy. Pol. Ciencia. Rev. 112, 621–636 (2018).

Artículo de Google Scholar

DellaPosta, D., Shi, Y. y Macy, M. ¿Por qué los liberales beben café con leche? Soy. J. Sociol. 120, 1473-1511 (2015).

Artículo de Google Scholar

Wells, C. y Thorson, K. Combinación de big data y técnicas de encuestas para modelar los efectos de los flujos de contenido político en Facebook. Soc. Ciencia. Computadora. Rev. 35, 33–52 (2017).

Artículo de Google Scholar

Allen, J., Howland, B., Mobius, M., Rothschild, D. & Watts, DJ Evaluación del problema de las noticias falsas a escala del ecosistema de la información. Ciencia. Adv. 6, fácil3539 (2020).

Artículo ADS PubMed PubMed Central Google Scholar

Farr, C. Jack Dorsey: “Twitter contribuye a filtrar las burbujas” y “tenemos que arreglarlo”. CNBC https://www.cnbc.com/2018/10/15/twitter-ceo-jack-dorsey-twitter-does-contribute-to-filter-bubbles.html (15 de octubre de 2018).

McPherson, M., Smith-Lovin, L. & Cook, JM Pájaros del mismo plumaje: Homofilia en las redes sociales. Año. Rev. Sociol. 27, 415–444 (2001).

Artículo de Google Scholar

Gerber, AS, Gimpel, JG, Green, DP y Shaw, DR ¿Cuán grandes y duraderos son los efectos persuasivos de los anuncios de campaña televisados? Resultados de un experimento de campo aleatorio. Soy. Ciencia política. Rev. 105, 135-150 (2011).

Artículo de Google Scholar

Hill, SJ, Lo, J., Vavreck, L. y Zaller, J. Qué rápido olvidamos: la duración de los efectos de persuasión de la comunicación de masas. Comuna política. 30, 521–547 (2013).

Artículo de Google Scholar

Coppock, A., Hill, SJ y Vavreck, L. Los pequeños efectos de la publicidad política son pequeños independientemente del contexto, mensaje, remitente o receptor: evidencia de 59 experimentos aleatorios en tiempo real. Ciencia. Adv. 6, eabc4046 (2020).

Artículo ADS PubMed PubMed Central Google Scholar

Carey, JM y cols. Los efectos efímeros de las verificaciones de datos sobre las percepciones erróneas sobre el COVID-19 en Estados Unidos, Gran Bretaña y Canadá. Nat. Tararear. Comportamiento. 6, 236–243 (2022).

Artículo PubMed Google Scholar

Coppock, A. Persuasión en paralelo: cómo la información cambia las mentes sobre la política (Univ. Chicago Press, 2022).

Golbeck, J. & Hansen, D. Un método para calcular la preferencia política entre los seguidores de Twitter. Red Social. 36, 177–184 (2014).

Artículo de Google Scholar

Eady, G., Bonneau, R., Tucker, JA y Nagler, J. Intercambio de noticias en las redes sociales: mapeo de la ideología del contenido de los medios de comunicación, los ciudadanos y los políticos. Preimpresión en https://doi.org/10.31219/osf.io/ch8gj (2020).

Bloniarz, A., Liu, H., Zhang, Cun-Hui, Sekhon, JS y Yu, B. Ajustes de Lasso de las estimaciones del efecto del tratamiento en experimentos aleatorios. Proc. Acad. Nacional. Ciencia. Estados Unidos 113, 7383–7390 (2016).

Artículo ADS MathSciNet CAS PubMed PubMed Central MATH Google Scholar

Descargar referencias

El equipo de Investigación Abierta y Transparencia de Facebook (FORT) brindó un apoyo sustancial en la ejecución del proyecto general. Agradecemos el apoyo en diversos aspectos de la gestión de proyectos de C. Nayak, S. Zahedi, I. Rosenn, L. Ahmad, A. Bhalla, C. Chan, A. Gruen, B. Hillenbrand, D. Li, P. McLeod, D. Rice y N. Shah; ingeniería de Y. Chen, S. Chen, J. Dai, T. Lohman, R. Moodithaya, R. Pyke, Y. Wan y F. Yan; ingeniería de datos de B. Xiong, S. Chintha, J. Cronin, D. Desai, Y. Kiraly, T. Li, X. Liu, S. Pellakuru y C. Xie; investigación y ciencia de datos de H. Connolly-Sporing, S. Tan y T. Wynter; asociaciones académicas de R. Mersey, M. Zoorob, L. Harrison, S. Aisiks, Y. Rubinstein y C. Qiao; evaluación legal y de privacidad de K. Benzina, F. Fatigato, J. Hassett, S. Iyengar, P. Mohassel, A. Muzaffar, A. Raghunathan y A. Sun; y diseño de contenidos de C. Bernard, J. Breneman, D. Leto y S. Raj. NORC de la Universidad de Chicago se asoció con Meta en este proyecto para realizar el trabajo de campo con los participantes de la encuesta y combinar los datos de la encuesta con datos de seguimiento web para los participantes que dieron su consentimiento en formas agregadas predeterminadas. Estamos particularmente agradecidos por la asociación del investigador principal de NORC, JM Dennis, y del director del proyecto NORC, M. Montgomery. Meta pagó los costos asociados con la investigación (como las tarifas de los participantes, el reclutamiento y la recopilación de datos). El apoyo auxiliar (por ejemplo, asistentes de investigación y adquisiciones de cursos) provino de académicos del Fondo para la Democracia, la Fundación Guggenheim, la Fundación John S. y James L. Knight, la Fundación Charles Koch, la Fundación Hewlett, la Fundación Alfred P. Sloan Foundation, el Fondo Hopewell, la Universidad de Texas en Austin, la Universidad de Nueva York, la Universidad de Stanford, el Instituto Stanford para la Investigación de Política Económica y la Universidad de Wisconsin-Madison.

Drew Dimmery

Dirección actual: Red de Investigación en Ciencia de Datos, Universidad de Viena, Viena, Austria

Estos autores contribuyeron igualmente: Brendan Nyhan, Jaime Settle, Emily Thorson, Magdalena Wojcieszak, Pablo Barberá

Estos autores supervisaron conjuntamente este trabajo: Chad Kiewiet de Jonge, Annie Franco, Winter Mason, Natalie Jomini Stroud, Joshua A. Tucker.

Departamento de Gobierno, Dartmouth College, Hanover, NH, EE. UU.

Brendan Nyhan

Departamento de Gobierno y Ciencia de Datos, William and Mary, Williamsburg, VA, EE. UU.

Jaime Settle

Escuela Maxwell de Ciudadanía y Asuntos Públicos, Universidad de Syracuse, Syracuse, Nueva York, EE. UU.

Emily Thorson

Departamento de Comunicación, Universidad de California, Davis, CA, EE. UU.

Magdalena Wojcieszak

Escuela de Investigación en Comunicación de Ámsterdam, Universidad de Ámsterdam, Ámsterdam, Países Bajos

Magdalena Wojcieszak

Meta, Menlo Park, California, EE. UU.

Pablo Barberá, Taylor Brown, Adriana Crespo-Tenorio, Drew Dimmery, Devra Moehler, Daniel Robert Thomas, Carlos Velasco Rivera, Arjun Wilkins, Beixian Xiong, Chad Kiewiet de Jonge, Annie Franco & Winter Mason

Instituto CUNY para la Gobernanza Estatal y Local, Nueva York, NY, EE.UU.

Annie Y. Chen

Centro de Análisis de Políticas Ambientales y Energéticas, Universidad de Stanford, Stanford, CA, EE. UU.

caza allcott

Escuela Annenberg de Comunicación, Universidad de Pensilvania, Filadelfia, Pensilvania, EE. UU.

Deen Freelon & Sandra González-Bailón

Departamento de Economía, Universidad de Stanford, Stanford, CA, EE. UU.

Mateo Gentzkow

Departamento de Política, Universidad de Princeton, Princeton, Nueva Jersey, EE. UU.

Andrew M. Guess

Escuela de Asuntos Públicos e Internacionales, Universidad de Princeton, Princeton, Nueva Jersey, EE. UU.

Andrew M. Guess

Departamento de Estadística y Ciencia de Datos, Universidad Carnegie Mellon, Pittsburgh, PA, EE. UU.

Eduardo Kennedy

Escuela de Periodismo y Comunicación de Masas, Universidad de Wisconsin-Madison, Madison, WI, EE. UU.

Joven Mie Kim

Network Science Institute, Northeastern University, Boston, MA, EE. UU.

David Lazer

Escuela de Graduados en Negocios, Universidad de Stanford, Stanford, CA, EE. UU.

Neil Malhotra

Departamento de Comunicación, Universidad de Stanford, Stanford, CA, EE. UU.

Jennifer Pan

Escuela de Medios y Asuntos Públicos, Universidad George Washington, Washington, DC, EE.UU.

Rebeca tromble

Instituto de Datos, Democracia y Política, Universidad George Washington, Washington, DC, EE. UU.

Rebeca tromble

Moody College of Communication, Universidad de Texas en Austin, Austin, TX, EE. UU.

Natalie Jomini Stroud

Centro para la participación de los medios, Universidad de Texas en Austin, Austin, TX, EE. UU.

Natalie Jomini Stroud

Departamento de Política de la Familia Wilf, Universidad de Nueva York, Nueva York, NY, EE. UU.

Josué A. Tucker

Centro de Política y Medios Sociales, Universidad de Nueva York, Nueva York, NY, EE. UU.

Josué A. Tucker

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

También puedes buscar este autor en PubMed Google Scholar.

BN, JS, ET, MW y PB supervisaron todos los análisis, analizaron los datos y escribieron el artículo. Como autores académicos principales, BN, JS, ET y MW tenían los derechos de control final. PB fue el autor principal en Meta. BN, JS, ET, MW, DM y PB diseñaron el estudio. PB, DD, DF, EK, YMK, NM, DM, BN, ET, RT, CVR, AW y MW contribuyeron con materiales de estudio (por ejemplo, cuestionarios de encuestas, clasificadores y software). HA, PB, AC-T., AF, DF, MG, SG-B., AMG, CKdJ, YMK, DL, NM, WM, DM, BN, JP, CVR, JS, NJS, ET, RT, JAT, AW y MW contribuyeron al diseño del proyecto. PB, TB, AC-T., AF, WM, DRT, CVR, AW y BX coordinaron la implementación de la intervención experimental y recopilaron y seleccionaron todos los datos de la plataforma. AYC y PB contribuyeron con las figuras y tablas. EK y DD contribuyeron al análisis de efectos heterogéneos. HA, MG, SG-B., DL, NM, NJS y JAT proporcionaron comentarios sobre el manuscrito. NJS y JAT fueron investigadores principales conjuntos de la participación académica en este proyecto, responsables de la gestión y coordinación. CKdJ, AF y WM lideraron la participación de Meta en este proyecto y fueron responsables de la gestión y coordinación.

Correspondencia a Brendan Nyhan.

Ninguno de los investigadores académicos ni sus instituciones recibieron compensación financiera de Meta por su participación en el proyecto. Algunos autores son o han sido empleados de Meta: PB, TB, AC-T., DD, DM, DRT, CVR, AW, BX, AF, CKdJ y WMDD y CVR son ex empleados de Meta. Todo su trabajo en el estudio se realizó mientras eran empleados de Meta. Los siguientes autores académicos han tenido uno o más de los siguientes financiamientos o relaciones financieras personales con Meta (trabajo de consultoría remunerado, recibido financiamiento de subvención directa, honorarios o honorarios, servicio como experto externo o acciones propias de Meta): MG, AMG , BN, JP, JS, NJS, RT, JAT y MW Para obtener información adicional sobre las divulgaciones anteriores, así como una revisión de las medidas tomadas para proteger la integridad de la investigación, consulte Información complementaria, sección 4.8.

Nature agradece a los revisores anónimos por su contribución a la revisión por pares de este trabajo. Los informes de revisión por pares están disponibles.

Nota del editor Springer Nature se mantiene neutral con respecto a reclamos jurisdiccionales en mapas publicados y afiliaciones institucionales.

Cada histograma muestra la distribución de la puntuación de ideología prevista de los encuestados según el clasificador de Meta para usuarios adultos de Facebook en EE. UU. (consulte Información complementaria, sección 1.3) por subconjuntos definidos por sus características políticas autoinformadas. Los histogramas tienen intervalos de ancho igual a 0,10.

Datos fuente

Distribución previa al tratamiento de la exposición del feed de Facebook a contenido de fuentes afines (columna izquierda), fuentes transversales (columna central) y aquellas que no entran en ninguna de las categorías (columna derecha). Se presentan estimaciones para todo el contenido (fila superior) y para el contenido clasificado como cívico (es decir, político; fila central) y noticias (fila inferior). Las clasificaciones de fuentes y contenidos se crearon utilizando clasificadores internos de Facebook (consulte Información complementaria, sección 1.3). El gráfico incluye la distribución de la exposición tanto de los participantes del estudio como de la población de usuarios de Facebook mayores de 18 años que iniciaron sesión en Facebook todos los días durante el mes anterior al 17 de agosto de 2020, cuando se construyó el marco muestral del estudio.

Datos fuente

Proporción media a nivel diario de vistas de contenido de fuentes transversales por parte de los encuestados por grupo experimental del 1 de julio al 23 de diciembre de 2020. Fuentes clasificadas como transversales según estimaciones de un clasificador interno de Facebook a nivel individual para usuarios y amigos y a nivel el nivel de audiencia para páginas y grupos (consulte Información complementaria, sección 1.3). W1–W5 indican las oleadas 1–5 de la encuesta; el sombreado indica la duración de la onda. (Nota: Los niveles de exposición disminuyeron brevemente del 2 al 3 de noviembre debido a un problema técnico; consulte Información complementaria, sección 4.11 para obtener más detalles).

Datos fuente

Efectos promedio del tratamiento al reducir la exposición a fuentes de ideas afines en Facebook Feed del 24 de septiembre al 23 de diciembre de 2020. La figura muestra estimaciones OLS de los efectos promedio del tratamiento muestral (SATE), así como el efecto promedio del tratamiento poblacional (PATE) utilizando ponderaciones de la encuesta. y errores estándar robustos de HC2. Las medidas de resultado de exposición y participación se midieron utilizando el comportamiento de alimentación de los participantes. Las medidas de resultados de la encuesta son escalas estandarizadas promediadas entre las encuestas realizadas del 4 al 18 de noviembre de 2020 y/o del 9 al 23 de diciembre de 2020. El tamaño de la muestra y los valores de P para cada estimación se informan en la Tabla complementaria 47.

Datos fuente

Efectos promedio del tratamiento al reducir la exposición a fuentes de ideas afines en Facebook Feed del 24 de septiembre al 23 de diciembre de 2020. La figura muestra estimaciones OLS de los efectos promedio del tratamiento muestral (SATE), así como el efecto promedio del tratamiento poblacional (PATE) utilizando ponderaciones de la encuesta. y errores estándar robustos de HC2. Las medidas de resultado del compromiso se midieron utilizando el comportamiento de alimentación de los participantes. Las medidas de resultados de la encuesta son escalas estandarizadas promediadas entre las encuestas realizadas del 4 al 18 de noviembre de 2020 y/o del 9 al 23 de diciembre de 2020, a menos que se indique lo contrario. El tamaño de la muestra y los valores de P para cada estimación se informan en la Tabla complementaria 47.

Datos fuente

Este archivo contiene métodos complementarios (que incluyen más detalles sobre la implementación experimental y los clasificadores utilizados), tablas y figuras complementarias (incluidas estadísticas descriptivas y análisis en secciones separadas) y notas complementarias (incluido el plan de análisis previo y los cuestionarios de la encuesta).

Acceso Abierto Este artículo está bajo una Licencia Internacional Creative Commons Attribution 4.0, que permite el uso, compartir, adaptación, distribución y reproducción en cualquier medio o formato, siempre y cuando se dé el crédito apropiado a los autores originales y a la fuente. proporcione un enlace a la licencia Creative Commons e indique si se realizaron cambios. Las imágenes u otro material de terceros en este artículo están incluidos en la licencia Creative Commons del artículo, a menos que se indique lo contrario en una línea de crédito al material. Si el material no está incluido en la licencia Creative Commons del artículo y su uso previsto no está permitido por la normativa legal o excede el uso permitido, deberá obtener permiso directamente del titular de los derechos de autor. Para ver una copia de esta licencia, visite http://creativecommons.org/licenses/by/4.0/.

Reimpresiones y permisos

Nyhan, B., Settle, J., Thorson, E. y col. Las fuentes afines en Facebook prevalecen pero no polarizan. Naturaleza 620, 137-144 (2023). https://doi.org/10.1038/s41586-023-06297-w

Descargar cita

Recibido: 21 de diciembre de 2022

Aceptado: 07 de junio de 2023

Publicado: 27 de julio de 2023

Fecha de emisión: 03 de agosto de 2023

DOI: https://doi.org/10.1038/s41586-023-06297-w

Cualquier persona con la que comparta el siguiente enlace podrá leer este contenido:

Lo sentimos, actualmente no hay un enlace para compartir disponible para este artículo.

Proporcionado por la iniciativa de intercambio de contenidos Springer Nature SharedIt

Naturaleza (2023)

Al enviar un comentario, acepta cumplir con nuestros Términos y pautas de la comunidad. Si encuentra algo abusivo o que no cumple con nuestros términos o pautas, márquelo como inapropiado.