Reducir la visibilidad del contenido polarizador en las redes sociales puede reducir considerablemente la animosidad partidista. Para llegar a este hallazgo, mis colegas y yo desarrollamos un método que nos permite cambiar la clasificación de los feeds de las personas, algo que antes sólo podían hacer las empresas de redes sociales.
Reclasificar las fuentes de las redes sociales para reducir la exposición a publicaciones que expresan actitudes antidemocráticas y animosidad partidista afectó las emociones de las personas y sus actitudes hacia las personas con opiniones políticas opuestas.
Soy un informático que estudia informática social, inteligencia artificial y la web. Dado que sólo las plataformas de redes sociales pueden modificar sus algoritmos, desarrollamos y lanzamos una herramienta web de código abierto que nos permitió reclasificar los feeds de los participantes que dieron su consentimiento en X, anteriormente Twitter, en tiempo real.
Basándonos en la teoría de las ciencias sociales, utilizamos un modelo de lenguaje amplio para identificar publicaciones que probablemente polaricen a las personas, como aquellas que abogan por la violencia política o piden el encarcelamiento de miembros del partido contrario. Estas publicaciones no han sido eliminadas; simplemente tienen una clasificación más baja, lo que requiere que los usuarios se desplacen más para verlos. Esto redujo la cantidad de publicaciones que vieron los usuarios.
Realizamos este experimento durante 10 días en las semanas previas a las elecciones presidenciales estadounidenses de 2024. Descubrimos que reducir la exposición a contenido polarizador mejoraba considerablemente los sentimientos de los participantes hacia las personas del lado opuesto y reducía sus emociones negativas mientras navegaban por su feed. Es importante destacar que estos efectos fueron similares en todas las afiliaciones políticas, lo que sugiere que la intervención beneficia a los usuarios independientemente de su partido político.
Este segmento de 60 minutos cubre cómo las publicaciones divisivas en las redes sociales ganan más fuerza que las publicaciones neutrales. Por qué es importante
Un error común es pensar que las personas tienen que elegir entre dos extremos: algoritmos basados en el compromiso o fuentes puramente cronológicas. En realidad, existe una amplia gama de enfoques intermedios dependiendo de para qué estén optimizados.
Los algoritmos de alimentación suelen estar optimizados para llamar su atención y, como resultado, tienen un impacto significativo en sus actitudes, estados de ánimo y percepciones de los demás. Por esta razón, existe una necesidad urgente de marcos que permitan a los investigadores independientes probar nuevos enfoques en condiciones del mundo real.
Nuestro trabajo ofrece un camino a seguir, mostrando cómo los investigadores pueden estudiar y crear prototipos de algoritmos alternativos a escala y mostrando que, gracias a grandes modelos de lenguaje, las plataformas finalmente tienen los medios técnicos para detectar contenido polarizador que puede influir en las actitudes democráticas de sus usuarios.
¿Qué otras investigaciones se están realizando en esta área?
Es difícil probar el impacto de algoritmos de alimentación alternativos en plataformas vivas y el número de estudios de este tipo ha aumentado recientemente.
Por ejemplo, una colaboración reciente entre académicos y Meta encontró que cambiar una fuente algorítmica a una cronológica no es suficiente para mostrar un impacto en la polarización. Un esfuerzo relacionado, el Prosocial Ranking Challenge, dirigido por investigadores de la Universidad de California, Berkeley, explora alternativas de clasificación multiplataforma para promover resultados sociales beneficiosos.
Al mismo tiempo, los avances en el desarrollo de un modelo de lenguaje amplio permiten formas más ricas de modelar cómo las personas piensan, sienten e interactúan con los demás. Estamos viendo un interés creciente en brindar a los usuarios más control, permitiéndoles decidir qué principios deben guiar lo que ven en sus feeds, por ejemplo, la Biblioteca de Valores Pluralistas de Alejandría y el sistema de reclasificación de feeds Bonsai. Las plataformas de redes sociales, incluidas Bluesky y X, también van por este camino.
¿Qué sigue?
Este estudio representa nuestro primer paso hacia el diseño de algoritmos que sean conscientes de su potencial impacto social. Muchas preguntas siguen abiertas.
Planeamos investigar los efectos a largo plazo de estas intervenciones y probar nuevos objetivos de clasificación para abordar otros riesgos para el bienestar en línea, como la salud mental y la satisfacción con la vida. El trabajo futuro explorará cómo equilibrar múltiples objetivos, como el contexto cultural, los valores personales y el control del usuario, para crear espacios en línea que respalden mejor la interacción social y cívica saludable.
El Research Brief es una breve descripción de trabajos académicos interesantes.
Descubre más desde USA Today
Suscríbete y recibe las últimas entradas en tu correo electrónico.

