Una semana en redes sociales puede cambiar tu visión política tanto como tres años de vida
Un estudio demuestra que los algoritmos de X (antes Twitter) amplifican la polarización política, pero también podrían revertirla
OpenAI culpa a un adolescente que se suicidó de hacer "mal uso" de ChatGPT
Durante una semana del pasado verano, mientras Estados Unidos vivía uno de sus momentos políticos más convulsos -con la retirada de Joe Biden de la carrera presidencial y el intento de asesinato de Donald Trump-, más de 1.200 estadounidenses participaron sin saberlo en un experimento que revelaría el poder oculto de los algoritmos de las redes sociales.
Los resultados, publicados esta semana en la revista Science, demuestran algo inquietante: en solo siete días, la forma en que un algoritmo ordena las publicaciones que vemos puede alterar nuestros sentimientos hacia el partido político contrario con una intensidad que normalmente llevaría tres años de evolución natural.
"Los algoritmos de las redes sociales impactan profundamente en nuestras vidas, pero hasta ahora solo las plataformas tenían la capacidad de entenderlos y moldearlos", explica Michael Bernstein, profesor de informática en la Universidad de Stanford y autor principal del estudio.
La investigación, desarrollada conjuntamente por Stanford, Northeastern University, University of Washington y Johns Hopkins University, ha conseguido estudiar el efecto de estos algoritmos sin necesidad de cooperación de las propias plataformas.
Un experimento desde el navegador
La clave del estudio reside en su método. El equipo, liderado por Tiziano Piccardi -entonces investigador postdoctoral en Stanford y ahora profesor en Johns Hopkins- y Chenyan Jia, profesora de periodismo en Northeastern, desarrolló una extensión para navegadores que intercepta y reordena en tiempo real las publicaciones que aparecen en X (antes Twitter).
"Cuando eres un usuario de nuestro estudio, básicamente no notas nada en términos de reordenación", señala Jia. La extensión utiliza un modelo de lenguaje de gran tamaño (LLM, por sus siglas en inglés) para identificar y clasificar publicaciones según lo que los investigadores denominan "actitudes antidemocráticas y animosidad partidista" (AAPA).
¿Qué contenidos entran en esta categoría? Publicaciones que abogan por medidas extremas contra el partido contrario, como encarcelar a sus simpatizantes o recurrir a la violencia; mensajes que rechazan cualquier cooperación bipartidista; afirmaciones que cuestionan hechos favorables a las posturas del otro partido; y declaraciones dispuestas a abandonar principios democráticos para beneficiar al partido propio.
Los participantes fueron divididos en dos grupos: uno con mayor exposición a este tipo de contenido polarizante, que aparecía más arriba en su feed, y otro con menor exposición, donde estas publicaciones se mostraban más abajo.
Un aspecto crucial: ninguna publicación fue eliminada. "Es algo sobre lo que queremos ser muy cautelosos, porque podría haber preocupaciones de censura", aclara Jia. Los usuarios seguían viendo todos los contenidos de las cuentas que seguían, solo cambiaba el orden.
Dos puntos que significan tres años
Los resultados fueron consistentes independientemente de la ideología política de los participantes.
Aquellos cuyo algoritmo redujo la exposición a contenido hostil experimentaron un aumento de aproximadamente dos puntos en sus sentimientos positivos hacia el partido contrario, medidos en una escala de 0 (sentimientos más fríos) a 100 (más cálidos). Por el contrario, quienes recibieron mayor exposición a mensajes polarizantes mostraron un enfriamiento de dos puntos en sus actitudes.
"Puede parecer que dos puntos no son mucho, pero en realidad es un cambio muy pronunciado, comparable en magnitud a tres años de cambio en Estados Unidos", subraya Jia. El experimento duró apenas una semana.
Jeanne Tsai, profesora de psicología en Stanford y coautora del estudio, explica el mecanismo detrás de estos cambios: "Este contenido polarizante puede secuestrar la atención de las personas haciéndolas sentir mal en el momento en que lo ven".
La respuesta emocional es inmediata e inevitable, y la acumulación de estos momentos durante días modifica las percepciones políticas de forma medible.
Los investigadores midieron también el impacto en las emociones de los participantes. La reducción del contenido hostil no solo disminuyó la polarización, sino también los sentimientos de ira y tristeza de los usuarios.
Un método revolucionario para la investigación independiente
Hasta ahora, estudiar el efecto de los algoritmos de redes sociales requería la colaboración de las propias plataformas, empresas con intereses comerciales que podían limitar o condicionar las investigaciones. Este estudio rompe esa dependencia.
"Hemos demostrado un enfoque que permite a los investigadores y usuarios finales tener ese poder", afirma Bernstein.
El equipo ha liberado el código de la herramienta como software de código abierto, disponible para cualquier investigador que desee realizar este tipo de estudios.
Estudios previos sobre intervenciones en redes sociales para mitigar la polarización habían mostrado resultados mixtos y, según los investigadores, empleaban instrumentos demasiado contundentes: ordenar las publicaciones cronológicamente o eliminar por completo el uso de redes sociales. Este estudio demuestra que es posible un enfoque más matizado y efectivo.
"Cuando los participantes estuvieron expuestos a menos contenido de este tipo, sintieron más calidez hacia las personas del partido contrario", resume Piccardi. "Cuando estuvieron expuestos a más, sintieron más frialdad".
Implicaciones para usuarios y plataformas
Jia identifica dos formas principales en que espera que esta investigación tenga impacto en el mundo real.
En primer lugar, permitirá a otros científicos estudiar el efecto de las plataformas sobre el público sin depender de corporaciones con intereses propios.
En segundo lugar, podría proporcionar a los ciudadanos mayor conocimiento sobre cómo están siendo influenciados constantemente por los algoritmos de redes sociales y un mayor sentido de control sobre su propio feed.
"En nuestra vida diaria, las redes sociales siempre se han centrado en el individuo", reflexiona Jia. "Están muy orientadas por las métricas de participación: cuántos compartidos obtienes, cuántos me gusta recibes, cuántos comentarios".
Esta investigación, espera, marca un paso hacia algo nuevo: una forma de usar los algoritmos de redes sociales para lograr un "impacto social positivo real, como reducir la polarización afectiva".
El equipo ya está explorando otras intervenciones usando métodos similares, incluidas algunas dirigidas a mejorar la salud mental de los usuarios.
A medida que la polarización política y la división social se vinculan cada vez más con la actividad en redes sociales, este estudio ofrece evidencia causal de que los algoritmos pueden tanto agravar como aliviar estos problemas. La pregunta es si las plataformas estarán dispuestas a implementar estos cambios o si serán los propios usuarios quienes, con herramientas independientes, tomen el control de lo que ven cada día en sus pantallas.
También te puede interesar