Por Andrew Myers Un neurocientífico de la Universidad de Stanford, sumido en un confinamiento por la pandemia y navegando a través de las redes sociales con la mirada perdida, miró su muro de Twitter y se preguntó qué hace que una noticia se vuelva viral. Intrigado, hizo lo que hacen los científicos: se reunió con sus colegas y diseñó un estudio . Reuniendo casi 30 millones de publicaciones de X (antes Twitter) tuiteadas por más de 180 organizaciones de noticias de todo el espectro político entre 2011 y 2020, codificaron los mensajes con una herramienta computacional llamada “análisis de sentimientos”. “El análisis de sentimientos utiliza algoritmos simples y diccionarios codificados para evaluar el tono emocional de una publicación. ¿El mensaje es de naturaleza positiva o negativa? ¿Es desapasionado o tiene la intención de avivar emociones como la ira, el miedo o la ansiedad?”, dijo el autor principal Brian Knutson , profesor de psicología y neurociencia en la Escuela de Humanidades y Ciencias de Stanford y experto en la psicología de la toma de decisiones. “Luego, comparamos el sentimiento con la viralidad para saber qué impulsaba las tendencias en las redes sociales de Estados Unidos”. El estudio , publicado en la revista PLoS ONE y apoyado por el Instituto Stanford para la Inteligencia Artificial Centrada en el Ser Humano (HAI), proporciona una comprensión clara de los tipos de publicaciones que se difunden más amplia y rápidamente y por qué. "Normalmente, son las historias negativas y muy excitantes las que obtienen más tráfico, y estas historias tienden a provenir de las fuentes más sesgadas, tanto de izquierda como de derecha", dijo Knutson. El sentimiento importa Su análisis reveló que las fuentes de noticias publicaban casi el doble de contenido negativo que de contenido positivo en general. Este patrón contrasta con el de los usuarios individuales, que tienden a publicar más contenido positivo que negativo. El equipo también descubrió que las fuentes de noticias más sesgadas, de izquierda o de derecha, tenían aproximadamente un 12 % más de contenido negativo de alta excitación que las fuentes de noticias equilibradas y que estas publicaciones negativas altamente excitantes eran las más propensas a volverse virales. Sin embargo, lo más preocupante de todo es que los investigadores descubrieron que esta creciente difusión de contenido negativo de alta excitación también creció entre las fuentes de noticias equilibradas con el tiempo, una tendencia que Knutson atribuye a que siguen a las fuentes de noticias sesgadas en la búsqueda de métricas de interacción. Si bien el estudio establece una valiosa base de conocimiento, el objetivo final de Knutson es explorar formas de revertir la tendencia o reducir los efectos dañinos del contenido negativo y la desinformación en la vida estadounidense moderna. Los estudios futuros examinarán herramientas y técnicas, tanto computacionales como en el ámbito de las políticas, que podrían cambiar la dinámica. Hay mucho en juego. Más de la mitad de los adultos estadounidenses consumen noticias en línea, señala el estudio, y la mayoría de ellas se comparten a través de plataformas de redes sociales como X, TikTok y Facebook. Las redes sociales también brindan acceso y poderes de difusión casi instantáneos, con pocos o ningún control sobre la información falsa y engañosa. Lo que complica las cosas es el hecho de que en un mundo donde las noticias se pagan con publicidad y la publicidad está impulsada por métricas de interacción (como visitas, "me gusta", tiempo en la página y reenvíos), incluso las fuentes de noticias equilibradas podrían verse incentivadas a amplificar el contenido emocional negativo para atraer la atención, dijo Knutson. “Todas las fuentes de noticias quieren que su contenido se vuelva viral, pero las fuentes de noticias sesgadas parecen más dispuestas a involucrar a los usuarios con contenido cargado de emociones, especialmente a medida que aumenta la polarización política”, dijo. Esto puede generar una mayor polarización y perjudicar la capacidad de los usuarios para tomar decisiones bien informadas, y también podría reducir el bienestar de los usuarios y aumentar la división política. “Es una especie de ‘contaminación afectiva’ que exacerba los conflictos sociales”, añadió Knutson. Posibles intervenciones La investigación destaca la necesidad de intervenciones para limitar la difusión de contenido emocional dañino y sugiere que los algoritmos de las redes sociales podrían rediseñarse para reducir la amplificación de noticias cargadas de emociones y potencialmente sesgadas. Knutson dijo que los usuarios podrían implementar el mismo tipo de herramientas de análisis de sentimientos para filtrar contenido sumamente negativo y engañoso de sus propios feeds, pero eso pone la responsabilidad en el usuario y no puede evitar el consumo deliberado de información incorrecta. Las políticas y la regulación también son opciones posibles, pero muchas plataformas parecen no estar dispuestas o no poder moderar su contenido. “Nuestro estudio demuestra que esta dinámica de sentimiento negativo es real y puede ser perjudicial, pero qué hacer exactamente al respecto sigue siendo un desafío abierto”, concluyó Knutson. “Tal vez al filtrar el sentimiento del contenido, junto con la semántica y la fuente, podamos ofrecer a los usuarios un conjunto de herramientas nuevo y útil”. Lea el estudio completo, Sesgo en las fuentes de noticias y sentimiento en las redes sociales https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0305148