Creación de un algoritmo de redes sociales que realmente promueva los valores sociales

foto-resumen

Por Catalina Miller pesar de todos sus esfuerzos por moderar el contenido y reducir la toxicidad en línea, las empresas de redes sociales todavía se preocupan fundamentalmente por una cosa: retener a los usuarios a largo plazo, un objetivo que consideran que se logra mejor manteniéndolos interesados ​​en el contenido el mayor tiempo posible. Pero el objetivo de mantener a las personas comprometidas no necesariamente beneficia a la sociedad en general e incluso puede ser perjudicial para valores que apreciamos, como vivir en una democracia saludable. Para abordar ese problema, un equipo de investigadores de Stanford asesorados por Michael Bernstein , profesor asociado de informática en la Facultad de Ingeniería, y Jeffrey Hancock, profesor de comunicación en la Facultad de Humanidades y Ciencias, se preguntó si los diseñadores de plataformas de redes sociales podrían, de una manera más basada en principios, incorporar valores sociales en sus algoritmos de clasificación de feeds. ¿Podrían estos algoritmos, por ejemplo, promover valores sociales como la participación política, la salud mental o la conexión social? El equipo probó la idea empíricamente en un nuevo artículo que se publicará en Proceedings of the ACM on Human-Computer Interaction en abril de 2024. Bernstein, Hancock y un grupo de profesores de HAI de Stanford también exploraron esa idea en un artículo de opinión reciente . Para su experimento, los investigadores intentaron disminuir la animosidad partidista incorporando valores democráticos en un algoritmo de clasificación de feeds. "Si podemos hacer mella en este valor tan importante, tal vez podamos aprender cómo utilizar las clasificaciones de las redes sociales para afectar otros valores que nos importan", dice Michelle Lam , estudiante de posgrado de cuarto año en ciencias de la computación en la Universidad de Stanford y compañera. -autor principal del estudio. El proyecto, apoyado por una beca Stanford HAI Hoffman-Yee , requirió traducir conceptos de ciencias sociales sobre valores democráticos en objetivos algorítmicos; crear un feed que implementara el modelo de valores democráticos; y probar su impacto en la animosidad partidista de la gente. El resultado: el equipo encontró una menor animosidad partidista entre las personas a las que se les mostró un feed que rebajaba (o eliminaba y reemplazaba) publicaciones que expresaban actitudes altamente antidemocráticas. Además, los usuarios estaban tan comprometidos con el feed optimizado para los valores democráticos como con un feed basado en la participación. "Esa debería ser una noticia interesante para la industria porque sugiere que un algoritmo de clasificación de feeds basado en valores sociales no comprometerá la participación de los usuarios", dice Chenyan Jia , profesor asistente en la Universidad Northeastern, ex becario postdoctoral en Stanford y co- autor principal del estudio. Creación de una función objetivo social Muchos sistemas de IA están capacitados para optimizarse para lograr un objetivo específico conocido como función objetivo. En el caso de los algoritmos de redes sociales, la función objetivo normalmente se optimiza para lograr la participación. Pero para este proyecto, el equipo de investigación propuso crear una función objetivo social, que requería traducir los valores democráticos en un modelo que una computadora pudiera optimizar. Aunque esa tarea puede parecer abstracta o subjetiva, dice Lam, el equipo pudo aprovechar el trabajo de ciencias sociales que define claramente los valores antidemocráticos que persisten en encuestas y análisis de contenido. Específicamente, los investigadores utilizaron definiciones establecidas de ocho de esos valores: animosidad partidista, apoyo a prácticas antidemocráticas, apoyo a la violencia partidista, apoyo a candidatos antidemocráticos, oposición al bipartidismo, desconfianza social, distancia social y evaluación sesgada de hechos politizados. Para cada valor antidemocrático, el equipo desarrolló tres criterios para determinar si el valor estaba presente en una publicación en las redes sociales. A cada publicación se le asignó una calificación del 1 al 3 según el número de criterios que se cumplieron. Por ejemplo, las publicaciones con calificaciones numéricas más bajas podrían simplemente expresar un punto de vista partidista, mientras que las publicaciones con calificaciones más altas a menudo eran activamente antagónicas hacia la otra parte o amplificaban emociones negativas. Luego, el equipo creó un feed de redes sociales de 60 publicaciones llamado PolitiFeed con siete condiciones diferentes que incluyen: un feed basado en la participación; un feed con advertencias de contenido; un feed con publicaciones altamente antidemocráticas rebajadas; y un feed con publicaciones antidemocráticas eliminadas y reemplazadas. Utilizando una plataforma de crowdsourcing, probaron el impacto de estos feeds en 1380 participantes del estudio. El resultado: menor animosidad partidista entre demócratas y republicanos que leen el feed de degradación o el feed de eliminación y reemplazo en comparación con aquellos que leen el feed basado en la participación. Para ampliar su esfuerzo, el equipo recurrió a un modelo de lenguaje grande, GPT-4, para ver si podía calificar las publicaciones en las redes sociales con tanta eficacia como lo había hecho el equipo manualmente. Adoptaron un enfoque de “tiro cero”, lo que significa que en lugar de entrenar el sistema de inteligencia artificial con ejemplos, dieron instrucciones en un lenguaje sencillo que describían cómo calificar las ocho medidas de valores antidemocráticos en su escala de 3 puntos. El resultado: las clasificaciones algorítmicas de GPT-4 estaban altamente correlacionadas con las clasificaciones manuales y, quizás lo más importante, su implementación en las redes sociales aún generó una reducción de la animosidad partidista. Además, los usuarios encontraron los distintos feeds igualmente atractivos, lo que sugiere que los usuarios seguirán haciendo clic incluso si las empresas implementan funciones objetivas para la sociedad. Además, el equipo descubrió que las advertencias de contenido resultaban contraproducentes porque planteaban preocupaciones sobre la libertad de expresión entre los conservadores. En particular, el feed de degradación y el feed de eliminación y reemplazo son más efectivos para reducir la animosidad entre las personas que son débilmente partidistas que entre aquellas que son fuertemente partidistas. Direcciones futuras Actualmente, el equipo está trabajando en un experimento longitudinal y a gran escala en un entorno más natural: implementar el modelo de valores democráticos en las redes sociales de las personas en tiempo real para ver si tendrá algún impacto. "Las redes sociales actuales ya incorporan valores, pero a menudo se definen implícitamente", dice Lam. De cara al futuro, el equipo quiere realizar más trabajos empíricos que implementen explícitamente funciones objetivas sociales en el contexto de las redes sociales y midan su impacto. "Deberíamos experimentar con diferentes valores, como el bienestar mental o la sostenibilidad ambiental, y también cómo se compensan entre sí", dice Lam. "Eso es especialmente importante a medida que nos mudamos a diferentes comunidades que pueden tener diferentes normas y necesidades". Lea el estudio Incorporación de valores democráticos en las IA de las redes sociales a través de funciones de objetivos sociales https://arxiv.org/abs/2307.13912