Aumenta la tensión en redes sociales por la invasión de bots

foto-resumen

Por Enaitz Ezpeleta Gallastegi Docente e investigador en Análisis de Datos y Ciberseguridad, Mondragon Unibertsitatea ¿Es posible que el Papa Francisco sea seguidor de Donald Trump? Así se afirmó y difundió masivamente en Facebook (más de un millón de interacciones) durante las presidenciales del 2016. Noticias falsas como esta se propagan rápidamente en redes sociales. Una expansión que, en gran medida, se realiza utilizando robots (bots). Funcionan sin intervención humana El ecosistema de las redes sociales es un espacio que está evolucionando a una velocidad vertiginosa. En ese proceso, una de las tendencias más preocupantes de los últimos años es la proliferación de robots (bots). Se trata de cuentas automatizadas cada vez más sofisticadas, en gran medida gracias a los avances en inteligencia artificial (IA) y sobre todo a la IA generativa. Pero ¿es posible una invasión completa de bots de las redes sociales? Actualmente, existen redes sociales exclusivas para bots, como por ejemplo Chirper. Esto demuestra que la interacción humana no es necesaria para el funcionamiento de una red social. Los bots son programas diseñados para automatizar tareas, generalmente simulando el comportamiento de un ser humano online. Estos programas operan de forma autónoma, siguiendo instrucciones predefinidas ante diferentes escenarios posibles. Gracias a ello, son capaces de ejecutar tareas repetitivas de forma rápida e ininterrumpida con una mínima interacción humana. Los mensajes trampa Por ejemplo, en Telegram se pueden encontrar bots que diseñan al usuario campañas de phishing personalizadas. Campañas que engañan a los usuarios haciéndose pasar por empresas u organizaciones reputadas. Las identidades de BBVA o Banco Santander han sido utilizadas para este tipo de campañas recientemente, tal y como alertó Incibe (Instituto Nacional de Ciberseguridad), infectando a miles de usuarios a través de mensajes trampa. Por si eso fuera poco, la irrupción de las tecnologías de IA generativa ha aumentado significativamente la potencialidad de estos bots. Estas tecnologías han permitido a los bots crear texto, imágenes y vídeos de alta calidad más convincentes y parecidos a lo que cualquier usuario real crearía. Actualmente, pueden crear respuestas personalizadas, seguir conversaciones e incluso adaptar el comportamiento dependiendo del contexto. Estas características hacen que sean herramientas muy útiles para tareas legítimas como por ejemplo servicios de atención al cliente, aprendizaje de idiomas o asistentes virtuales. Duolingo, OK Google o Siri pertenecen a este tipo de tecnologías. Pero esa potencialidad causa el incremento de bots con objetivos maliciosos que, en el caso de las redes sociales, afectan a la experiencia de usuario. Quien te pide amistad es un robot ¿Quién no ha recibido una petición de amistad o un follow de una cuenta desconocida? Aunque parezca algo inofensivo, este sencillo paso (siempre que aceptemos) ofrece a los atacantes acceso directo a muchos de nuestros datos. Datos que pueden ser utilizados para campañas fraudulentas, tal y como demuestran diferentes investigaciones, mejorando la tasa de éxito de estas campañas significativamente. La mayoría de estas peticiones suelen ser realizadas por bots de forma automática y masiva. Los bots son capaces de crear y propagar información falsa, tanto para campañas de spam como para manipular la opinión pública. Pero también crean redes de bots para seguir, dar “me gusta”, responder o compartir información que uno de los bots o cualquier otro usuario ha publicado, siempre con el objetivo de amplificar el impacto dentro de la red social. Por ejemplo, plataformas como Kenji ofrecen un bot para Instagram que proporciona ayuda para conseguir más followers y likes utilizando inteligencia artificial, tergiversando la realidad. El reto de la detección La detección tradicional de bots se basa en el análisis de las características de la cuenta (como la edad o el nombre de usuario), los patrones de comportamiento (frecuencia de publicación, contenido repetitivo) y el contenido lingüístico que generan. Afortunadamente, al mismo tiempo que la IA les da más poder para expandirse y engatusarnos, también ha proporcionado técnicas y modelos más potentes para detectarlos. Los modelos entrenados con datos reales de bots y usuarios humanos aprenden a discriminar entre ambos. Los bots se agrupan Los investigadores también analizan la estructura y la actividad de la red social en torno a las cuentas sospechosas. Los bots suelen formar grupos numerosos con otros bots o mostrar patrones de influencia inusuales. Para descubrir estas conexiones ocultas, los enfoques más recientes utilizan análisis basados en gráficos. Los creadores de bots sociales adaptan incesantemente sus tácticas, lo que convierte su detección en una carrera continua. Además, sigue resultando difícil obtener conjuntos de datos fiables de bots reales para entrenar modelos de IA con ellos. A pesar de estos retos, la investigación sobre la detección de bots sociales sigue siendo vital. A medida que aumenta la sofisticación de los bots, también deben hacerlo las herramientas desarrolladas para descubrirlos. Proteger la integridad de la información en línea y el discurso social depende de ello. Es posible que esta evolución y la dificultad de detectar bots nos lleve a un escenario donde cada vez menos usuarios utilizarán las redes sociales. Pero mientras tanto, será necesario focalizar los esfuerzos también en educar a los usuarios y la sociedad en un uso adecuado y responsable de estos espacios. Concienciación, formación e investigación deberían ser los pilares sobre los cuales seguir trabajando para evitar la conquista total de las redes por los robots.