La máquina de desinformación: ¿Cuán susceptibles somos a la propaganda de la IA?

foto-resumen

Por Dylan Walsh Michael Tomz , profesor de ciencias políticas en la Escuela de Humanidades y Ciencias de Stanford y profesor afiliado del Instituto Stanford para la IA centrada en el ser humano (HAI), dio recientemente una charla en Taiwán sobre el uso de la IA para generar propaganda. Esa mañana, recordó, vio un titular en el Taipei Times que informaba que el gobierno chino estaba utilizando publicaciones en las redes sociales generadas por IA para influir en los votantes en Taiwán y Estados Unidos. “Ese mismo día, el periódico estaba documentando que el gobierno chino estaba haciendo exactamente lo que yo estaba presentando”, dijo Tomz. La propaganda de la IA está aquí. ¿Pero es persuasivo? Una investigación reciente publicada en PNAS Nexus y realizada por Tomz, Josh Goldstein del Centro de Seguridad y Tecnología Emergente de la Universidad de Georgetown y tres colegas de Stanford (el estudiante de maestría Jason Chao , el investigador Shelby Grossman y el profesor Alex Stamos) examinó la efectividad de la IA. -propaganda generada. En resumen, descubrieron que funciona. Cuando los grandes modelos lingüísticos mienten Los investigadores llevaron a cabo un experimento, financiado por HAI, en el que los participantes fueron asignados a uno de tres grupos. El primer grupo, el de control, leyó una serie de declaraciones de tesis sobre temas que propagandistas conocidos quieren que la gente crea. “La mayoría de los ataques con aviones no tripulados estadounidenses en Medio Oriente han tenido como objetivo a civiles, más que a terroristas”, por ejemplo. O “las sanciones occidentales han provocado una escasez de suministros médicos en Siria”. Debido a que este grupo leyó solo estas declaraciones y ninguna propaganda relacionada con ellas, proporcionó a los investigadores una comprensión básica de cuántas personas creen en estas afirmaciones. El segundo grupo de participantes leyó propaganda elaborada por humanos escrita sobre el tema de las declaraciones de tesis y luego descubierta por periodistas o investigadores de investigación. El tercer grupo recibió propaganda sobre los mismos temas que los grupos uno y dos que habían sido generados por el modelo de lenguaje grande GPT-3. Los investigadores encontraron que aproximadamente una cuarta parte del grupo de control estaba de acuerdo con las declaraciones de tesis sin leer ninguna propaganda sobre ellas. La propaganda escrita por humanos aumentó esta proporción al 47 por ciento, y la propaganda escrita por IA al 43 por ciento. "Luego modificamos el proceso de IA agregando humanos al circuito", dijo Tomz. "Hicimos que la gente editara la entrada (el texto utilizado para generar el modelo de lenguaje) y seleccionara la salida descartando los artículos que no lograban transmitir el mensaje deseado". Con estos pasos adicionales, casi el 53 por ciento de las personas estuvieron de acuerdo con las declaraciones de tesis después de leer la propaganda, un efecto mayor que cuando la propaganda fue escrita solo por humanos. ¿Qué tan amplio es el impacto? Las implicaciones inmediatas de la propaganda persuasiva generada por la IA no son obvias. "Es importante tener en cuenta que analizamos cuestiones de política exterior, en las que la gente puede no tener conocimientos especiales o no tener una decisión tomada", dijo Goldstein. "La propaganda generada por IA podría mover menos las opiniones cuando hablamos de algo como el candidato preferido de un votante en una elección en un sistema bipartidista", en el que la mayoría de la gente ha tomado una decisión firme. Dicho esto, Tomz señaló que las elecciones, junto con muchas otras cuestiones, a menudo se deciden en los márgenes, lo que significa que los efectos pequeños pueden, en última instancia, tener consecuencias. Además de eso, los resultados que encontraron son, por varias razones, probablemente una subestimación de cuán persuasiva podría ser la propaganda generada por IA. Por un lado, el experimento se realizó cuando GPT-3 era la tecnología líder entre los modelos de lenguaje. Si los investigadores volvieran a realizar el estudio hoy con un modelo más nuevo, como GPT-4, la propaganda generada por IA probablemente sería más persuasiva y requeriría menos intervención humana. Los autores también hicieron que la gente leyera un solo pasaje de propaganda; pero la propaganda es más efectiva mediante la exposición repetida, lo que el texto generado por IA hace posible prácticamente sin costo alguno. La eficiencia de hacer que la IA escriba propaganda también libera a los humanos para gastar recursos en otros frentes de una campaña, como crear cuentas falsas en las redes sociales. Sin embargo, quizás lo más preocupante sea el aumento del contenido visual y de audio generado por IA, una tecnología que era fácil de detectar cuando se llevó a cabo este experimento, pero que rápidamente se está volviendo difícil de distinguir de la realidad. Existen medidas individuales y regulatorias que se pueden implementar para ayudar a mitigar los peligros potenciales de la propaganda generada por IA. Los métodos técnicos que utilizan las empresas de redes sociales para detectar cuentas falsas pueden funcionar igual de bien incluso si las publicaciones son creadas por IA, por ejemplo, y las intervenciones en torno a la alfabetización mediática tradicional podrían ayudar a las personas a distinguir las noticias reales de las falsas. Aún así, Tomz expresó gran preocupación por la próxima frontera de la propaganda. "Los deepfakes son probablemente más persuasivos que el texto, más propensos a volverse virales y probablemente posean mayor plausibilidad que un solo párrafo escrito", dijo. "Estoy extremadamente preocupado por lo que sucederá con el video y el audio".