Lo que Davos dijo sobre la IA este año

foto-resumen

Por Shana Lynch La inteligencia artificial dominó los debates del Foro Económico Mundial de Davos de este año, desde mesas redondas a puerta cerrada sobre gobernanza hasta paneles de alto nivel sobre transformación empresarial. El codirector de Stanford HAI, James Landay, y Vanessa Parli , directora general de programas y participación externa de HAI, participaron en la cumbre de una semana, contribuyendo a las conversaciones en las conferencias magistrales, paneles y reuniones con las partes interesadas. A lo largo de la semana, se escuchó un tema recurrente: el entusiasmo por la IA sigue siendo alto, pero el tono ha cambiado del bombo publicitario a una implementación efectiva en el mundo real. Los líderes presionan para lograr un impacto tangible y una responsabilidad más clara. La geopolítica también cobró gran importancia, influyendo en los debates sobre la "IA soberana", los ecosistemas abiertos y los riesgos de depender excesivamente de un solo país o empresa. A continuación, Landay y Parli comparten lo que escucharon (y lo que enfatizaron) en esta conversación sobre Davos y las ideas que dominaron la agenda de IA. ¿Cuál fue el estado de ánimo en torno a la IA en Davos este año? James Landay: La gente sigue siendo optimista, pero más realista. En comparación con años anteriores, parecía que menos gente decía: "Experimenten con todo". Más decían: "Necesitamos que la IA genere resultados reales ahora". El entusiasmo sigue ahí, pero hay más presión para demostrar qué funciona. Vanessa Parli: Seguíamos escuchando mucho entusiasmo sobre lo que se puede lograr con la IA, pero también me alegró escuchar a los líderes de la industria preguntar: ¿cómo podemos convertir la IA responsable en un argumento comercial? Esto es importante en un momento en que la confianza pública en la IA, especialmente en los países occidentales, es bastante baja. ¿Qué factor de la “IA externa” influyó más en las conversaciones? Landay: La presencia y los comentarios del presidente Trump, sobre todo en torno a Groenlandia, proyectaron cierta sombra. La gente se preguntaba sinceramente: "¿Qué está pasando?". Esto alimentó directamente una conversación que ya se estaba gestando: la IA soberana y qué sucede si los socios (o mercados) no son confiables. La "IA soberana" surgió con frecuencia. ¿A qué se refería la gente? Landay: Significaba cosas diferentes para cada persona. A grandes rasgos, muchos hablaban de que los países querían un mayor control sobre el futuro de su IA, a menudo en respuesta a la incertidumbre geopolítica y al dominio de las grandes empresas tecnológicas. Lo que intenté enfatizar es: primero, definir los objetivos. Nuestro equipo de políticas de IA ha estado analizando esto, y un enfoque útil es que los países a menudo buscan la soberanía para proteger aspectos como la seguridad nacional, la seguridad económica y la prosperidad, los valores culturales y otros objetivos nacionales de resiliencia. Los países pueden entonces elegir dónde enfocarse en la "pila de IA", como la computación (GPU, centros de datos), los datos, los modelos, las aplicaciones y el talento. Cada país prioriza diferentes capas según sus objetivos. Parli: HAI trabaja actualmente en una investigación para ayudar a definir los diferentes ángulos de la soberanía de la IA y los beneficios de cada uno: describe su significado, sus componentes y las ventajas de los distintos enfoques. Generar perspectivas basadas en la investigación es esencial para que los países tomen buenas decisiones. ¿Estás de acuerdo con la versión de IA soberana de “construir nuestro propio modelo”? Landay: No como la única opción. Gran parte del debate asume que la soberanía significa: "Lo controlamos todo, así que debemos construir nuestros propios modelos". Argumenté que hay otra vía: el código abierto: desarrollar capacidades compartidas a nivel internacional para que ninguna empresa o país las controle. Parli: HAI generalmente se inclina por un ecosistema abierto: los datos y modelos abiertos ayudarían a generar transparencia y confianza en la tecnología y a acelerar la innovación. Para que un país pueda apreciar los verdaderos beneficios de la tecnología, los usuarios deben confiar en ella. ¿HAI está haciendo algo concreto en esa dirección? Landay: Sí. Hemos anunciado un memorando de entendimiento con la ETH de Zúrich y la EPFL, nuestro primer socio en un esfuerzo global más amplio para colaborar en modelos abiertos y trabajos relacionados. También estamos en conversaciones con otros gobiernos y centros de investigación. ¿Cómo pensaba la gente sobre la IA y la naturaleza cambiante del trabajo? Landay: El retorno de la inversión (ROI) de la IA se mencionó mucho. Oí menos sobre la sustitución de trabajadores y mucho más sobre la ampliación de personal y la transformación de los procesos de trabajo. La gente decía: «Si tengo IA, ¿cómo cambia el proceso de trabajo y su diseño, cómo cambian los roles, qué nuevos productos podríamos desarrollar?». Alguien dio un gran ejemplo: «Si la IA toma decisiones sobre préstamos en cinco minutos en lugar de cinco días, ¿cómo cambia eso su producto y qué posibilidades ofrece a los clientes?». En años anteriores, escuchamos tanta propaganda que si no nos adentrábamos rápidamente en la IA, estaríamos perdidos. Este año, la gente empieza a darse cuenta de que, bueno, tenemos que hacerlo, pero debemos hacerlo con inteligencia o no traerá beneficios reales. ¿Dónde está el apuro para los trabajadores? Landay: En una charla, escuché a un ejecutivo de una importante unidad de negocio de una de las principales empresas tecnológicas decir que le habían encomendado hacer crecer su parte del negocio en unos 40 mil millones de dólares durante los próximos tres a cinco años, sin aumentar la plantilla. Esto significa que, aunque no están despidiendo, tampoco están contratando. Usarán IA para mejorar la productividad personal de todos. La principal conclusión es que, si bien quizás evitemos despidos masivos en este tipo de empresas, no habrá muchos nuevos empleos en el futuro. Si yo fuera recién graduado, estaría preocupado. Sin embargo, a largo plazo, tanto yo como otros seguimos siendo optimistas sobre la posibilidad de que la IA cree más empleos. Mucha gente hablaba de los agentes de IA. ¿Qué opinas? Landay: El concepto de "agentes" surgió de dos maneras: una implementación práctica dentro de las empresas (algo que ya está ocurriendo) y una visión más amplia de muchos agentes independientes que negocian información y dinero a través de la internet abierta. Soy más cauteloso con esto último, especialmente cuando se trata de datos personales o financieros. Aún se necesita investigación e infraestructura importantes antes de que se convierta en algo en lo que la gente confíe ampliamente. En sus propios paneles de discusión, ¿qué enfatizaron? Parli: Recordé que, si bien la IA ofrece muchas oportunidades, no está garantizada, y debemos reflexionar críticamente sobre su diseño e implementación. Se necesitan muchas voces en la conversación para garantizar que la IA beneficie a todos. Landay: Si queremos que la IA tenga éxito y sea socialmente beneficiosa, necesitamos tres cosas, y ninguna de ellas por sí sola es suficiente: Un proceso de diseño que tiene en cuenta a la comunidad y a la sociedad además de estar centrado en el usuario: esto es lo que considero IA centrada en el ser humano. Educación ética y normas profesionales para las personas que construyen estos sistemas. Regulación, políticas y leyes, porque algunos actores tomarán atajos o harán trampa, y la sociedad necesita mecanismos para responder, como lo hacemos en otras industrias. Los tres son importantes. E incluso con los tres, seguirá habiendo problemas: necesitamos expectativas realistas y la capacidad de reaccionar cuando las cosas salen mal.