Davos 2024: Seis conclusiones sobre la conversación sobre IA en el WEF

foto-resumen

Por Shana Lynch En el Foro Económico Mundial 2024 en Davos, Suiza, las conversaciones sobre IA dominaron los paneles de discusión y las conversaciones de café entre ejecutivos, economistas, académicos, representantes de ONG y funcionarios gubernamentales. Líderes de OpenAI, DeepMind de Google, Microsoft, Meta y más hicieron apariciones, mientras los asistentes discutían el impacto masivo de la tecnología en la naturaleza del trabajo, la estrategia comercial y la productividad. El subdirector de Stanford HAI, James Landay , asistió a las actividades de la semana y participó en una docena de paneles con ejecutivos corporativos de compañías Fortune 500, así como líderes de organizaciones sin fines de lucro. "La IA fue el tema dominante", dijo. "Muchas empresas vendían IA o la implementaban". Aquí están sus seis ideas principales sobre la IA extraídas de las conversaciones de la semana: IA FOMO El miedo a perderse algo era fuerte entre los asistentes, dice Landay. Los paneles del año pasado se centraron en la experimentación con IA; este año, sobre la implementación de la IA. “Hubo un poco de miedo de 'no te quedes atrás', pero lo tomaría con cautela”, dijo Landay. "Las empresas están bien si todavía intentan hacerlo bien". La buena IA es compleja: requiere datos limpios y de alta calidad; ajuste de modelos de cimentación; implementación reflexiva y responsable. "Muchas empresas aún no están en condiciones de utilizar la IA de esta manera". En un panel, Landay sugirió que los líderes probaran un enfoque ascendente: permitir que los empleados utilicen herramientas de IA generativa internamente y explorar usos potenciales de la tecnología. “Los empleados serán quienes propongan excelentes casos de uso que las empresas tal vez quieran implementar a mayor escala. Algunas empresas ni siquiera permiten todavía esta experimentación, aunque sus empleados lo hacen en su propio tiempo”. Riesgos reales de la IA Menos conversaciones en Davos este año se centraron en la IA sobrehumana o sensible enloquecida, dijo Landay. Pero las conversaciones no se centraron lo suficiente en los riesgos reales y actuales de la IA, a los que se refiere como las cuatro “D”: deepfakes, desinformación, discriminación y (potencial) desplazamiento de empleos. Los deepfakes ya se están introduciendo en la vida cotidiana (pensemos en las llamadas automáticas falsas de “Biden” en New Hampshire) y el vídeo y el audio generativos siguen mejorando. De manera similar, la desinformación puede influir en los votantes en un año electoral importante. Las campañas de desinformación que antes requerían cientos de personas ahora se pueden crear y prescindir de dos personas y una IA, señaló. Y si bien la discriminación en la IA no es nueva (se ha demostrado que estos sistemas discriminan entre grupos demográficos de raza, género, edad y más), todavía no estamos mucho más cerca de solucionar muchos de estos problemas dañinos, dijo. Por último, es posible que la IA no elimine todos los empleos, dijo Landay, pero anticipa grandes desplazamientos y “las ganancias y pérdidas no se distribuirán de manera uniforme”, afirmó. Estos cuatro riesgos reales necesitan un enfoque centrado en el ser humano, advirtió: “Los sistemas de IA impactan más que solo al usuario directo. Impactan a la comunidad en general y tienen un impacto social. Si nos centramos en estos efectos secundarios desde el principio y diseñamos teniendo en cuenta a esos grupos más grandes, tenemos más posibilidades de crear sistemas de IA que tengan un impacto positivo”. Generar confianza en la IA En Davos, el concepto de confianza influyó tanto en los paneles como en las cenas. ¿Cómo recuperamos la confianza en las organizaciones? ¿Cómo confiamos en la IA? Una falla importante de la IA es que hay pocas herramientas y las empresas aceptan y actúan en función de los comentarios. "Si un sistema comete un error y no puedo corregirlo ni obtener comentarios de la empresa, es posible que no confíe en ellos en el futuro", afirma Landay. La academia debe desempeñar un papel Hoy en día, sólo las empresas o naciones más grandes y ricas construyen modelos básicos de IA. Ellos deciden cómo construirlo, para quién y con qué incentivo. Ni siquiera sabemos con qué datos se entrenan estos modelos. "La academia necesita ser un actor aquí, como un terreno neutral para reconocer algunas de estas cuestiones y desarrollar sistemas de una manera diferente", dijo Landay. “La academia también es un actor interdisciplinario: tenemos expertos en derecho, medicina, historia, ciencias sociales, informática, arte y diseño, que se reúnen para hacer preguntas, en lugar de empresas de tecnología centradas principalmente en el afán de lucro. Necesitamos que el mundo académico y las organizaciones no gubernamentales tengan voz y participen en este juego y cuestionen esta dinámica de poder”. Las empresas reconsideran el desarrollo de productos La IA desafía a las empresas de una manera que otros productos no lo han hecho. En años anteriores, las empresas podrían lanzar una herramienta de inteligencia artificial para descubrir más tarde que discrimina a un grupo de personas. Este año, Landay escuchó a más ejecutivos hablar sobre equipos de IA que incluyen expertos en ética y diseño al principio, con procesos mucho más complicados implementados antes del lanzamiento. "Un par de empresas realmente me llamaron la atención porque estaban pensando en esto de verdad", dijo. "La gente parecía abierta a aprender más sobre cómo podrían hacerlo mejor porque creo que no quieren sufrir consecuencias negativas si lo hacen mal". Regulación: una mezcla de cosas En cualquier reunión sobre quién es quién del capitalismo, la regulación suena como una maldición. Y, por supuesto, a muchos asistentes les preocupaba cómo la nueva regulación de la UE podría sofocar la innovación o afianzar a los actores más importantes. Pero Landay escuchó a muchas personas hablar muy bien de los esfuerzos para limitar esta tecnología en crecimiento. "Mucha gente simplemente no sabe cómo hacerlo bien para que las regulaciones puedan adaptarse, ser útiles y no quedar obsoletas cada vez que la IA avanza".