Qué esperar de la IA en 2024

foto-resumen

Por Shana Lynch El año pasado marcó importantes avances en la IA generativa a medida que términos como ChatGPT y Bard se convirtieron en nombres conocidos. Las empresas realizaron importantes inversiones en nuevas empresas de IA (los 10 mil millones de dólares de Microsoft en OpenAI, los 4 mil millones de dólares de Amazon en Anthropic, por nombrar sólo dos), mientras los principales investigadores y directores ejecutivos de IA debatían la probabilidad de que AGI apareciera en los titulares. Mientras tanto, los formuladores de políticas comenzaron a tomar en serio la regulación de la IA: la UE presentó el conjunto de políticas más completo que rige la tecnología hasta el momento y la Administración Biden publicó una Orden Ejecutiva integral que detalla 150 requisitos para las agencias federales . ¿Hemos alcanzado el pico de IA? No, dicen varios académicos de Stanford. Espere modelos más grandes y multimodales, nuevas capacidades interesantes y más conversaciones sobre cómo queremos usar y regular esta tecnología. Aquí hay siete predicciones de profesores y miembros senior de Stanford HAI. Turnos de trabajo de cuello blanco Espero una adopción masiva por parte de las empresas que comenzarán a ofrecer algunos de los beneficios de productividad que hemos estado esperando durante mucho tiempo. Va a afectar a los trabajadores del conocimiento, personas que en gran medida se han salvado de gran parte de la revolución informática de los últimos 30 años. Los trabajadores creativos, abogados, profesores de finanzas y más verán sus trabajos cambiar bastante este año. Si lo adoptamos, debería mejorar nuestro trabajo y permitirnos hacer cosas nuevas que no podríamos haber hecho antes. Rara vez automatizará completamente algún trabajo; principalmente aumentará y ampliará lo que podemos hacer. Erik Brynjolfsson , Director del Laboratorio de Economía Digital de Stanford; Jerry Yang y Akiko Yamazaki, profesor y miembro principal de Stanford HAI; Ralph Landau Miembro principal, Instituto Stanford para la Investigación de Política Económica Proliferación de deepfakes Espero ver grandes modelos multimodales nuevos, particularmente en la generación de video. Por lo tanto, también tendremos que estar más atentos a los deepfakes graves: veremos la difusión de vídeos en los que la gente “dice” cosas que nunca dijeron. Los consumidores deben ser conscientes de ello, los votantes deben ser conscientes de ello. También veremos legislación. La UE está adoptando su posición final para promulgar normas generalizadas sobre IA. Hay idas y venidas sobre si esto afectará a las grandes empresas tecnológicas estadounidenses y sus modelos, pero disminuirá muy pronto, en 2024. En el caso de EE. UU., probablemente no veremos una regulación importante. El Congreso no aprobará mucha legislación de cara a un año electoral. Veremos más startups y otras empresas como OpenAI lanzando los próximos modelos más grandes, y veremos nuevas capacidades. Seguiremos viendo muchas controversias sobre “¿Es esto AGI? ¿Y qué es AGI? Creo que la gente no debería preocuparse de que la IA se apodere del mundo. Todo eso es exageración. Pero deberíamos preocuparnos por estos daños que están ocurriendo ahora: la desinformación y los deepfakes. Seguramente veremos más de eso en 2024. James Landay , Profesor Anand Rajaraman y Venky Harinarayan, Facultad de Ingeniería, Profesor de Ciencias de la Computación, Universidad de Stanford; Vicedirector y director de investigación de la facultad, Stanford HAI Escasez de GPU Me preocupa la escasez global de disponibilidad de procesadores GPU, los procesadores especiales en los que se ejecuta gran parte de la IA. Las grandes empresas (y muchas más) están intentando incorporar capacidades de IA internamente, y hay una cierta tendencia hacia las GPU. Hay algunas empresas que los fabrican (NVIDIA es la principal) y es posible que estén al máximo de su capacidad. Se trata de una cuestión de competitividad para las empresas, pero también para países enteros que no quieren perderse las innovaciones en IA. Esto creará una enorme presión no sólo para aumentar la producción de GPU, sino también para que los innovadores encuentren soluciones de hardware que sean más baratas y más fáciles de fabricar y usar. Hay mucho trabajo en ingeniería eléctrica en Stanford y otros lugares sobre alternativas de bajo consumo a las GPU actuales. Algunos de mis colegas, incluidos Kunle Olukotun y Chris Re, están realizando esfuerzos en esta área. Además, uno de los proyectos Hoffman-Yee de Stanford HAI se centra en esta dirección . Ese trabajo aún está lejos en términos de disponibilidad masiva y comercialización, pero habrá una enorme presión para acelerar dichos esfuerzos a fin de democratizar el acceso a las tecnologías de IA. Russ Altman , profesor Kenneth Fong y profesor de bioingeniería, genética, medicina, ciencia de datos biomédicos y miembro senior de Stanford HAI Agentes más útiles Estoy buscando dos cosas. Uno de ellos es el aumento de agentes y la posibilidad de conectarse a otros servicios para hacer cosas. 2023 fue el año de poder chatear con una IA. Varias empresas lanzaron algo, pero la interacción siempre fue que usted escribe algo y él escribe algo. En 2024, veremos la posibilidad de que los agentes hagan cosas por usted. Haga reservas, planifique un viaje, conéctese a otros servicios. Además, creo que daremos pasos hacia la multimedia. Hará falta más de un año. Hasta ahora hemos visto un gran enfoque en los modelos de lenguaje y luego en los modelos de imágenes. En algún momento, también tendremos suficiente potencia de procesamiento para hacer videos. Será realmente interesante, porque lo que estamos entrenando ahora es muy intencional. Las personas escriben en páginas y párrafos lo que creen que es interesante e importante. Las fotografías se toman cuando alguien hace clic en el obturador, apunta la cámara y piensa que algo está sucediendo. Con video, algunos serán así. La gente hace películas que cuentan historias de la misma manera que lo hace el texto. Pero hay cámaras que están encendidas 24 horas al día, 7 días a la semana y están captando lo que sucede tal como sucede sin ningún filtro, sin ninguna intencionalidad. Los modelos de IA no habían tenido ese tipo de datos antes. Esos modelos simplemente comprenderán mejor todo. Peter Norvig , miembro distinguido de educación en Stanford HAI Esperanzas de regulación estadounidense Valdrá la pena observar la política de IA en 2024. Vimos el mayor progreso en 2023 hasta la fecha. En julio, el Congreso presentó la Ley CREATE AI, bipartidista y bicameral, para brindar a estudiantes e investigadores acceso a recursos, datos y herramientas de IA. Obtuvo un amplio apoyo porque promete ampliar el acceso al desarrollo de la IA. Luego, a finales de octubre, el presidente Biden firmó una Orden Ejecutiva (EO) sobre el desarrollo y uso seguro y confiable de la inteligencia artificial que demuestra el compromiso de su administración no solo de fomentar un ecosistema de IA vibrante sino también de aprovechar y gobernar la tecnología. . Espero que en 2024 veamos actuar al Congreso. Necesitan aprobar leyes como la Ley CREATE AI, adherirse a los elementos exigidos por la nueva EO e invertir más en el sector público para garantizar el liderazgo de Estados Unidos en la creación de tecnología de IA impregnada de los valores que defendemos. Fei-Fei Li , profesora Sequoia en el Departamento de Ciencias de la Computación y codirectora de Stanford HAI. Hacer grandes preguntas y aplicar nuevas políticas Una de mis esperanzas para 2024 es que podamos tener los medios para seguir planteando las preguntas difíciles, las preguntas críticas sobre lo que queremos de la inteligencia artificial en nuestras vidas, en nuestras comunidades, en la educación, en nuestra sociedad. No creo que hayamos visto nunca un año como éste. Cada vez más tipos de esta tecnología de IA generativa se integrarán y afianzarán en nuestro trabajo, juego y comunicación. ¿Cómo nos hace sentir este año con nosotros mismos? Creo que debemos darnos el tiempo y el espacio para articular lo que creemos que es permisible y dónde debemos poner los límites. Una de las primeras comprensiones sobre esta generación actual de IA fue en febrero de 2023, cuando Springer Publishing (editora de revistas académicas) emitió una declaración en la que decía que se pueden utilizar modelos de lenguaje grandes en la redacción de artículos, pero no se permitirán como coautores en cualquier publicación. Y la justificación que citaron, y creo que esto es muy importante, es la rendición de cuentas. Eso no significa que Springer esté atrapado en esto para siempre. Pero eso es muy importante: exponer algo en serio, comprender cuáles son sus fundamentos y decir que así es como nos encontramos ahora tal como lo entendemos y que en el futuro podremos agregar más matices a estas políticas. Y creo que las instituciones y organizaciones deben tener esa perspectiva y tratar de poner directrices en una página en 2024. Ge Wang, profesor asociado en el Centro de Investigación Informática en Música y Acústica (CCRMA) y miembro senior de Stanford HAI. Las empresas navegarán por regulaciones complicadas Gran parte de la atención sobre la regulación de la IA en 2023 se centró en la Ley de IA al otro lado del charco en la UE. Sin embargo, a mediados de 2024, dos estados de EE. UU. (California y Colorado) habrán adoptado regulaciones que aborden la toma de decisiones automatizada en el contexto de la privacidad del consumidor. Si bien estas regulaciones se limitan a los sistemas de IA que se entrenan o recopilan información personal de las personas, ambas ofrecen a los consumidores el derecho de optar por no utilizar la IA por parte de sistemas que tienen impactos significativos, como en la contratación o los seguros. Las empresas tendrán que empezar a pensar en lo que significa en el terreno que los clientes ejerzan sus derechos, especialmente en masa. ¿Qué sucede si usted es una empresa grande que utiliza IA para ayudarlo con su proceso de contratación e incluso cientos de empleados potenciales solicitan una opción de exclusión voluntaria? ¿Los humanos tienen que revisar esos currículums? ¿Garantiza un proceso diferente o mejor que el que ofrecía la IA? Apenas estamos comenzando a lidiar con estas preguntas. Jennifer King , becaria de política de datos y privacidad de Stanford HAI