Por Shana Lynch ¿Qué cambios transformadores en la IA podemos esperar en 2025? Según los principales expertos del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford, una tendencia importante es el auge de los sistemas de IA colaborativos en los que múltiples agentes especializados trabajan juntos y los humanos brindan orientación de alto nivel. Estas configuraciones imaginan equipos de IA que abordan problemas complejos en los ámbitos de la salud, la educación y las finanzas. Otros académicos esperan nuevos enfoques para la colaboración entre humanos e IA y una mayor presión sobre los desarrolladores para que demuestren los beneficios de la IA en el mundo real. Además, advierten los investigadores, la IA generativa probablemente aumentará el número de estafas sofisticadas al mismo tiempo que la regulación ya limitada en Estados Unidos puede debilitarse. Lea estas predicciones y otras más de académicos del ámbito de la informática, la medicina, las políticas y la educación. Agentes de IA, menos regulación Vamos a ver agentes de IA, los hemos visto un poco en la investigación, pero ahora los estamos viendo mucho en la investigación y en la industria. Básicamente, ¿cómo se juntan estos agentes para que hagan cosas por ti? Y ahora estamos viendo interfaces. Por ejemplo, hay una API con Claude de Anthropic que puede operar tu computadora para hacer cosas como poner una reunión en tu calendario o ayudarte a comprar un boleto de avión. Obviamente, tiene algunos riesgos: si realmente pueden usar tu computadora, pueden hacer daño, pueden cometer errores. Por lo tanto, hay preocupaciones sobre cómo se hace esto. Pero si bien las primeras versiones de este tipo de herramientas no tuvieron éxito, ahora estamos viendo más potencial. La otra gran historia, creo, es lo que yo llamaría asintótica. Los modelos grandes están mejorando lentamente. Hemos visto que los modelos grandes se lanzan a un ritmo más lento que antes, y siguen siendo impresionantes en lo que son capaces de hacer en determinados puntos de referencia, pero para muchas de estas tareas, están mejorando mucho más lentamente. ¿Sólo mejoramos ligeramente porque han utilizado tantos datos, y tal vez los datos sintéticos no han funcionado tan bien como algunas personas pensaban que lo harían? Y, de hecho, algunos de los modelos más nuevos pueden incluso ser peores en algunas tareas. Ahora bien, algunas personas se preguntan, ¿es el invierno de la IA? Pero estos modelos pueden hacer muchas cosas útiles, así que no creo que sea un invierno. Pero puede haber gente que esté trazando líneas rectas que vayan hacia arriba y hacia la derecha sobre la posibilidad de que las IA se apoderen del mundo o sean capaces de hacer todo, y creo que va a pasar mucho más tiempo hasta que alguien haga grandes avances en la arquitectura. Por último, con la nueva administración de Trump, esperaría una menor regulación de la IA en Estados Unidos. No teníamos mucha regulación, pero la orden ejecutiva de la administración Biden estableció pautas para gran parte del gobierno de Estados Unidos, lo que sí tiene impacto porque es un gran cliente de tecnología. Pero esperaría que la administración Trump reduzca algo de eso. Eso no significa que no habrá políticas o regulaciones de IA. Simplemente lo veremos por parte de otros actores como la UE o una regulación fragmentada de los estados: James Landay , codirector de HAI, profesor de Ciencias de la Computación y profesor de Anand Rajaraman y Venky Harinarayan en la Escuela de Ingeniería Más estafas, menos protección al consumidor Seguiremos viendo el uso indebido de la IA generativa para ayudar a cometer estafas, especialmente en lo que respecta a las falsificaciones de audio de las voces de las personas. Preveo que la administración entrante adoptará una postura más laxa que la administración actual a la hora de proteger al público de estas estafas. Si la Comisión Federal de Comercio pasa a un segundo plano, los fiscales generales estatales tendrán un papel más importante que desempeñar en la protección del consumidor. Los bancos y otras instituciones financieras, así como los proveedores de servicios de telefonía, correo electrónico e Internet, deberían intensificar sus esfuerzos para educar a sus clientes sobre estas estafas. En particular, ellos (así como las agencias gubernamentales) deberían asegurarse de proporcionar recursos en idiomas distintos del inglés, ya que los angloparlantes no son el objetivo exclusivo de las estafas: Riana Pfefferkorn , investigadora de políticas de HAI LLM en 'Contratista general' Comenzaremos a ver sistemas complejos para la resolución de problemas que están hechos de un conjunto de sistemas de IA que se comunican entre sí. Por ejemplo, imaginemos una serie de grandes modelos de lenguaje con conocimientos específicos (ajustes finos) que se combinan para resolver problemas. En algunos casos, pueden estar negociando entre sí; en otros, delegarán tareas en “maestros expertos en lenguaje” que devolverán las respuestas. Y así, habrá una especie de “maestros expertos en lenguaje” que se ocupará de los clientes humanos y subcontratará parte de la resolución de problemas a otros agentes que tengan conocimientos especializados. Los primeros casos en que surjan pueden incluir simulaciones complejas, toma de decisiones sanitarias, acuerdos financieros o programas educativos: Russ Altman , director asociado de HAI, profesor Kenneth Fong en la Facultad de Ingeniería y profesor de Bioingeniería, Genética, Medicina, Ciencia de Datos Biomédicos y (por cortesía) de Ciencias de la Computación. Escepticismo saludable en la inteligencia artificial educativa Espero que se preste más atención a los modelos de IA multimodales en la educación, incluido el procesamiento de voz e imágenes. Probablemente también veremos nuevos modelos específicos para la educación o perfeccionados y, con todo esto, un mayor escepticismo e interés en reunir evidencia sobre lo que realmente funciona, lo que realmente ayuda a los estudiantes a aprender mejor y a los maestros a educar de manera más eficaz: Dorottya (Dora) Demszky , profesora adjunta de Educación y (por cortesía) de Ciencias de la Computación Definiendo el valor de GenAI Dado el rápido desarrollo de la tecnología y los enormes desembolsos de capital , los desarrolladores de estas tecnologías se verán presionados a definir y verificar sus supuestos beneficios. En el ámbito de la atención sanitaria, la atención a la evaluación de los beneficios clínicos se hará más nítida ( sobre lo que escribimos recientemente en Nature ) y tendremos que idear formas de pensar que vayan más allá de una estrecha perspectiva de eficiencia o productividad como la que utilizamos actualmente. La evaluación comparativa compartida y transparente en línea con lo que hace el proyecto HELM de nuestro Centro de Investigación sobre el Modelo Fundacional se convertirá en algo común, de modo que se puedan tomar decisiones informadas sobre los supuestos beneficios del uso de la IA generativa en la atención médica: Nigam Shah , profesor de Medicina y de Ciencia de Datos Biomédicos en Stanford Medicine y científico jefe de datos de Stanford Health Care Los agentes de IA trabajan juntos En 2025, veremos un cambio significativo en la dependencia de modelos de IA individuales y en el uso de sistemas en los que varios agentes de IA con experiencia diversa trabajen juntos. Como ejemplo, recientemente presentamos el Laboratorio Virtual , en el que un profesor agente de IA lidera un equipo de agentes científicos de IA (por ejemplo, un químico de IA, un biólogo de IA) para abordar una investigación desafiante y abierta, con un investigador humano que proporciona retroalimentación de alto nivel. Al aprovechar la experiencia multidisciplinaria de diferentes agentes, el Laboratorio Virtual diseñó con éxito nuevos nanocuerpos que validamos como aglutinantes efectivos para las variantes recientes del SARS-CoV-2. De cara al futuro, predigo que muchas aplicaciones de alto impacto utilizarán este tipo de equipos de agentes de IA, que son más confiables y efectivos que un solo modelo. Estoy particularmente entusiasmado con el potencial de los equipos colaborativos híbridos en los que un humano lidera un grupo de diversos agentes de IA: James Zou , profesor asociado de Ciencias de Datos Biomédicos y, por cortesía, de Ciencias de la Computación y de Ingeniería Eléctrica Repensando la colaboración entre humanos e IA Experimentaremos un paradigma emergente de investigación en torno a cómo los humanos trabajan juntos con agentes de IA. Identificar las mejores formas para que la IA y los humanos trabajen juntos para lograr inteligencia colectiva será cada vez más importante. Actualmente, los sistemas de IA se evalúan principalmente por su capacidad para soportar configuraciones autónomas; veremos más puntos de referencia y entornos de evaluación que tengan en cuenta la interacción humano-IA y la colaboración humano-IA. A medida que avancemos con la IA, seguiremos viendo un gran volumen de trabajo en torno a la evaluación de riesgos. La evaluación de riesgos de la IA está muy por detrás de la investigación sobre el desarrollo de capacidades de la IA. Además de heredar estos riesgos de los sistemas de IA tradicionales, la adopción generalizada de sistemas basados en LLM/VLM también amplificará algunos de ellos e introducirá otros nuevos: Diyi Yang , profesora adjunta de informática