Las universidades deben recuperar la investigación en IA para el bien público

foto-resumen

Ante el repliegue interno de los laboratorios corporativos de IA, el mundo académico debe continuar con la defensa de la ciencia abierta. Hace diez años, Mark Zuckerberg hizo una aparición sorpresa en la conferencia académica NeurIPS, anunciando el lanzamiento de la unidad de Investigación Fundamental de IA de Facebook (FAIR), señalando que la investigación en IA había dado el salto de los laboratorios universitarios al corazón de las grandes tecnológicas. Avancemos rápidamente hasta hoy: Meta anunció recortes drásticos en FAIR, incluso cuando la IA se ha convertido en una industria global multimillonaria. DeepMind ya no publica detalles técnicos de sus principales modelos de IA y ha introducido embargos de seis meses y una revisión interna más estricta de los artículos para mantener su ventaja competitiva. De manera similar, OpenAI ahora es ClosedAI y, al igual que otros laboratorios corporativos, favorece cada vez más los blogs técnicos y los lanzamientos internos de productos en lugar de la publicación revisada por pares o el lanzamiento de código abierto. La ola de apertura en la IA está retrocediendo, y con ella, los cimientos del propio progreso científico. Qué entendemos por “bien público” La ciencia abierta es, ante todo, un bien público: conocimiento que beneficia a todos, no solo a unos pocos. Cuando la investigación se comparte abiertamente, la innovación se acelera, se minimiza la duplicación y las ideas se enriquecen mutuamente. En la investigación de IA, estas herramientas, conjuntos de datos, bibliotecas y pruebas de referencia de código abierto han permitido avances que surgieron en un laboratorio y se extendieron globalmente, desde estudiantes hasta startups y grandes implementaciones industriales. Pero cuando el conocimiento sobre IA se privatiza, perdemos más que transparencia: perdemos el intercambio de ideas que impulsa el verdadero progreso científico. Las universidades e instituciones públicas se encuentran en una posición privilegiada para mantener este papel de bien público, ya que no están estructuradas principalmente en torno a la rentabilidad para los accionistas ni al lanzamiento de productos; pueden priorizar la apertura, la reproducibilidad, la formación de talento y la participación global. Cómo la apertura construyó la IA moderna La historia de la inteligencia artificial es inseparable de la historia de la ciencia abierta: • El algoritmo de retropropagación, compartido abiertamente por primera vez en la década de 1980, permitió el resurgimiento del aprendizaje profundo. • Posteriormente, las técnicas exitosas de aprendizaje profundo fueron desarrolladas por primera vez en universidades, particularmente para el reconocimiento de voz e imagen en el laboratorio de Geoff Hinton en la Universidad de Toronto. • Los conjuntos de datos abiertos como TIMIT, TREC, MNIST, ImageNet y Stanford Alpaca proporcionaron puntos de referencia reproducibles y una base común para el progreso de la IA. • El código y las bibliotecas de código abierto, como el kit de herramientas Stanford CoreNLP y, posteriormente, TensorFlow, PyTorch y FlashAttention, ofrecieron acceso gratuito a técnicas de vanguardia. • Los puntos de referencia y desafíos compartidos (por ejemplo, GLUE, las competiciones ImageNet) formaron a generaciones de investigadores e ingenieros de IA. Este ecosistema generó un círculo virtuoso de innovación: los investigadores publicaban código y datos, otros los utilizaban y mejoraban; los estudiantes aprendían de ellos; las empresas emergentes y la industria transformaban esos avances en productos. Esto no fue casualidad: fue la función de bien público de la ciencia abierta en acción. En este contexto, el actual repliegue corporativo de la apertura resulta preocupante. Señala un cambio de paradigma: de la ciencia como un esfuerzo compartido a la investigación como una estrategia de producto patentada. La retirada de la industria y el fracaso del mercado laboral El abandono de la ciencia abierta es comprensible: los laboratorios corporativos de IA se enfrentan a enormes presiones comerciales y a una feroz competencia. Los modelos son caros, la investigación es costosa y la ventaja de ser pionero es crucial. Sin embargo, este cambio tiene consecuencias más amplias para el bien público y para la educación. Un claro indicador es el mercado laboral: los informes sugieren que Meta Platforms ofreció paquetes de contratación del orden de 100 millones de dólares o más a los mejores investigadores de IA en un intento desesperado por asegurar talento de élite. Esto evidencia una deficiencia del mercado universitario: las instituciones que deberían formar a la próxima generación de talento simplemente carecen de la capacidad de cómputo, los datos y el equilibrio adecuado entre investigadores e ingenieros de software para satisfacer la demanda de expertos en el desarrollo de modelos de IA a gran escala. La formación de estudiantes de investigación en equipos multidisciplinarios es la mejor manera de adquirir estas habilidades esenciales. Si las universidades no pueden capacitar a los estudiantes según las necesidades de los empleos del futuro, perdemos no solo oportunidades individuales, sino también la capacidad laboral necesaria para la innovación y la investigación de interés público. El momento de la universidad y el bien público de la apertura Ha llegado el momento de que las universidades reafirmen su papel histórico en el avance de la IA como bien público. El ámbito académico y el sector sin ánimo de lucro tienen la capacidad de priorizar la apertura, la ética, la infraestructura compartida y el acceso global por encima de los beneficios comerciales a corto plazo. Esto significa invertir en iniciativas de datos abiertos y modelos abiertos que permanezcan accesibles gratuitamente para la investigación y la educación; construir alianzas globales que compartan computación, datos y experiencia a través de fronteras y disciplinas, para que el conocimiento no quede aislado en solo unas pocas empresas o países; y fomentar la ciencia en equipo interdisciplinaria que integre las ciencias sociales, la ética y el diseño junto con la investigación técnica en IA para garantizar que la IA sirva a las necesidades humanas y los valores sociales. Las universidades no solo deben publicar, sino también mantener el ecosistema de bien público que representa la ciencia abierta. Al hacerlo, preservan la base del desarrollo del talento y el descubrimiento que impulsa cada avance en IA. Llevando el legado adelante En el Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford (HAI), creemos que el futuro de la IA debe combinar la apertura científica con valores humanistas como la dignidad, la equidad y el bien común. Mientras que la industria prioriza el producto y la ventaja competitiva, nuestro objetivo es cultivar una red de colaboraciones globales entre universidades, gobiernos, organizaciones sin fines de lucro y socios industriales afines que defiendan la misión del bien público. Esto no se trata de marcas ni de competencia, sino de la gestión responsable de las instituciones y prácticas de la ciencia abierta. Los problemas más importantes que enfrenta el mundo requieren un nuevo enfoque para la investigación científica: la ciencia en equipo. Esta requiere no solo colaboraciones más amplias entre investigadores académicos interdisciplinarios e ingenieros de software, algo que hoy solo se da en la industria, sino también la capacidad de cómputo y los datos necesarios. Necesitamos nuevos modelos académicos para lograr los avances que la ciencia en equipo permitirá: centros de investigación universitarios distribuidos, conectados entre continentes, que compartan liderazgo, datos, capacidad de cómputo, modelos y talento profesional. El trabajo en estos centros se centrará en el desarrollo humano, en lugar de la exclusividad comercial. La cuestión es si reconstruiremos las instituciones de ciencia abierta que hicieron posible la IA en primer lugar, o si, por el contrario, permitiremos que el poder comercial concentrado las erosione. Tenemos una oportunidad fugaz para moldear la trayectoria de la IA antes de que ella nos moldee a nosotros. *****John Etchemendy , James Landay y Fei-Fei Li son codirectores del Instituto de Inteligencia Artificial Centrada en el Ser Humano de Stanford (HAI), y Christopher Manning es director asociado de Stanford HAI.