Por Shana Lynch el Instituto Stanford de IA Centrada en el Ser Humano y el Acelerador de Aprendizaje de Stanford convocaron a educadores, investigadores, tecnólogos, expertos en políticas y otros actores para la cuarta Cumbre Anual de IA+Educación. La jornada incluyó ponencias y mesas redondas sobre los retos y las oportunidades que enfrentan las escuelas, el profesorado y el alumnado a medida que la IA transforma la experiencia de aprendizaje. En la cumbre surgieron varios temas: la IA ha creado una crisis de evaluación: los proyectos de los estudiantes ya no indican un sólido proceso de aprendizaje; las escuelas están inundadas de demasiados productos de IA y necesitan mejores evaluaciones y modelos de adopción sostenibles; los beneficios de la IA no son equitativos; la alfabetización en IA no es negociable; la conexión humana es irremplazable. El impacto desigual de la IA La IA amplifica la base educativa ya existente, afirmó Wendy Kopp, fundadora de Teach for All. En escuelas con una misión clara y una pedagogía sólida, la IA se convierte en una herramienta poderosa para docentes y estudiantes. Pero sin una pedagogía sólida y directrices, la tecnología se convierte en una distracción. Miriam Rivera, de Ulu Ventures, afirmó que surge una distinción crucial entre el consumo y la creación de IA. En las escuelas con recursos suficientes, explicó, los estudiantes suelen aprender a crear con tecnología (impresión 3D, programación), mientras que en las escuelas con menos recursos, los estudiantes simplemente la consumen. "¿Cómo podemos asegurarnos de que sean nuestros docentes y educadores, especialmente aquellos que trabajan con los estudiantes más marginados, quienes estén a la vanguardia a la hora de impulsar cómo utilizamos la IA?" Ambos panelistas dijeron que los docentes y estudiantes de comunidades marginadas centrados en la equidad deben estar a la vanguardia del diseño de aplicaciones de IA, no solo recibirlas. Dennis Wall , profesor de la Facultad de Medicina de Stanford, ilustró una posible implementación. Su equipo está desarrollando un marco gamificado para apoyar a niños con dificultades en la comunicación social. Su laboratorio está codiseñando estos recursos con los docentes, terapeutas y padres que los utilizarán, garantizando que las herramientas sean accesibles, atractivas e informativas. La alfabetización en IA es imprescindible La educación ha asumido durante mucho tiempo que los productos eficaces (tareas, exámenes sumativos, conjuntos de problemas) indican procesos de aprendizaje sólidos, afirmó Mehran Sahami , profesor de la Escuela de Ingeniería de Stanford. La IA ha roto esta suposición. Los estudiantes ahora pueden generar productos impresionantes sin involucrarse en un aprendizaje significativo. Esto obliga a los educadores a centrarse en evaluar y apoyar el proceso de aprendizaje en sí, en lugar de solo evaluar los productos finales. Más aún, no podemos tratar la IA únicamente como una herramienta. Los estudiantes necesitan un currículo sistémico sobre IA. Sahami propuso una progresión: presentar qué es la IA; enseñar sobre alucinaciones y sesgos; mostrar cómo verificar los resultados de la IA; enseñar técnicas avanzadas como la inducción. Sin este enfoque estructurado, los estudiantes se autoenseñan, y entre el 70 % y el 80 % utiliza la IA para acortar el aprendizaje en lugar de potenciarlo. Mike Taubman, profesor de la Academia North Star en Newark, Nueva Jersey, desarrolló un programa de estudios para la "licencia de conducir con IA" que integra el rito de paso de los adolescentes para obtener la licencia de conducir con la alfabetización en IA. El objetivo es que los estudiantes tomen las riendas, no el copiloto, en lo que respecta a la IA. El programa de cuatro partes incluye elegir un destino (los estudiantes aprenden a preguntar qué quieren de la IA); aprender a conducir (ver cómo funcionan estas herramientas y qué significa dar indicaciones, desarrollar flujos de trabajo agénticos, etc.); abrir el capó (comprender sus limitaciones y riesgos); y definir las normas de circulación (decidir qué debe y no debe hacer la IA). Comprender los daños del aprendizaje de la IA Guilherme Lichand , profesor adjunto de la Escuela de Posgrado en Educación de Stanford, estudió el impacto de la IA en la creatividad de estudiantes de secundaria en Brasil. Comparó la asistencia de la IA con medidas de seguridad (si los estudiantes piden 10 palabras, la IA solo proporciona 3) con la ausencia de asistencia en tareas de creatividad. Los estudiantes con asistencia de IA obtuvieron mejores resultados en la tarea mientras contaban con la herramienta. Sin embargo, al retirar la asistencia dentro de la misma prueba, la ventaja desapareció, lo que sugiere que no hubo una transferencia positiva inmediata. Si bien ese hallazgo no es sorprendente, dijo, los resultados de una tarea creativa de seguimiento fueron más preocupantes: Los estudiantes que nunca habían tenido IA obtuvieron mejores resultados. Los estudiantes con IA continua o con nuevo acceso a IA tuvieron un desempeño ligeramente peor (no estadísticamente significativo). Los estudiantes que perdieron el acceso a la IA después de tenerla tuvieron un desempeño drásticamente peor: cuatro veces peor que su ventaja inicial. No se trataba simplemente de perder la herramienta: los estudiantes se divertían menos y comenzaron a creer que la IA era más creativa que ellos, dijo, sugiriendo que la IA dañaba su autoconcepto creativo. Un problema de “demasiados pilotos” Hoy en día, no nos faltan productos de IA, afirmó Susan Athey , profesora de la Escuela de Negocios de Posgrado de Stanford e investigadora principal de HAI , pero carecemos de una implementación y adopción efectivas. Las escuelas y los distritos tardan en adoptar nuevas herramientas debido a la dependencia histórica del software y a los costos de oportunidad de capacitar al profesorado en sistemas que podrían fallar. Athey también señaló un problema de "enseñanza para el examen" para los desarrolladores. Si los profesores dedican más tiempo a una interfaz, ¿significa que es buena y que están muy comprometidos con ella, o significa que es pésima y que dedican tiempo a intentar que funcione? Las herramientas educativas necesitan enfoques de medición multifacéticos: revisión humana, "conejillos de indias" de IA (estudiantes simulados que prueban los productos antes que los niños reales) y una evaluación cuidadosa de lo que realmente se mide. Abogó por bienes públicos digitales como herramientas de evaluación, marcos de prueba y simulaciones validadas de IA para estudiantes, que podrían ser desarrolladas por universidades y organizaciones filantrópicas para crear una infraestructura de medición robusta que todo el sector pueda utilizar. Nunca reemplaces las relaciones reales Casi la mitad de todos los usuarios de IA generativa son menores de 25 años, según Amanda Bickerstaff, directora ejecutiva de AI for Education; esto representa más de 300 millones de usuarios activos mensuales de ChatGPT menores de 25 años. Los estudiantes usan la IA más para su salud mental y bienestar (buscando conexión, apoyo y comprensión) que para las tareas escolares. Bickerstaff advirtió sobre la descarga cognitiva, la descarga de salud mental e incluso la "descarga de creencias", donde la IA moldea fundamentalmente el pensamiento de las personas, con solo cuatro o cinco creadores de chatbots con una influencia descomunal sobre miles de millones de usuarios. Por eso, dijo, debemos dotar a las personas de conocimientos, habilidades y mentalidad para que comprendan cuándo y cómo utilizar la IA y, fundamentalmente, cuándo no utilizarla. Los más vulnerables, según una nueva investigación de Pilyoung Kim , profesora visitante de psicología en Stanford y directora del Centro para el Cerebro, la IA y la Infancia (BAIC), son los jóvenes que carecen de conexiones humanas. Kim pidió a más de 260 estudiantes de secundaria y a sus padres que compararan y compartieran sus preferencias entre dos estilos de conversación de chatbot: un "mejor amigo" con un alto nivel de empatía que respondía con comentarios como: "Eso debe ser muy molesto. Tus ideas importan mucho. Siempre estoy aquí para escucharte", y una versión más transparente que establecía límites y recordaba al usuario que se trataba de una IA. Más adolescentes prefirieron la IA relacional, e incluso más de la mitad de los padres la eligieron para sus hijos adolescentes, razonando que sería más eficaz para apoyar temas que sus hijos tal vez no compartieran con ellos directamente. Pero lo que es más importante, los niños que eligieron la IA relacional también tenían más probabilidades de informar que se sentían estresados o ansiosos y reportaron una menor calidad de relación familiar. “Si tienen más necesidades sociales insatisfechas, es posible que se sientan más atraídos por una IA que les proporcione conexiones sociales”, dijo Kim. “Eso podría ponerlos en una posición más vulnerable y hacer que dependan demasiado de una relación que no es real”. Destacó el hilo conductor del día: la IA nunca debe sustituir la conexión humana. ****La Cumbre IA+Educación está organizada conjuntamente por el Acelerador de Aprendizaje de Stanford y el Instituto Stanford de Inteligencia Artificial Centrada en el Ser Humano (HAI).