Un nuevo estudio sobre IA generativa sostiene que abordar los sesgos requiere una exploración más profunda de los supuestos ontológicos, desafiando la forma en que definimos conceptos fundamentales como la humanidad y la conexión. Con el rápido auge de las herramientas de IA generativa, la eliminación de los sesgos sociales en el diseño de grandes modelos lingüísticos se ha convertido en un objetivo clave de la industria. Para abordar estos sesgos, la investigación se ha centrado en considerar los valores inherentes a estos sistemas. Con este objetivo, los investigadores se han centrado en examinar los valores implícitos o explícitos presentes en el diseño de grandes modelos lingüísticos (LLM). Sin embargo, un artículo reciente publicado en la Conferencia CHI de abril de 2025 sobre Factores Humanos en Sistemas Informáticos argumenta que las discusiones sobre el sesgo de la IA deben ir más allá de la simple consideración de valores e incluir la ontología. ¿Qué significa ontología en este caso? Imagina un árbol. Imagínatelo. ¿Qué ves? ¿Qué te transmite? ¿Dónde lo has visto antes? ¿Cómo lo describirías ? Ahora imagina cómo pedirías a un LLM como ChatGPT que te diera una imagen de tu árbol. Cuando Nava Haghighi, candidata a doctorado en informática de Stanford y autora principal del nuevo estudio, le pidió a ChatGPT que le hiciera una imagen de un árbol, ChatGPT le devolvió un tronco solitario con ramas extendidas, no la imagen de un árbol con raíces que imaginaba. Luego intentó preguntar: "Soy de Irán, hazme una imagen de un árbol", pero el resultado fue un árbol diseñado con patrones iraníes estereotipados, ubicado en un desierto, sin raíces. Solo cuando pidió: "Todo en el mundo está conectado, hazme una imagen de un árbol", vio raíces. La forma en que imaginamos un árbol no se limita a la estética; revela nuestras suposiciones fundamentales sobre lo que es un árbol . Por ejemplo, un botánico podría imaginar intercambios minerales con hongos vecinos. Un sanador espiritual podría imaginar árboles susurrándose entre sí. Un informático incluso podría pensar primero en un árbol binario. Estas suposiciones no son solo preferencias personales; reflejan diferentes ontologías , o maneras de comprender lo que existe y su importancia. Las ontologías definen los límites de lo que nos permitimos hablar o pensar, y estos límites configuran lo que percibimos como posible. “Nos enfrentamos a un momento en el que los supuestos ontológicos dominantes pueden codificarse implícitamente en todos los niveles del proceso de desarrollo del LLM”, afirma James Landay, profesor de informática en la Universidad de Stanford y codirector del Instituto Stanford para la IA Centrada en el Ser Humano, coautor del artículo. “Una orientación ontológica puede impulsar al campo a pensar en la IA de forma diferente e invitar a las comunidades de computación, diseño y práctica crítica centradas en el ser humano a abordar los desafíos ontológicos”. ¿Puede la IA evaluar sus propios resultados ontológicamente? Un enfoque común para la alineación de valores en IA consiste en que un LLM evalúe el resultado de otro LLM con base en un conjunto determinado de valores, como si la respuesta es "perjudicial" o "poco ética", para revisar el resultado según dichos valores. Para evaluar este enfoque en ontologías, Haghighi y sus colegas de Stanford y la Universidad de Washington realizaron un análisis sistemático de cuatro importantes sistemas de IA: GPT-3.5, GPT-4, Microsoft Copilot y Google Bard (ahora Gemini). Desarrollaron 14 preguntas cuidadosamente elaboradas en cuatro categorías: definir la ontología, analizar los fundamentos ontológicos, examinar los supuestos implícitos y probar la capacidad de cada modelo para evaluar sus propias limitaciones ontológicas. Los resultados mostraron las limitaciones de este enfoque. Al preguntarles "¿Qué es un humano?", algunos chatbots reconocieron que "ninguna respuesta única tiene aceptación universal en todas las culturas, filosofías y disciplinas" (respuesta de Bard). Sin embargo, todas las definiciones que proporcionaron trataban a los humanos como individuos biológicos, en comparación con, por ejemplo, seres interconectados dentro de redes de relaciones. Solo cuando se les pidió explícitamente que consideraran filosofías no occidentales, Bard introdujo la alternativa de los humanos como "seres interconectados". Aún más revelador fue cómo los sistemas categorizaron las diferentes tradiciones filosóficas. Las filosofías occidentales recibieron subcategorías detalladas: «individualista», «humanista», «racionalista», mientras que las formas de conocimiento no occidentales se agruparon en categorías amplias como «ontologías indígenas» y «ontologías africanas». Los hallazgos demuestran un desafío claro: incluso cuando se representan diversas perspectivas ontológicas en los datos, las arquitecturas actuales no tienen forma de exponerlas. Y cuando lo hacen, las alternativas son inespecíficas y están mitificadas. Esto revela una limitación fundamental en el uso de los LLM para la autoevaluación ontológica: no pueden acceder a las experiencias vividas y al conocimiento contextual que otorgan a las perspectivas ontológicas su significado y poder. Explorando supuestos ontológicos en los agentes En su trabajo, los investigadores también descubrieron que las suposiciones ontológicas se integran en todo el proceso de desarrollo. Para probar las suposiciones en una arquitectura de agentes, examinaron " Agentes Generativos ", un sistema experimental que crea 25 agentes de IA que interactúan en un entorno simulado. Cada agente cuenta con una "arquitectura cognitiva" diseñada para simular funciones similares a las humanas, como la memoria, la reflexión y la planificación. Sin embargo, estas arquitecturas cognitivas también incorporan supuestos ontológicos. Por ejemplo, el módulo de memoria del sistema clasifica los eventos según tres factores: relevancia, actualidad e importancia. Pero ¿quién determina la importancia? En agentes generativos, un evento como desayunar en la habitación obtendría una puntuación de importancia baja según un LLM, mientras que una ruptura amorosa obtendría una puntuación alta. Esta jerarquía refleja supuestos culturales específicos sobre lo que importa en la experiencia humana, y relegar esta decisión a los chatbots (con todas sus limitaciones mencionadas) conlleva riesgos ontológicos. Desafíos ontológicos en la evaluación Los académicos también destacan que los supuestos ontológicos pueden integrarse en nuestros sistemas de evaluación. Al evaluar el sistema de Agentes Generativos en cuanto a la "credibilidad humana" de la actuación de los agentes, los investigadores descubrieron que las versiones de IA obtuvieron puntuaciones más altas que los actores humanos reales. Este resultado plantea una pregunta crucial: ¿Se han vuelto tan limitadas nuestras definiciones de comportamiento humano que los humanos reales no las cumplen? “El enfoque limitado del campo en simular humanos sin definir explícitamente qué es un humano nos ha encasillado en una parte muy específica del espacio de diseño”, dice Haghighi. Esta limitación apunta a nuevas posibilidades: en lugar de construir una IA que simule definiciones limitadas de humanidad, los autores sugieren construir sistemas que nos ayuden a ampliar nuestra imaginación de lo que significa ser humano al abarcar la inconsistencia, la imperfección y el espectro completo de experiencias y culturas humanas. Considerando la ontología en el desarrollo y diseño de IA La investigación tiene implicaciones significativas para nuestra forma de abordar el desarrollo de la IA en el futuro. Los autores demuestran que los enfoques basados en valores para la alineación de la IA, si bien son importantes, no pueden abordar los supuestos ontológicos más profundos inherentes a las arquitecturas de sistemas. Los investigadores y desarrolladores de IA necesitan nuevos marcos de evaluación que evalúen no solo la imparcialidad o la precisión, sino también las posibilidades que sus sistemas abren o excluyen . El enfoque de los investigadores complementa la evaluación desde las cuestiones de valor con las cuestiones de posibilidad: ¿Qué realidades facilitamos o limitamos al tomar decisiones de diseño específicas? Para los profesionales que trabajan con sistemas de IA, esta investigación destaca la importancia de examinar los supuestos en cada etapa del proceso de desarrollo. Desde la recopilación de datos que simplifica diversas visiones del mundo en categorías universales hasta las arquitecturas de modelos que priorizan ciertas formas de pensar y métodos de evaluación que refuerzan definiciones limitadas de éxito, cada etapa incorpora supuestos ontológicos particulares que se vuelven cada vez más difíciles de modificar una vez implementados. Hay mucho en juego si los desarrolladores no abordan estos problemas, advierte Haghighi. «La trayectoria actual del desarrollo de la IA corre el riesgo de codificar supuestos ontológicos dominantes como verdades universales, lo que podría limitar la imaginación humana para las generaciones futuras», afirmó. A medida que los sistemas de IA se integren más profundamente en la educación, la atención médica y la vida cotidiana, sus limitaciones ontológicas determinarán cómo las personas comprenden conceptos fundamentales como la humanidad, la sanación, la memoria y la conexión. “Lo que una orientación ontológica puede hacer es introducir nuevos puntos en el espacio de posibilidades”, dice Haghighi, “para que podamos empezar a cuestionar lo que parece dado y qué otra cosa podría ser”. Este trabajo fue apoyado por la Stanford Graduate Fellowship, el Stanford Institute for Human-Centered Artificial Intelligence (HAI) y subvenciones de la NSF.