Seres humanos utilizan contrafactuales para razonar sobre la causalidad. ¿Puede la IA?

foto-resumen

Por Catalina Miller Tobias Gerstenberg , profesor asistente de psicología en la Escuela de Humanidades y Ciencias de Stanford, ha estado fascinado por las cuestiones de causalidad desde sus estudios de posgrado. Además de ser un concepto filosófico profundo, la causalidad juega un papel importante en muchos campos de estudio como el derecho, la informática, la economía y la epidemiología. "Me encanta la causalidad porque importa para todo", dice. Y la causalidad podría desempeñar un papel particularmente importante en la construcción de una IA más humana, afirma Gerstenberg. En una investigación reciente apoyada por Stanford HAI, Gerstenberg ha demostrado que la capacidad de los humanos para la simulación contrafactual (pensar en lo que habría sucedido si un agente causal no estuviera presente) es fundamental para juzgar la causalidad y asignar responsabilidad. "Si los sistemas de IA van a ser más humanos, también necesitarán esa capacidad", afirma. Gerstenberg y sus colegas han dado un paso en esa dirección al crear un modelo de simulación computacional que captura aspectos importantes de cómo las personas juzgan la causalidad y asignan responsabilidad. En varios contextos, el modelo puede predecir la probabilidad de que las personas asignen responsabilidad causal a un objeto (como una bola de billar) o a un agente social (como un personaje de un juego de computadora). La revista Trends in Cognitive Sciences invitó recientemente a Gerstenberg a escribir una reseña de su trabajo sobre cognición causal. Esa publicación inspiró la siguiente conversación en la que Gerstenberg describe lo que la gente debería entender sobre la cognición causal; cómo se relaciona su investigación con la IA; los riesgos y beneficios de utilizar la IA para simular escenarios causales para asignar culpas en un contexto legal; y cómo esa capacidad podría conducir a diversos problemas éticos o sociales. ¿Qué quiere que la gente entienda sobre la naturaleza de la cognición causal? Estoy postulando que cuando las personas hacen juicios causales o asignan responsabilidades, no están simplemente contemplando lo que sucedió o lo que vieron. De hecho, regularmente van más allá del aquí y el ahora para imaginar cómo las cosas podrían haber sucedido de otra manera. El proceso de pensar en posibilidades contrafactuales es clave para explicar cómo las personas hacen juicios causales en contextos tanto físicos como sociales. De hecho, mi investigación muestra que el mismo proceso de uso de razonamiento contrafáctico ocurre si juzgamos si una bola de billar hace que otra bola de billar entre en un agujero , si un bloque sostiene a otro en una pila o si una persona ayuda. u obstaculiza a otra persona en un entorno social . Se puede pensar en el pensamiento contrafactual como una habilidad de dominio general que tenemos, y cómo se desarrolla depende en gran medida del dominio al que lo estemos aplicando. Entonces, si estoy pensando en el dominio físico, como con las bolas de billar, mi comprensión de lo que habría sucedido si las bolas no hubieran chocado está impulsada por mi modelo mental de cómo interactúan las fuerzas en el mundo físico. Mientras que cuando pienso en si una persona recibió ayuda de otra, uso mi comprensión intuitiva de la psicología y mi modelo mental de cómo alguien habría actuado en ausencia de la ayuda de otra persona. Otro punto importante que quiero señalar es que en trabajos anteriores sobre determinar si una persona está ayudando o obstaculizando a otra, los investigadores han estado más interesados ​​en inferir las intenciones de las personas que en inferir la causalidad. Y hay una diferencia entre inferir si alguien tenía la intención de ayudar u obstaculizar y juzgar si realmente fue útil. Me gusta usar el ejemplo de ir de compras con un niño pequeño que pone cosas en la canasta con la clara intención de ayudar, pero en realidad no están ayudando en el sentido de hacer más eficiente la experiencia de compra. De hecho, podría haber sido más fácil sin ellos. Para juzgar las intenciones del niño, sólo miro sus acciones. Pero para determinar si realmente fueron útiles, necesito contrafactuales. Entonces, si bien la causalidad es un fenómeno que ha interesado a la gente, es posible que no hayan reconocido que parte de lo que subyace a este fenómeno es este proceso de pensamiento contrafactual. Y estoy diciendo que una gran cantidad de fenómenos variados se basan en la idea de que nosotros, como humanos, construimos modelos mentales del mundo que nos permiten imaginar cómo cambiar lo que sucedió y luego representar cómo ese cambio podría haber creado una situación diferente. Y estas capacidades son bastante importantes para emitir juicios causales. ¿Qué nos dice su investigación sobre la causalidad sobre la IA? Si queremos desarrollar IA que emulen de manera importante la forma en que los humanos piensan sobre el mundo, probablemente también necesitarán poder tener este tipo de capacidades de razonamiento causal: modelos mentales del mundo que les permitan evaluar, paso a paso. , cómo las cosas podrían haber sido diferentes. Por ejemplo, si le preguntamos a una IA: "¿Por qué sucedió esto?" y obtener una respuesta, los humanos interpretaremos la explicación imaginando las posibilidades contrafácticas. Esencialmente, si la IA me dice que A causó B, entenderemos que eso significa que si A no hubiera sido el caso, B no habría sucedido. Pero si la IA no comparte ese mismo modelo mental –si básicamente no usa la frase “por qué sucedió esto” como lo hacemos los humanos, y si no tiene la capacidad de hacer razonamientos contrafactuales–, no nos explicará las cosas de una manera que tenga sentido para nosotros. Las IA también necesitarán comprender la causalidad en el nivel correcto de abstracción. Por ejemplo, hay un problema que llamamos selección causal: en principio, una explicación contrafactual podría remontarse al Big Bang. Y si bien el Big Bang es la causa de todo, también es la causa de casi nada. En cualquier situación dada, hay muchas cosas que podrían considerarse una causa. Pero las cosas que los humanos identifican como causa o causas son un subconjunto mucho más pequeño y pragmático. En entornos legales existen criterios adicionales para la causalidad, como la prueba sine qua non o “de no haber sido por”, que es simplemente un contrafáctico: si no fuera por la acción del demandado de pasarse a exceso de velocidad un semáforo en rojo, el demandante no habría resultado herido en el cruce de peatones. . Ya existe interés en utilizar IA para simular escenarios alternativos en este tipo de casos. Y estoy tratando de hacer que las teorías legales de la causalidad sean un poco más precisas mediante la construcción de modelos computacionales que predicen cómo las personas juzgan la causalidad y ayudando con la traducción de algunas de estas ideas a la IA. Si las IA se vuelven expertas en juzgar la causalidad, ¿cómo podría esa capacidad ser útil o problemática en un contexto legal? Imagine un caso en el que ocurrió un accidente automovilístico y la fiscalía afirma que fue causado por el exceso de velocidad del acusado. Y supongamos que los fiscales usan IA para simular un escenario contrafáctico que muestra lo que habría sucedido si el acusado no hubiera conducido a exceso de velocidad. El jurado podría encontrar convincente la simulación (porque ver para creer), aunque los fiscales o los abogados defensores podrían haber construido 100 escenarios potenciales diferentes con diferentes finales. Lo que falta aquí es información sobre la incertidumbre involucrada en la generación de la simulación. Y eso podría resultar peligroso o engañoso en un contexto legal. Por otro lado, sugerimos en un artículo reciente que tal vez este problema podría superarse si cada equipo legal tuviera un investigador de hechos legales que generara múltiples simulaciones contrafactuales e incluyera información sobre la incertidumbre. Entonces, por ejemplo, el investigador legal testificaría que, según sus simulaciones y análisis de video, hay un 98% de posibilidades de que la velocidad del automóvil fuera una causa contribuyente. Las compañías de seguros también podrían encontrar este tipo de herramienta bastante útil porque a menudo se ocupan de la cuestión de la culpa. La gente ya está realizando reconstrucciones en 3D utilizando vídeos de teléfonos inteligentes y cámaras CCTV. Es posible que en un futuro no muy lejano los ajustadores de siniestros puedan combinar estas reconstrucciones 3D con la simulación de contrafácticos para determinar quién tiene la culpa. ¿Le preocupa cómo agregar razonamiento contrafactual a las capacidades de los modelos de IA podría crear problemas éticos o exacerbar el problema de los deepfakes? Una vez que los modelos de IA puedan utilizar el razonamiento contrafáctico, podrían generar aplicaciones útiles, pero también problemas. En el contexto legal, por ejemplo, habrá cuestiones de acceso y sesgo: quién puede darse el lujo de producir simulaciones contrafactuales; ¿Y qué tipos de sesgos podrían incorporarse a las simulaciones mismas en términos de la demografía de los agentes y cómo se los retrata? En términos de deepfakes, las IA obviamente harán que sea mucho más fácil producirlos. Pero hay algunos matices interesantes cuando se trata de simulaciones contrafactuales. La gente es algo cautelosa a la hora de estar en desacuerdo sobre los hechos, pero, en primer lugar, todos los contrafácticos son constructos imaginados. Sabemos que no sucedieron, por lo que la gente está mucho más feliz de no estar de acuerdo con ellos, y eso sucede todo el tiempo. Por ejemplo, la gente podría decir que si no hubiéramos ido a la guerra, las cosas habrían sido mucho mejores, mientras que otros podrían decir que si no hubiéramos ido a la guerra, las cosas habrían sido mucho peores. Y pueden estar en desacuerdo sobre eso para siempre porque nunca sabremos con certeza qué habría pasado sin la guerra. También es cierto que las personas están más dispuestas a hacer afirmaciones más extremas con contrafactuales porque saben que no se puede demostrar que estén equivocados. Y lo aprovechan para intentar convencer a otras personas de lo que piensan. Y eso ya está sucediendo todo el tiempo. Será interesante ver qué sucede cuando los argumentos sobre contrafactuales van más allá de que las personas hablen sobre ellos y también se muestren entre sí mediante el uso de inteligencia artificial para generar simulaciones de video. Y cuanto más fácil sea crear estas simulaciones, más probable será que la gente lo haga.