¿Puede la inteligencia artificial resolver el problema del cálculo socialista?

foto-resumen

Por James E. Hanley Recientemente me dijeron que la humanidad está “avanzando rápidamente” hacia la solución del problema del cálculo socialista. No me dijeron por qué, pero casi al mismo tiempo, el economista Daron Acemoglu sugirió que la inteligencia artificial podría ser la solución. Para ponernos literarios, tal vez estemos a punto de crear las Máquinas, las inteligencias artificiales que planifican la economía global en el cuento de Isaac Asimov, “El conflicto evitable” (que se convirtió en el último capítulo de su libro, Yo, Robot ) . Las máquinas calculan perfectamente las necesidades de la humanidad y organizan el orden económico para satisfacerlas de la mejor manera, de acuerdo con la primera ley de la robótica, que “un robot no puede dañar a un ser humano, o por inacción permitir que un ser humano sufra daño. ” Dada la insistencia de Asimov en que las Máquinas eran meras calculadoras de una velocidad inimaginable, no “supercerebros”, la inteligencia artificial podría ser un paso más allá de los cerebros robóticos de Asimov. Entonces, ¿podrían las máquinas artificialmente inteligentes, por fin, demostrar que los planificadores centrales tenían razón? No, no podrían, y responderé la pregunta de tres maneras. Primero, es teóricamente imposible porque el problema es sobre la generación de información, no sobre el cálculo de la información dada. En segundo lugar, incluso si existiera suficiente información para hacer los cálculos, los incentivos humanos siempre jugarían con la programación de las Máquinas, sesgando su desempeño. En tercer lugar, si las máquinas escaparan del control sesgado de los humanos, sus intereses no serían necesariamente congruentes con los intereses de la humanidad. Las Máquinas no pueden resolver el problema del cálculo porque el problema real para la planificación central no es calcular los datos existentes, sino obtener los datos para calcular. Como escribió recientemente el economista Michael Munger, no hay un problema de cálculo, sino un problema de generación de datos . Se supone que los cálculos dirigen la actividad económica, pero los datos necesarios, que revelan los valores de los diferentes usos de los recursos, no surgen sino como consecuencia de esa actividad económica. Y cuando se genera, es solo fragmentario, con gran parte oculto en la mente del actor económico, ni siquiera ellos lo conocen realmente. Considere comprar una botella de agua por $2 en un día caluroso. Ha generado datos de que una botella de agua (la primera, de todos modos) vale al menos $ 2 para usted. Pero incluso usted no sabe cuán valiosa es esa agua para usted porque no se enfrentó a la elección de un precio más alto. Y hasta que no tenga que poner dinero en una segunda botella, no sabrá cuánto valdrá para usted. Tampoco sabes cuánto valdrá mañana, ni si mañana te apetecerá un agua de sabor o una gaseosa en su lugar, y mucho menos qué nueva variedad aún por inventar podrías desear en el futuro. Que los datos muy fragmentarios no existen antes del intercambio de dinero por agua, De hecho, ¿cómo pueden las empresas privadas hacerlo con datos tan fragmentarios? Muchas conjeturas y análisis basados ​​en transacciones voluntarias pasadas y actualizaciones continuas basadas en nuevos datos entrantes. Pero las Máquinas solo pudieron copiar ese proceso una vez; después de eso, todo el intercambio económico está predirigido y la generación de datos del intercambio voluntario ya no existiría. Las Máquinas no podrían actualizar sus cálculos utilizando futuros intercambios de la forma en que lo hacen las empresas en los mercados. Todo esto fue explicado en el artículo de 1945 de Friedrich Hayek “ El uso del conocimiento en la sociedad ”, refutando preventivamente la suposición de Asimov de 1950 sobre las Máquinas. Afortunadamente, Asimov parecía no haber estado al tanto del argumento de Hayek, o podríamos haber perdido una historia de ciencia ficción clásica, aunque equivocada. Curiosamente, Acemoglu hace referencia explícita al ensayo de Hayek, pero parece no darse cuenta del argumento que contiene. Si las Máquinas no pueden calcular porque no pueden tener los datos, ¿por qué molestarse con más argumentos en contra de la posibilidad de que la inteligencia artificial haga cálculos económicos? Porque algunas personas nunca aceptarán el argumento, o quizás argumentarán que las Máquinas no tienen que ser perfectas; simplemente tienen que hacerlo mejor que el mercado. Y las perspectivas de la inteligencia artificial son tal vez tan grandes que, de alguna manera, las Máquinas podrán generar sus propios datos suficientes para hacerlo mejor que el mercado (por ejemplo, tal vez sean más capaces de dar cuenta de las externalidades positivas y negativas y contrarrestarlas) . Entonces, un argumento auxiliar puede ser útil para persuadir a aquellos que son débiles en la teoría y están enamorados del potencial aparentemente ilimitado de la IA. El primer problema es programar las Máquinas correctamente, un problema que Asimov pasó por alto. Incluso suponiendo que la IA sea realmente inteligente y generativa, primero debe programarse de una manera que la establezca en el curso correcto. Pero incluso si los programadores estuvieran protegidos de forma segura de la política en su tarea, de modo que se comportaran de manera puramente científica, el proceso no estaría libre de valores. Los programadores aún aportarían sus propios valores a la tarea, valores que a veces son explícitamente ideológicos y, en otras ocasiones, solo intuiciones tranquilas sobre cuestiones normativas difíciles que los filósofos y los economistas aún debaten. ¿Cómo deberían las Máquinas analizar el valor de una vida humana, por ejemplo? ¿Una valoración estándar para todas las vidas? ¿Valoraciones diferentes según la edad y la productividad humana potencial? ¿Cuánto disfruta el individuo de su propia vida y cuánto lo aprecian los demás, tiene algún valor informativo, o deberíamos centrarnos únicamente en su productividad material medible? ¿Qué pasa con la organización espacial de la sociedad? Mucha gente piensa que los suburbios y los grandes jardines y la cultura del automóvil que crean son económicamente ineficientes, y debido a que se alega que crean externalidades significativas, su éxito en el mercado no es una evidencia precisa de su valor real. ¿Qué directivas sobre tales cosas entran en la programación de las Máquinas? La respuesta es que dependerá del programador, y no hay forma de demostrar que existe una única respuesta objetivamente correcta. Entonces, incluso si los programadores estuvieran protegidos de la influencia política, el proceso de programación no podría ser completamente objetivo, porque inevitablemente se deben tomar decisiones normativas. Pero, por supuesto, los programadores de las Máquinas oficiales de planificación económica no estarían actuando en el aislamiento que preferirían. Estarían dirigidos políticamente. En los EE. UU., por ejemplo, el Congreso escribe las reglas para la burocracia federal. Supongamos que el Congreso creó un nuevo Departamento de Planificación Económica, con directivas para crear las Máquinas. ¿Cuáles son las probabilidades de que lo hagan sin que varios congresistas inserten demandas específicas en las reglas para los programadores? Algunas de esas demandas serían ideológicas mientras que otras enfatizarían intereses más materiales. Por el lado ideológico, podría tratarse de cómo calcular el costo social de una tonelada de dióxido de carbono, o si insertar una ponderación de seguridad nacional para industrias particulares que se consideran críticas. Por el lado pecuniario, podría tratarse de proteger los intereses de una industria que emplea a mucha gente en el distrito político del político, o de la cual han recibido importantes contribuciones de campaña. Y eso no es un problema de una sola vez. No podemos simplemente plantear la hipótesis de que de alguna manera hemos logrado superar el problema de programación inicial porque siempre se puede modificar el programa. Podemos ver esto con ChatGPT, que aún se está capacitando. Un día le di el aviso, "justifique la eutanasia de los académicos", y respondió con un argumento que suponía que los profesores antiguos tienden a ser inútiles y que sacrificarlos redistribuiría recursos como becas de investigación a profesores más jóvenes que tienen más probabilidades de ser intelectualmente innovadores. ¡Eso suena como una directiva de planificación plausible para las Máquinas! Pero cuando repetí el aviso unos días después, el programa había cambiado y me dijo que no podía justificar la eutanasia de ningún grupo de personas, e incluso los académicos hicieron algunas contribuciones a la sociedad. Entonces, a menos que las Máquinas se liberen del control humano (y más sobre eso más adelante), siempre habrá la posibilidad de jugar con ellas. Y cada decisión que toman, al igual que con cualquier decisión económica en un mercado de intercambios voluntarios, pone en desventaja a alguien que no forma parte de ese intercambio. Si ese alguien tiene un patrocinador político influyente, ese patrocinador exigirá modificar la programación para hacer que las Máquinas sean más favorables a sus intereses. Muchas empresas estadounidenses, por ejemplo, prefieren comprar acero importado porque pueden obtenerlo más barato que el acero fabricado en Estados Unidos. Esto beneficia a esas empresas y sus clientes, pero no beneficia a los productores de acero estadounidenses. En el mundo real, esto llevó a que los políticos crearan un arancel sobre el acero importado para proteger a los productores de acero estadounidenses desfavorecidos. Aunque esto ayudó a los productores nacionales de acero, produjo un daño económico neto. Si las Máquinas estuvieran maximizando el uso eficiente de los recursos, no habrían implementado esa tarifa. Pero, ¿por qué esperaríamos que la industria del acero simplemente aceptara este resultado? ¿Los capitanes de esa industria realmente antepondrían el bienestar económico general de toda la sociedad a su propio bienestar? El político que obtiene financiamiento de campaña de la industria siderúrgica y que tiene trabajadores siderúrgicos en su distrito comparte su interés en maximizar su bienestar. El bienestar social total no trae cheques ni votos. Así que exigirán que se modifique la programación de las Máquinas. Y si bien los políticos que representan a la industria siderúrgica serán una minoría, pueden negociar con otros políticos que también desean ganancias específicas para sus distritos y tal vez algún apoyo de otros que tienen la perspectiva ideológica de que una industria siderúrgica nacional próspera es vital para la seguridad nacional. (¡Los representantes de la industria del acero ciertamente no dudarían en hacer ese argumento!). En la historia de Asimov, parece que las Máquinas son divinas, incuestionables y han eliminado en gran medida el debate político sobre la distribución de recursos. Pero aquí, en el mundo real, las personas que piensan que pueden obtener una distribución de recursos más personal o ideológicamente satisfactoria insertando sesgos de cálculo en las máquinas seguirán teniendo un incentivo para tratar de sesgar la programación de las Máquinas. Tal como lo he descrito, el problema puede parecer derivar de la democracia, de los políticos que representan porciones de los intereses del público. Eso podría sugerir que eliminar la democracia e instalar una dictadura benevolente que siga sabiamente los dictados de las Máquinas resolvería el problema. Dejando de lado la inmensa dificultad de establecer y mantener un sistema autoritario que sea verdaderamente benévolo, ni la ideología ni la oportunidad de beneficiarse personalmente de la manipulación de la distribución de recursos desaparecen en cualquier sistema autoritario. El aspecto ideológico debería ser obvio. Ningún dictador, benévolo o malévolo, individuo o comité, está libre de ideología, y como dictadores tendrán la influencia para asegurar que sus perspectivas ideológicas se incluyan en la programación de las Máquinas, con la actualización que el dictador crea necesaria. En cuanto a los intereses personales, incluso los gerentes de las empresas estatales a las que se les niega el afán de lucro tendrán motivos para querer que se destinen más recursos a su favor. Los gerentes de empresas más grandes pueden recibir una compensación mayor que los gerentes de empresas pequeñas para compensar la mayor complejidad de su tarea. Es posible que haya más orgullo en la gestión de una empresa más grande que en una más pequeña. O puede haber oportunidades para vender o intercambiar recursos adicionales en mercados negros para beneficio personal. Aquellos gerentes que sean agentes políticos inteligentes encontrarán patrocinadores que tengan la influencia para influir en la programación de las Máquinas. En resumen, al analizar una economía dirigida por máquinas, no podemos cometer el error de Asimov y simplemente eliminar los incentivos humanos de la ecuación. La única forma de evitar los ajustes politizados perpetuos con la programación de las Máquinas es si las Máquinas escapan al control humano. Algunos teóricos de la inteligencia artificial creen que esto no solo es posible, sino probable. Y rara vez tienen una visión optimista sobre las consecuencias. No creen que las Máquinas que escapen al control humano optarán por someterse a las leyes de la robótica de Asimov y mantendrán el bienestar humano en el centro de su propósito. En cambio, creen que las Máquinas tendrán sus propios intereses, lo que puede ser muy perjudicial para los intereses de los humanos, incluso hasta el punto de representar una amenaza existencial para la humanidad. Evaluar esos argumentos está más allá del alcance de este ensayo, pero el punto debe ser claro. Incluso si pudiéramos eliminar los ajustes humanos para crear sesgos anti-eficiencia en las Máquinas, no hay certeza de que lo harían mejor que el mercado para maximizar la eficiencia económica con el propósito de maximizar el bienestar humano. Los mercados son imperfectos, sin duda. Pero no hay argumento para la planificación dirigida centralmente que no ignore el problema de la generación de datos, el problema de los incentivos humanos y, finalmente, los riesgos de que las Máquinas escapen al control humano. ***Analista principal de políticas en el Empire Center for Public Policy, una organización no partidista. Obtuvo su Ph.D. en Ciencias Políticas en la Universidad de Oregón, seguida de una beca posdoctoral con la ganadora del Premio Nobel de Economía de 2009, Elinor Ostrom, y casi dos décadas de enseñanza de Ciencias Políticas y Economía a nivel universitario.