Por Carl Benedikt Frey Director, Futuro del Trabajo Michael Osborne Profesor de Aprendizaje Automático Todo el mundo está preocupado por la Inteligencia Artificial. Desde escritores de Hollywood hasta programadores informáticos, los recientes avances tecnológicos están generando preocupación sobre lo que la IA generativa significará para el futuro del trabajo, nuestra sociedad y el mundo en general. ¿No hay nada que las máquinas no puedan hacer? Hemos pasado una década investigando los impactos de la IA. Hace diez años, escribimos un artículo en el que se estimaba que alrededor del 47% de los empleos en Estados Unidos podrían, en principio, automatizarse , a medida que la IA y la robótica móvil ampliaban el alcance de las tareas que pueden realizar las computadoras. Nuestras estimaciones se basaron en la premisa de que, si bien las computadoras eventualmente podrían realizar la mayoría de las tareas, los humanos continuarían teniendo la ventaja comparativa en tres dominios clave: creatividad, interacciones sociales complejas e interacción con entornos no estructurados (como su hogar). . Sin embargo, es importante reconocer que ha habido avances significativos en estos dominios, con modelos de lenguaje grandes (LLM), como GPT4, capaces de producir respuestas de texto similares a las humanas a una amplia gama de consultas. En la era de la IA generativa, una máquina podría incluso escribir cartas de amor. Sin embargo, si GPT4 escribe tus cartas de amor, tus citas en persona serán aún más importantes. La conclusión es que, a medida que las interacciones sociales virtuales se apoyan cada vez más en algoritmos, la prima de las interacciones en persona, que no pueden ser replicadas por máquinas, será aún mayor. En segundo lugar, aunque la IA puede producir una letra al estilo de Shakespeare, esto se debe únicamente a que las obras de Shakespeare ya existen y sobre las cuales se puede entrenar una IA. La IA generalmente es buena en tareas que tienen datos claros y un objetivo claro, como maximizar la puntuación en un videojuego o la similitud con el lenguaje de Shakespeare. Pero si quieres crear algo realmente nuevo, en lugar de repetir ideas existentes, ¿qué deberías optimizar? Responder a la pregunta sobre el verdadero objetivo es donde reside gran parte de la creatividad humana. En tercer lugar, como señalamos en nuestro artículo de 2013, hay muchos trabajos que pueden automatizarse, pero la IA generativa –un subcampo del campo más amplio de la IA– aún no es una tecnología de automatización. Necesita que un humano le indique y necesita que un humano seleccione, verifique los datos y edite el resultado. Finalmente, la IA generativa genera contenido que refleja la calidad de sus datos de entrenamiento: "la basura que entra resulta en basura que sale". Y estos algoritmos requieren entrenamiento en conjuntos de datos expansivos, como segmentos extensos de Internet, a diferencia de conjuntos de datos más pequeños y refinados desarrollados por expertos. En consecuencia, los LLM tienden a crear texto que se alinee con las partes promedio, en lugar de las extraordinarias, de Internet. El insumo promedio produce el producto promedio. ¿Qué implicaciones tiene esto para el futuro del empleo? Por un lado, la última generación de IA seguirá necesitando la intervención humana. Es más, los trabajadores con habilidades menos especializadas se beneficiarán de manera desproporcionada, ya que ahora pueden generar contenido que se alinee con el punto de referencia "promedio". ¿Qué implicaciones tiene esto para el futuro del empleo? Por un lado, la última generación de IA seguirá necesitando la intervención humana. Es más, los trabajadores con habilidades menos especializadas se beneficiarán de manera desproporcionada. ¿Podrían superarse en breve los obstáculos descritos anteriormente, allanando el camino para una automatización generalizada también de las tareas creativas y sociales? A falta de un avance importante, creemos que es poco probable. En primer lugar, es probable que los datos que ya incorporan los LLM comprendan una fracción considerable de Internet, lo que hace poco probable que los datos de capacitación puedan ampliarse significativamente para impulsar mayores avances. Además, hay motivos legítimos para esperar un aumento de contenido inferior elaborado por IA en la Web, degradando progresivamente su calidad como fuente de datos de entrenamiento. En segundo lugar, si bien nos hemos acostumbrado a la Ley de Moore (la ley observacional que declara que la cantidad de transistores en un circuito integrado (CI) se duplica aproximadamente cada dos años), muchos anticipan que esta tendencia perderá impulso, debido a limitaciones físicas, alrededor de 2025. En tercer lugar, se estima que la energía para crear GPT4 costó una gran fracción de los 100 millones de dólares que costó su formación, incluso antes de que subiera el precio de la energía. Dado que el desafío climático se avecina, existen dudas sobre si este enfoque puede continuar. En otras palabras, lo que se necesita es una IA que sea capaz de aprender de conjuntos de datos más pequeños y seleccionados, basándose en muestras de expertos, en lugar de en la población promedio. Pero es muy difícil predecir cuándo llegará esa innovación. Lo que podemos hacer es crear mejores incentivos para la innovación que ahorra datos. Consideremos esto: a principios del siglo XX, hubo una verdadera competencia: ¿prevalecerían los vehículos eléctricos o el motor de combustión en la floreciente industria automovilística? Al principio ambos contendientes estaban a la par, pero los enormes descubrimientos de petróleo inclinaron la balanza a favor del motor de combustión. Ahora imaginemos que en aquel entonces aprovechamos un impuesto al petróleo: podríamos haber inclinado la balanza a favor del automóvil eléctrico, ahorrándonos muchas emisiones de carbono. De manera similar, un impuesto a los datos crearía incentivos para que la innovación haga que la IA requiera menos datos. En el futuro, como hemos argumentado en otro lugar, muchos trabajos se automatizarán, pero no debido a la última ola de IA generativa. En ausencia de avances importantes, esperamos que los obstáculos que describimos en nuestro documento de 2013 sigan limitando las posibilidades de automatización en el futuro previsible. Este artículo de opinión refleja las opiniones del autor y no necesariamente refleja la posición de la Oxford Martin School o la Universidad de Oxford. Cualquier error u omisión es responsabilidad del autor. ****Carl-Benedikt Frey es profesor asociado Dieter Schwarz de IA y tecnología. Trabaja en el Oxford Internet Institute y es miembro del Mansfield College de la Universidad de Oxford. También es Director del Programa Futuro del Trabajo y Oxford Martin Citi Fellow... ****Michael A Osborne (DPhil Oxon) es un experto en el desarrollo de inteligencia artificial en sintonía con las necesidades de la sociedad. Su trabajo sobre algoritmos de inferencia robustos y escalables en Machine Learning se ha aplicado con éxito en diversos àmbitos.