Por François Vannucci Profesor emérito, investigador en física de partículas, especialista en neutrinos, Université Paris Cité Desde Galileo, la investigación en física ha seguido un procedimiento bien marcado, estructurado por tres preceptos: observación de los fenómenos naturales, conceptualización de una ley subyacente a ellos, verificación de las predicciones que resultan de ellos. Este enfoque ha dado muchos frutos y ahora conocemos en detalle las leyes que se aplican al mundo entre la escala de las partículas elementales y la del universo global. El método, magistralmente desarrollado durante los últimos cuatro siglos, se basa en la ley de la causalidad y sigue el enfoque reduccionista de Descartes : ante un problema, éste debe descomponerse en tantas etapas que permitan construir secuencias simples de razonamiento. . En cada paso, se aplica el determinismo. Si no encontramos una secuencia causal es porque no hemos reducido suficientemente el problema. Este enfoque es consistente con el principio de parsimonia de Occam., según el cual se debe elegir la explicación más simple para comprender la naturaleza, siendo la complejidad sólo una solución de último recurso. Hoy en día, este paradigma parece ser rechazado por las técnicas de moda de aprendizaje automático (ML), que se traduce como aprendizaje automático y que es una subcategoría de la inteligencia artificial de la que se habla todo el tiempo. ¿Es una revolución y, de ser así, qué podemos deducir de ella? Aprendizaje automático y redes neuronales inteligencia artificialtiene como objetivo crear una máquina capaz de imitar la inteligencia humana. Se utiliza para la traducción automática de textos, la identificación de imágenes, en particular el reconocimiento facial, la publicidad dirigida... El objetivo del aprendizaje automático es más específico. Su objetivo es enseñar a una computadora a realizar una tarea y proporcionar resultados mediante la identificación de coincidencias en un lote de datos. ML escribe algoritmos que descubren patrones recurrentes, similitudes en conjuntos de datos existentes que luego se utilizan para interpretar nuevos datos. Estos datos pueden ser números, palabras, imágenes… Los programas informáticos de ML son capaces de predecir resultados sin tratar de analizar los detalles de los procesos involucrados. La técnica de redes neuronales es una de las herramientas del método. Estos son algoritmos en forma de red multicapa. La primera permite la ingesta de los datos a analizar en forma de lote de parámetros (imagen de un perro por ejemplo), una o varias capas ocultas extraen conclusiones de los datos denominados de "entrenamiento" acumulados previamente (imágenes de miles de perros), y el último asigna una probabilidad a la imagen inicial. Como sugiere su nombre, las redes neuronales están directamente inspiradas en el funcionamiento del cerebro humano. Analizan la complejidad teniendo en cuenta todas las correlaciones existentes, al igual que la visión global del ojo. Al detectar regularidades en un gran conjunto de datos almacenados, los algoritmos mejoran su rendimiento con el tiempo en la realización de una tarea. Una vez entrenado, el algoritmo podrá encontrar patrones en los nuevos datos de los que ha recibido. Pero para obtener un resultado satisfactorio, el sistema debe ser entrenado con un conjunto de aprendizaje lo más extenso posible que permanezca representativo e imparcial, y esto explica el problema básico del método: el resultado depende del entrenamiento. Por lo tanto, un proceso distinguirá más fácilmente a los perros que a los lobos si ha estado sujeto a más imágenes de perros durante el aprendizaje. Un caso reciente clasificó a un perro como lobo porque apareció contra un fondo blanco. Las imágenes de entrenamiento a menudo mostraban lobos contra un paisaje nevado de fondo. El ejemplo de la física de altas energías También en la investigación fundamental, la nueva técnica se utiliza ampliamente para el análisis de datos complejos. Permite desarrollar, probar y aplicar algoritmos sobre diferentes tipos de datos para calificar un evento. Por ejemplo, ML ayuda a los físicos a gestionar los miles de millones de interacciones de protones obtenidas en el Gran Colisionador del CERN, que descubrió el bosón de Higgs. Las redes neuronales pueden hacer que el filtrado de datos sea más rápido y preciso. La técnica mejora por sí sola con el tiempo. Esto constituye una ruptura con los métodos anteriores donde primero buscábamos identificar tal o cual tipo de partícula entre los productos de la reacción aplicando reglas de selección apropiadas para luego examinar la interacción como un todo. Aquí, explotamos directamente la estructura general de un evento. Así, para la búsqueda de nuevas partículas, un modelo teórico fija una fenomenología con sus parámetros asociados. Los físicos simulan la creación y detección de estas partículas. También simulan el "ruido" causado por todas las demás reacciones predichas por el Modelo Estándar , depende del aprendizaje automático distinguir la señal buscada y la respuesta se da en una escala de probabilidad de verosimilitud. Sin embargo, la ciencia no puede confiar ciegamente en ML. Los físicos que explotan esta revolución deben permanecer en el asiento del conductor. Por ahora, todavía se necesita un ser humano para examinar críticamente lo que ofrecen los análisis algorítmicos. Su función es dar sentido a los resultados y garantizar que los datos procesados no estén sesgados ni alterados. De manera similar, un físico que desee utilizar un traductor automático del inglés al francés debe asegurarse de que la palabra onda se traduce realmente por onda y no por onda en la expresión de la dualidad onda-partícula. ¿Sigue siendo la física determinista? La física clásica pretendía ser determinista, daba un resultado único a un problema dado. El método ML, por su construcción, responderá de manera probabilística con una posibilidad de error que buscaremos minimizar. Al ganar en eficiencia y velocidad de análisis, abandonamos la certeza para conformarnos con la probabilidad. A menudo podemos estar satisfechos con ello, siendo la vida misma probabilística. En su momento, Einstein se opuso al indeterminismo inherente a la mecánica cuántica. Creía que el cerebro humano era capaz de explicar completamente la realidad. En esto estaba siguiendo un prejuicio muy respetable procedente de la filosofía griega. De hecho, la mecánica cuántica introduce una aleatoriedad intrínseca que viola el a priori de los físicos. Pero esta posibilidad permanece restringida, mantiene un determinismo colectivo ya que sabemos exactamente cómo predecir la evolución de una población de partículas. Ante los nuevos desarrollos, hay que admitir que el probabilismo se está convirtiendo en una propiedad obligatoria inscrita en la propia técnica de investigación. Einstein debería estar revolcándose en su tumba. ¿Explicar para entender? La física clásica intentó racionalizar el proceso del conocimiento conceptualizando una ley cuyas consecuencias se comprobaron experimentalmente. Con ML, siempre tratamos de predecir la evolución de un fenómeno, pero la fase de conceptualización ha desaparecido. Partimos de la riqueza de los grandes números para definir un patrón que aplicaremos al problema planteado. Ya no parece necesario construir una teoría para resolver un problema. Las nociones de objetivo y subjetivo se mezclan. Se decía que la física explica el “cómo” de los fenómenos naturales, dejando que otras mentes expliquen el “por qué”. Aquí, es necesario revisar la noción de explicación, se borra la cuota de inteligencia pura gastada, o al menos, frente a la proeza de la computadora, la inteligencia humana ya no sirve para mejorar el proceso informático. El hombre se pone al servicio de la máquina. ¿Ha perdido la física su orientación? Yo había perdido la mía y ante mi confusión, un teórico me regañó: “¿Entonces crees que se intercambian gravitones entre el Sol y la Tierra para mantener nuestro planeta en su órbita? Las partículas virtuales no existen, son simples dispositivos de cálculo. » Y entendí entonces que ML tenía que ser aceptado como un dispositivo de cálculo más elaborado que los del pasado, pero eso no me pareció sin consecuencias. La física ya no busca explicar, se contenta con un resultado relevante a un problema obtenido con la máxima eficiencia. Pero lo que no puede ser explicado debe ser admitido. Pascal ya había sentido una limitación de principio en la física; clasificó el espacio y el tiempo entre las magnitudes primitivas cuya realidad debe aceptarse sin explicación, porque es "simplemente así". Platón con su alegoría de la caverna tuvo la intuición de que siempre interpretaremos solo sombras, en el contexto de una memoria de computadora en el caso de ML. Y todo esto recuerda el mandato de San Agustín que escribió, en un contexto obviamente muy diferente: “Es necesario creer para comprender. Entonces, ¿qué podemos concluir? En 1989, se anunció "el fin de la historia". La profecía resultó ser muy exagerada,