El cerebro aprende diferente y mejor que la forma en que aprenden los sistemas de inteligencia artificial

foto-resumen

Investigadores de la Unidad de Dinámica de Redes Cerebrales del MRC y del Departamento de Ciencias de la Computación de la Universidad de Oxford han establecido un nuevo principio para explicar cómo el cerebro ajusta las conexiones entre las neuronas durante el aprendizaje. Esta nueva visión puede guiar futuras investigaciones sobre el aprendizaje en redes cerebrales y puede inspirar algoritmos de aprendizaje más rápidos y robustos en inteligencia artificial. La esencia del aprendizaje es identificar qué componentes en la canalización de procesamiento de información son responsables de un error en la salida. En la inteligencia artificial, esto se logra mediante la retropropagación: ajustando los parámetros de un modelo para reducir el error en la salida. Muchos investigadores creen que el cerebro emplea un principio de aprendizaje similar. Sin embargo, el cerebro biológico es superior a los sistemas actuales de aprendizaje automático. Por ejemplo, podemos aprender nueva información con solo verla una vez, mientras que los sistemas artificiales necesitan ser entrenados cientos de veces con la misma información para aprenderlos. Además, podemos aprender nueva información manteniendo el conocimiento que ya tenemos, mientras que aprender nueva información en redes neuronales artificiales a menudo interfiere con el conocimiento existente y lo degrada rápidamente. Estas observaciones motivaron a los investigadores a identificar el principio fundamental empleado por el cerebro durante el aprendizaje. Analizaron algunos conjuntos existentes de ecuaciones matemáticas que describen cambios en el comportamiento de las neuronas y en las conexiones sinápticas entre ellas. Analizaron y simularon estos modelos de procesamiento de información y descubrieron que emplean un principio de aprendizaje fundamentalmente diferente del utilizado por las redes neuronales artificiales. En las redes neuronales artificiales, un algoritmo externo intenta modificar las conexiones sinápticas para reducir el error, mientras que los investigadores proponen que el cerebro humano primero establece la actividad de las neuronas en una configuración equilibrada óptima antes de ajustar las conexiones sinápticas. Los investigadores postulan que esta es, de hecho, una característica eficiente de la forma en que aprenden los cerebros humanos. Esto se debe a que reduce la interferencia al preservar el conocimiento existente, lo que a su vez acelera el aprendizaje. En un artículo publicado en Nature Neuroscience, los investigadores describen este nuevo principio de aprendizaje, al que han denominado "configuración prospectiva". Demostraron en simulaciones por ordenador que los modelos que emplean esta configuración prospectiva pueden aprender más rápido y de forma más eficaz que las redes neuronales artificiales en tareas a las que normalmente se enfrentan los animales y los humanos en la naturaleza. Los autores utilizan el ejemplo de la vida real de un oso que pesca salmón. El oso puede ver el río y ha aprendido que si también puede oír el río y oler el salmón, es probable que atrape uno. Pero un día, el oso llega al río con una oreja dañada, por lo que no puede escucharla. En un modelo de procesamiento de información de redes neuronales artificiales, esta falta de audición también resultaría en una falta de olfato (porque al aprender que no hay sonido, la retropropagación cambiaría múltiples conexiones, incluidas las que existen entre las neuronas que codifican el río y el salmón) y el oso concluiría que no hay salmón y pasaría hambre. Pero en el cerebro animal, la falta de sonido no interfiere con el conocimiento de que todavía existe el olor del salmón, por lo tanto, es probable que el salmón todavía esté allí para ser capturado. Los investigadores desarrollaron una teoría matemática que muestra que dejar que las neuronas se establezcan en una configuración prospectiva reduce la interferencia entre la información durante el aprendizaje. Demostraron que la configuración prospectiva explica la actividad y el comportamiento neuronal en múltiples experimentos de aprendizaje mejor que las redes neuronales artificiales. El investigador principal, el profesor Rafal Bogacz, de la Unidad de Dinámica de Redes Cerebrales del MRC y del Departamento Nuffield de Neurociencias Clínicas de Oxford, afirma: «Actualmente existe una gran brecha entre los modelos abstractos que realizan una configuración prospectiva y nuestro conocimiento detallado de la anatomía de las redes cerebrales. La investigación futura de nuestro grupo tiene como objetivo cerrar la brecha entre los modelos abstractos y los cerebros reales, y comprender cómo se implementa el algoritmo de configuración prospectiva en redes corticales anatómicamente identificadas». El primer autor del estudio, el Dr. Yuhang Song, añade: «En el caso del aprendizaje automático, la simulación de la configuración prospectiva en los ordenadores existentes es lenta, ya que funcionan de formas fundamentalmente diferentes a las del cerebro biológico. Es necesario desarrollar un nuevo tipo de ordenador o hardware dedicado inspirado en el cerebro, que sea capaz de implementar la configuración prospectiva rápidamente y con poco uso de energía».