Premio Nobel en Física 2024: copiar a las redes neuronales para el aprendizaje de la Inteligencia Artificial

Columnistas

Como lo hacen cada año, docentes del Instituto Balseiro de Bariloche analizan los fundamentos del Premio Nobel de Física 2024 otorgado a John Hopfield y Geoffrey Hinton.

Nobel en Física 2024: John Hopfield y Geoffrey Hinton

Por Laura García Oviedo (Comunicación Institucional y Prensa del IA)

 

El cerebro humano está compuesto por múltiples redes de neuronas. Imitando la biología animal, dentro del amplio campo de la IA -Inteligencia artificial- se utilizan, entre otras herramientas, redes neuronales sintéticas en máquinas. En la actualidad, este tipo de redes puede realizar un aprendizaje automático (en inglés, “machine learning”) que asombra cada vez más por sus aplicaciones. Dos científicos pioneros en estas temáticas, John Hopfield y Geoffrey Hinton, recibieron este martes 8 de octubre la noticia de que por sus aportes recibieron el Premio Nobel en Física 2024.

 

Si fue un anuncio inesperado, cuáles fueron los principales aportes de Hopfield y Hinton y qué se investiga en este campo en Argentina son algunas preguntas que dos profesores del Instituto Balseiro (IB), Germán Mato e Inés Samengo, responden en esta nota, invitados por el Área de Comunicación y Prensa del IB. Además, opinan sobre cómo influirán las redes neuronales y el aprendizaje automático en el futuro de la sociedad.

 

Las aplicaciones que ya existen de redes neuronales van más allá de los asistentes virtuales como ChatGPT, Gemini y tantos otros sistemas de IA. Los algoritmos que imitan las redes neuronales humanas con sus bits reconocen imágenes, responden consultas y traducen, crean imágenes, música y voces artificiales, ayudan a realizar diagnósticos médicos, recomiendan inversiones y automatizan el control de calidad en distintas industrias. Hasta ayudan a robots a moverse de forma autónoma. Nada salió de un repollo, primero hubo ciencia en un paper (el artículo científico pionero de Hopfield se puede leer en internet) y luego más papers… Y desarrollo tecnológico, que hoy continúa en todo el mundo.

 

El factor sorpresa y aportes

 

Hay una divergencia de opiniones con respecto al Nobel de Física de este año. ¿Fue o no una sorpresa? Incluso en redes sociales como X hubo quienes opinaron que se deberían haber reconocido otros campos. “No es sorprendente. Ambos científicos realizaron contribuciones fundamentales al entendimiento de las redes neuronales y de los sistemas de aprendizaje artificial que son de amplia aplicación hoy en día”, responde el el Doctor en Física Germán Mato, profesor del Instituto Balseiro, ante la consulta de si le resultó una sorpresa el anuncio que se realizó el martes en la madrugada de Argentina.

 

Para la física Inés Samengo, por el contrario, el anuncio resultó inesperado: “Me sorprendió muy gratamente. Creo que es más que merecido, pero no me lo esperaba, porque si bien los galardonados formularon sus investigaciones usando ideas provenientes de la física, la relevancia de su trabajo atañe a las ciencias de la computación y la neuropsicología. Me alegra mucho que se valore el trabajo interdisciplinario”, comenta la profesora del Balseiro. Ambos científicos, que viven y trabajan en el Centro Atómico Bariloche, son investigadores del CONICET.

 

Ahora bien, ¿qué aportes realizaron ambos científicos galardonados con el Nobel de Física de este año? La Fundación Nobel explica en su sitio web que ambos utilizaron herramientas de la física para desarrollar métodos de redes neuronales artificiales desde la década de 1980 que son la base del poderoso aprendizaje automático de hoy en día. John Hopfield, de Princeton University, Estados Unidos, desarrolló las bases para crear una memoria asociativa que puede almacenar y reconstruir imágenes, así como otros tipos de patrones en los datos. Por su parte, Geoffrey Hinton, de University of Toronto, Canada, inventó un método capaz de identificar de forma autónoma propiedades en los datos, lo que permite realizar tareas como la identificación de elementos específicos en imágenes.

 

Desde la Fundación Nobel detallan que John Hopfield inventó una red que emplea un método para almacenar y recrear patrones, utilizando principios de la física del espín atómico, “una propiedad que convierte a cada átomo en un pequeño imán”. Así, el comportamiento de la red se describe de manera equivalente a la energía en un sistema de espín, como en la física, y se entrena encontrando valores para las conexiones entre los nodos de la red, de manera que las imágenes almacenadas tengan baja energía. “Cuando la red de Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos, actualizando los valores (N. de la R.: de las conexiones) para reducir la energía de la red. Así, paso a paso, la red busca la imagen almacenada que más se asemeje a la imperfecta que se le proporcionó”, explican.

 

En sus propias palabras, el físico Germán Mato, que es investigador de la CNEA y del CONICET en el Departamento Física Médica del Centro Atómico Bariloche, sintetiza: “Hopfield entendió que las redes neuronales pueden ser estudiadas usando herramientas de Física de sistemas magnéticos. Este enfoque permitió calcular, por ejemplo, cuánta información se puede almacenar en un sistema de un número dado de neuronas y cómo se puede codificar diferentes tipos de información”.

 

La física Inés Samengo detalla que John Hopfield desarrolló un modelo matemático de una red neuronal que almacena y evoca memorias. “La información de cada recuerdo se distribuye en un gran número de conexiones neuronales, de forma que las memorias se conservan incluso si algunas neuronas se dañan. Un aspecto muy interesante del modelo de Hopfield es que puede formularse en el lenguaje de la mecánica, existe una función energía asociada al sistema neuronal”, dice la física, que realizó tres posdoctorados en neurociencia computacional y que es “nieta académica” de Hopfield, ya que trabajó bajo la dirección del científico Andreas Herz, que, a su vez, había hecho su postdoctorado con el galardonado John Hopfield.

 

“Por ejemplo el proceso de evocar el rostro de mi abuela cuando huelo su perfume se puede describir como un sistema mecánico que evoluciona de un estado inicial (el patrón neuronal generado por el perfume) hasta el mínimo de energía más cercano (el patrón neuronal asociado al rostro de mi abuela)”, describe la científica.

 

Sobre el aporte de Geoffrey Hinton, desde la Fundación Nobel explican que Hinton, aplicando herramientas de la física estadística, utilizó la red de Hopfield como base para desarrollar una nueva red que emplea un método diferente: la “máquina de Boltzmann”, que aprende a reconocer elementos característicos en un tipo específico de datos. La misma puede utilizarse para clasificar imágenes o crear nuevos ejemplos del tipo de patrón con el que fue entrenada. “Hinton ha ampliado este trabajo, ayudando a iniciar el desarrollo explosivo del aprendizaje automático”, informan.

 

Desde Bariloche, ante la consulta de cuál es entonces el aporte por el cual fue reconocido Geoffrey Hinton, el físico Germán Mato destaca: “La principal contribución de Hinton fue desarrollar un método (retropropagación de errores) para aprendizaje en sistemas neuronales multicapa que es computacionalmente muy eficiente”.

 

Inés Samengo, a su vez, explica que Hinton popularizó el uso de redes multicapa para sistemas que deben aprender una cierta transformación entre entradas y salidas, como por ejemplo cuando una red recibe como entrada fotos de animales y, como salida, debe reportar a qué especie pertenece el animal de la foto. “El proceso de aprendizaje no involucra instrucciones explícitas sobre qué define a cada especie. Simplemente, se le presentan ejemplos resueltos a la red, es decir, fotos de animales y etiquetas con la especie. Por lo tanto, la persona que programa la red no necesita saber qué distingue a un animal de otro, solo necesita contar con ejemplos resueltos”, explica.

 

Además, la física comenta que, partiendo de conexiones aleatorias, y modificando paulatinamente la fuerza de cada una de ellas, en cierto momento la red logra resolver la tarea, y es capaz de reconocer animales incluso de fotos que nunca vio en los ejemplos. “Los grandes modelos de lenguaje, más conocidos como LLM por sus siglas en inglés (large language models) como Chat-GPT y otros se basan en esta tecnología”, explica Samengo.

 

Redes neuronales y Argentina

 

La Inteligencia Artificial o IA que hoy está de moda por sus aplicaciones es un amplio campo, y las redes neuronales son sólo un tipo de herramienta dentro de ese universo. “Las redes neuronales son modelos abstractos de sistemas neurobiológicos. Estas pueden realizar tareas computacionales con enfoques que son muy diferentes de los algoritmos convencionales. Son tolerantes a daños, perturbaciones externas y además son capaces de aprender en base a ejemplos sin necesidad de dar reglas explícitas de la tarea a realizar, explica el profesor Germán Mato.

 

Samengo, por su parte, explica que en un ser vivo, las experiencias del sujeto dan lugar a actividad neuronal. “La información que entra por nuestros sentidos hace que algunas neuronas se activen y otras se silencien. Los cambios en la actividad neuronal también dan origen a funciones cognitivas, como ser reconocimiento e interpretación de situaciones, almacenamiento en memoria, toma de decisiones, generación de actividad motora y respuesta emocional. Las neuronas están conectadas entre sí, y la fuerza de las conexiones se modifica dependiendo de la actividad generada”.

 

Así, Samengo explica que cada conexión neuronal se modifica solo un poquito, pero muchos cambios pequeños, si están coordinados, producen un cambio grande a nivel cognitivo y que eso permite que los animales aprendan de su propia experiencia. “Las redes neuronales artificiales constituyen una abstracción de este proceso que se produce naturalmente en el sistema nervioso. La ciencia de la computación ha logrado abstraer varias estrategias de aprendizaje que se aplican a distinto tipo de problemas, como ser, almacenamiento de memoria, predicción de series temporales, clasificación de rasgos biométricos, diagnósticos médicos o generación de texto”, ejemplifica.

 

¿Qué se está investigando en Argentina en este campo? Mato destaca que se trata de un campo muy activo de investigación en Argentina, con aplicaciones a múltiples tópicos. “Nosotros en el Centro Atómico Bariloche e Instituto Balseiro, por ejemplo, aplicamos las técnicas de aprendizaje desarrolladas por Hinton para tratar problemas de procesamiento de imágenes y señales médicas, con el objetivo de facilitar los procesos de diagnóstico y tratamiento de enfermedades asistiendo a los médicos en los procesos de toma de decisión”, responde.

 

Inés Samengo coincide que en Argentina la investigación en redes neuronales es muy activa, e involucra a departamentos de computación, matemática y física a lo largo y ancho del país. Las aplicaciones son muy diversas, por ejemplo, en diagnóstico médico, meteorología, transporte, criminalística, producción agrícola, economía, finanzas, sociología, entre otros temas.

 

“En el Departamento de física médica del Centro Atómico Bariloche desarrollamos códigos con aplicación a patologías pulmonares, disfunciones cardíacas y anomalías neurológicas, así como la caracterización estadística de la población sana local. En mi caso particularmente investigo las redes neuronales reales, es decir, las que están en el cerebro de los humanos y otros animales, y más específicamente en sistemas sensoriales. Mi objetivo es entender qué cómputos subyacen a los procesos cognitivos tanto en funcionamiento normal como patológico”, cuenta Samengo.

 

La profesora también comenta que si bien los modelos de Hopfield y Hinton son idealizaciones, resultan extremadamente útiles como marcos conceptuales en los cuales concebir el almacenamiento y la evocación de memorias, además del procesamiento de información sensorial, motora o lingüística.

 

Futuro

 

Una gran duda es la que se vincula con cómo los aportes de Hopfield y Hinton cambiarán -o ya lo están haciendo- a la sociedad en las próximas décadas. Si bien las redes neuronales y el aprendizaje automático (machine learning en inglés) no son sinónimo de la IA (Inteligencia artificial), sino que son solo una de las múltiples herramientas que se utilizan dentro de la IA, ya están generando un impacto.

 

“La gran mayoría de los desarrollos recientes en inteligencia artificial, como aprendizaje profundo para procesamiento de imágenes o grandes modelos de lenguaje, se basan en el método desarrollado por Hinton. Además varios de esos desarrollos fueron generados por investigadores que fueron sus estudiantes y colaboradores. El trabajo desarrollado por Hopfield es considerado esencial en neurociencia computacional ya que ha generado un marco conceptual de cómo grandes grupos de neuronas pueden procesar información de manera robusta y eficiente”, reflexiona Germán Mato sobre el impacto presente de los aportes de ambos galardonados con el Nobel de Física 2024.

 

Ante la consulta de qué opina sobre el impacto futuro de estas tecnologías, Samengo prefiere dar una respuesta abierta. “Todos sabemos que las redes neuronales están revolucionando literalmente todo a velocidad vertiginosa, y que traen tantas promesas como riesgos. Son temas complejos de tecnología, política, sociología, ética y filosofía, no es fácil decir algo original y escueto sin ponerle una carga emocional hiper positiva o hiper negativa. Los pronósticos apresurados casi siempre salen mal”, responde sin limitar su reflexión.

 

Así, una vez más desde una ciudad austral, Bariloche, y conectando redes de neuronas -humanas- en esta nota, científicos argentinos que son profesores del Balseiro, comentaron y explicaron una vez más de qué se trató el Nobel de Física. Para leer notas de años previos, en las que aportaron sus miradas y palabras más docentes del Balseiro y que fueron realizadas también desde el Área de Comunicación Institucional y Prensa del Balseiro, se puede ingresar a www.ib.edu.ar.

12 octubre, 2024
248 lecturas
Comentar