Estamos en medio de una revolución científica y tecnológica. Las computadoras de hoy usan inteligencia artificial para aprender del ejemplo y ejecutar funciones sofisticadas que, hasta hace poco, se pensaba que eran imposibles. Estos algoritmos inteligentes pueden reconocer rostros e incluso conducir vehículos autónomos. Las redes de aprendizaje profundo, responsables de muchos de estos avances tecnológicos, se basan en los mismos principios que forman la estructura de nuestro cerebro: están compuestas por células nerviosas artificiales que están conectadas entre sí mediante sinapsis artificiales; estas células se envían señales entre sí a través de estas sinapsis.
Nuestra comprensión básica de la función neuronal se remonta a la década del ‘50. Sobre esta comprensión elemental, las neuronas artificiales actuales que se utilizan en el aprendizaje profundo operan sumando sus entradas sinápticas linealmente y generando en respuesta uno de dos estados de salida: “0” (APAGADO) y “1” (ENCENDIDO).
En las últimas décadas, sin embargo, el campo de la neurociencia ha descubierto que las neuronas individuales se construyen a partir de un complejo sistema de ramificación que contiene muchas subregiones funcionales. De hecho, la estructura ramificada de las neuronas y las muchas sinapsis que la contactan sobre su superficie distribuida implica que las neuronas individuales podrían comportarse como una red extensa en la que cada subregión tiene su propia función de entrada-salida local, es decir, no lineal.
Una nueva investigación de la Universidad Hebrea de Jerusalem busca comprender la potencia informática de una neurona de manera sistemática. Si se mapea la entrada-salida de una neurona para muchas entradas sinápticas (muchos ejemplos), entonces se puede examinar qué tan “profunda” debería ser una red análoga para replicar las características de E / S de la neurona.
El estudiante David Beniaguev, junto con los profesores Michael London e Idan Segev, del Centro Edmond y Lily Safra para las Ciencias del Cerebro (ELSC) de la Universidad Hebrea, asumieron este desafío y publicaron sus hallazgos en la prestigiosa revista Neuron.
El objetivo del estudio es comprender cómo las células nerviosas individuales, los componentes básicos del cerebro, traducen las entradas sinápticas en su salida eléctrica. Al hacerlo, los investigadores buscan crear un nuevo tipo de infraestructura artificial de aprendizaje profundo, que actuará más como el cerebro humano y producirá capacidades igualmente impresionantes como lo hace el cerebro. “La nueva red de aprendizaje profundo que proponemos se construye a partir de neuronas artificiales en las que cada una de ellas ya tiene entre 5 y 7 capas de profundidad. Estas unidades están conectadas, a través de sinapsis artificiales, a las capas superiores e inferiores”, explicó Segev.
En el estado actual de las redes neuronales profundas, cada neurona artificial responde a los datos de entrada (sinapsis) con un “0” o un “1”, según la fuerza sináptica que recibe de la capa anterior. Con base en esa fuerza, la sinapsis envía (excita), o retiene (inhibe), una señal a las neuronas de la siguiente capa. Las neuronas en la segunda capa luego procesan los datos que recibieron y transfieren la salida a las células en el siguiente nivel, etc. Por ejemplo, en una red que se supone que responde a gatos (pero no a otros animales), esta red debería responda para un gato con un “1” en la última neurona de salida (más profunda) y con un “0” en caso contrario. Las redes neuronales profundas del estado actual demostraron que pueden aprender esta tarea y realizarla extremadamente bien.
Este enfoque permite que las computadoras en automóviles sin conductor, por ejemplo, aprendan cuándo han llegado a un semáforo o un paso de peatones, incluso si la computadora nunca ha visto ese cruce de peatones específico. “A pesar de los éxitos notables que se definen como un ‘cambio de juego’ para nuestro mundo, todavía no apreciamos completamente cómo el aprendizaje profundo es capaz de hacer lo que hace y muchas personas en todo el mundo están tratando de resolverlo”, expresó el Prof. Segev.
La capacidad de cada red de aprendizaje profundo también se limita a la tarea específica que se le pide que realice. Un sistema que se le enseñó a identificar gatos no es capaz de identificar perros. Además, es necesario que exista un sistema dedicado para detectar la conexión entre el maullido y los gatos. Si bien el éxito del aprendizaje profundo es sorprendente para tareas específicas, estos sistemas están muy por detrás del cerebro humano en su capacidad para realizar múltiples tareas. “No necesitamos más de un accidente automovilístico sin conductor para darnos cuenta de los peligros inherentes a estas limitaciones”, bromeó Segev.
Actualmente, se está centrando una investigación significativa en proporcionar un aprendizaje profundo artificial con habilidades más inteligentes y abarcativas, como la capacidad de procesar y correlacionar entre diferentes estímulos y relacionarse con diferentes aspectos del gato (vista, oído, tacto, etc.) y aprender a traducir esos diversos aspectos en significado. Estas son capacidades en las que sobresale el cerebro humano y aquellas que el aprendizaje profundo aún no ha podido lograr.
“Nuestro enfoque es utilizar capacidades de aprendizaje profundo para crear un modelo computarizado que reproduzca mejor las propiedades de E / S de neuronas individuales en el cerebro”, explicó Beniaguev. Para hacerlo, los investigadores se basaron en el modelado matemático de neuronas individuales, un conjunto de ecuaciones diferenciales que fue desarrollado por Segev y London. Esto les permite simular con precisión los procesos eléctricos detallados que tienen lugar en diferentes regiones de la neurona simulada y mapear mejor la transformación compleja para el aluvión de entradas sinápticas y la corriente eléctrica que producen a través de la estructura en forma de árbol (árbol dendrítico) de la célula nerviosa. Los investigadores utilizaron este modelo para buscar una red neuronal profunda (DNN) que replicara la E / S de la neurona simulada. Descubrieron que esta tarea se logra mediante un DNN de 5-7 capas de profundidad.
El equipo espera que la construcción de redes de aprendizaje profundo basadas estrechamente en neuronas reales que, como han demostrado, ya son bastante profundas por sí mismas, les permita realizar procesos de aprendizaje más complejos y eficientes, más similares al cerebro humano. “Una ilustración de esto sería que la red artificial reconociera a un gato con menos ejemplos y realizara funciones como internalizar el significado del lenguaje. Sin embargo, estos son procesos que aún tenemos que demostrar que son posibles mediante nuestras DNN sugeridas con investigación continua”, enfatizó Segev. Tal sistema no solo significaría cambiar la representación de neuronas individuales en la red neuronal artificial respectiva, sino que también combinaría en la red artificial las características de diferentes tipos de neuronas, como es el caso del cerebro humano. “El objetivo final sería crear una réplica computarizada que imite la funcionalidad, la capacidad y la diversidad del cerebro, para crear, en todos los sentidos, verdadera inteligencia artificial”, agregó Segev.
Este estudio también ofreció la primera oportunidad de mapear y comparar el poder de procesamiento de los diferentes tipos de neuronas. “Por ejemplo, para simular la neurona A, necesitamos mapear siete niveles diferentes de aprendizaje profundo de neuronas específicas, mientras que la neurona B puede necesitar nueve de esas capas”, explicó Segev. “De esta manera, podemos comparar cuantitativamente el poder de procesamiento de la célula nerviosa de un ratón con una célula comparable en un cerebro humano, o entre dos tipos diferentes de neuronas en el cerebro humano”.
En un nivel aún más básico, es probable que el desarrollo de un modelo informático basado en un enfoque de aprendizaje automático que simule con tanta precisión la función cerebral proporcione una nueva comprensión del propio cerebro. “Nuestro cerebro desarrolló métodos para construir redes artificiales que replican sus propias capacidades de aprendizaje y esto a cambio nos permite comprender mejor el cerebro y nosotros mismos”, concluyó Beniaguev.
CITATION: David Beniaguev, Idan Segev, Michael London, Single cortical neurons as deep artificial neural networks, Neuron, 2021,
https://doi.org/10.1016/j.neuron.2021.07.002