Un estudio reciente sugiere que el cerebro humano podría procesar el lenguaje de una manera similar a los modelos lingüísticos avanzados de IA, mediante el uso de patrones flexibles y conscientes del contexto en lugar de reglas fijas.
Un estudio reciente dirigido por el Dr. Ariel Goldstein del Departamento de Ciencias Cognitivas y Cerebrales y la Escuela de Negocios de la Universidad Hebrea de Jerusalem, en estrecha colaboración con Google Research en Israel, encontró en la Facultad de Medicina de la Universidad de Nueva York similitudes fascinantes en la forma en que el cerebro humano y los modelos de inteligencia artificial procesan el lenguaje.
La investigación sugiere que el cerebro, al igual que los sistemas de IA como GPT-2, puede utilizar un espacio de incrustación continuo y sensible al contexto para derivar el significado del lenguaje, un avance que podría remodelar nuestra comprensión del procesamiento del lenguaje neuronal.
A diferencia de los modelos de lenguaje tradicionales basados en reglas fijas, los modelos de lenguaje profundo como GPT-2 emplean redes neuronales para crear “espacios de incrustación”, representaciones vectoriales de alta dimensión que capturan las relaciones entre palabras en varios contextos. Este enfoque permite que estos modelos interpreten la misma palabra de manera diferente en función del texto circundante, lo que ofrece una comprensión más matizada. El equipo del Dr. Goldstein buscó explorar si el cerebro podría emplear métodos similares en su procesamiento del lenguaje.
Para el estudio, los investigadores registraron la actividad neuronal en el giro frontal inferior, una región conocida por el procesamiento del lenguaje, de los participantes mientras escuchaban un podcast de 30 minutos. Al mapear cada palabra a una “incrustación cerebral” en esta área, descubrieron que estas incrustaciones basadas en el cerebro mostraban patrones geométricos similares a los espacios de incrustación contextual de los modelos de lenguaje profundo.
Sorprendentemente, esta geometría compartida permitió a los investigadores predecir las respuestas cerebrales a palabras no encontradas anteriormente, un enfoque llamado inferencia de disparo cero. Esto implica que el cerebro puede depender de relaciones contextuales en lugar de significados fijos de palabras, lo que refleja la naturaleza adaptativa de los sistemas de aprendizaje profundo.
“Nuestros hallazgos sugieren un cambio de representaciones simbólicas basadas en reglas en el cerebro a un sistema continuo impulsado por el contexto”, explica el Dr. Goldstein. “Observamos que las incrustaciones contextuales, similares a las de los modelos de lenguaje profundo, se alinean más estrechamente con la actividad neuronal que las representaciones estáticas, lo que avanza en nuestra comprensión del procesamiento del lenguaje del cerebro”.
Este estudio indica que el cerebro actualiza dinámicamente su representación del lenguaje en función del contexto en lugar de depender únicamente de las formas de palabras memorizadas, desafiando las teorías psicolingüísticas tradicionales que enfatizaban el procesamiento basado en reglas. El trabajo del Dr. Goldstein se alinea con los avances recientes en inteligencia artificial, insinuando el potencial de los modelos inspirados en la IA para profundizar nuestra comprensión de las bases neuronales de la comprensión del lenguaje.
El equipo planea ampliar esta investigación con muestras más grandes y grabaciones neuronales más detalladas para validar y ampliar estos hallazgos. Al establecer conexiones entre la inteligencia artificial y la función cerebral, este trabajo podría dar forma al futuro de la neurociencia y la tecnología de procesamiento del lenguaje, abriendo las puertas a innovaciones en IA que reflejen mejor la cognición humana.
El artículo de investigación titulado “Alignment of brain embeddings and artificial contextual embeddings in natural language points to common geometric patterns”, ya está disponible en Nature Communications.
Investigadores:
Ariel Goldstein1,2, Avigail Grinstein-Dabush2,8, Mariano Schain2,8, Haocheng Wang3, Zhuoqiao Hong3, Bobbi Aubrey3,4, Samuel A. Nastase3, Zaid Zada3, Eric Ham3, Amir Feder2, Harshvardhan Gazula3, Eliav Buchnik2, Werner Doyle4, Sasha Devore4, Patricia Dugan4, Roi Reichart5, Daniel Friedman4, Michael Brenner2,6, Avinatan Hassidim2, Orrin Devinsky4, Adeen Flinker4,7, Uri Hasson2,3
Instituciones:
1) Escuela de Negocios, Departamento de Ciencia de Datos y Departamento de Ciencias Cognitivas y Cerebrales, Universidad Hebrea de Jerusalem.
2) Google Research, Tel Aviv.
3) Departamento de Psicología y el Instituto de Neurociencias, Universidad de Princeton.
4) Facultad de Medicina Grossman de la Universidad de Nueva York, Nueva York.
5) Facultad de Ingeniería y Gestión Industrial, Technion, Instituto de Tecnología de Israel.
6) Escuela de Ingeniería y Ciencias Aplicadas, Universidad de Harvard.
7) Escuela de Ingeniería Tandon de la Universidad de Nueva York.