Un nuevo estudio ha descubierto cómo el cerebro transforma sin problemas los sonidos, los patrones de habla y las palabras en el flujo de las conversaciones cotidianas. Utilizando tecnología avanzada para analizar más de 100 horas de actividad cerebral durante discusiones de la vida real, los investigadores revelaron las intrincadas vías que nos permiten hablar y comprender sin esfuerzo.
Un nuevo estudio dirigido por el Dr. Ariel Goldstein, del Departamento de Ciencias Cognitivas y del Cerebro y la Escuela de Negocios de la Universidad Hebrea de Jerusalem, Google Research, en colaboración con el Laboratorio Hasson en el Instituto de Neurociencia de la Universidad de Princeton, el Dr. Flinker y el Dr. Devinsky del Centro Integral de Epilepsia Langone de la Universidad de Nueva York, ha desarrollado un marco computacional unificado para explorar las bases neuronales de las conversaciones humanas.
Esta investigación tiende un puente entre las estructuras lingüísticas acústicas, del habla y de las palabras, ofreciendo información sin precedentes sobre cómo el cerebro procesa el habla cotidiana en entornos del mundo real.
El estudio registró la actividad cerebral durante más de 100 horas de conversaciones naturales y abiertas utilizando una técnica llamada electrocorticografía (ECoG). Para analizar estos datos, el equipo utilizó un modelo de voz a texto llamado Whisper, que ayuda a dividir el lenguaje en tres niveles: sonidos simples, patrones de habla y el significado de las palabras. Estas capas se compararon con la actividad cerebral utilizando modelos informáticos avanzados.
Los resultados mostraron que el marco podía predecir la actividad cerebral con gran precisión. Incluso cuando se aplicó a conversaciones que no formaban parte de los datos originales, el modelo hizo coincidir correctamente diferentes partes del cerebro con funciones específicas del lenguaje. Por ejemplo, las regiones involucradas en la audición y el habla se alinearon con los patrones de sonido y habla, mientras que las áreas involucradas en la comprensión de nivel superior se alinearon con los significados de las palabras.
El estudio también encontró que el cerebro procesa el lenguaje en una secuencia. Antes de que hablemos, nuestro cerebro pasa de pensar en palabras a formar sonidos, mientras que después de escuchar, trabaja hacia atrás para dar sentido a lo que se dijo.
El marco utilizado en este estudio fue más efectivo que los métodos más antiguos para capturar estos procesos complejos.
“Nuestros hallazgos nos ayudan a comprender cómo el cerebro procesa las conversaciones en entornos de la vida real”, dijo el Dr. Goldstein. “Al conectar diferentes capas del lenguaje, estamos descubriendo la mecánica detrás de algo que todos hacemos de forma natural: hablar y entendernos”.
Esta investigación tiene posibles aplicaciones prácticas, desde la mejora de la tecnología de reconocimiento de voz hasta el desarrollo de mejores herramientas para personas con problemas de comunicación. También ofrece nuevos conocimientos sobre cómo el cerebro hace que la conversación se sienta tan fácil, ya sea charlando con un amigo o participando en un debate. El estudio marca un paso importante hacia la construcción de herramientas más avanzadas para estudiar cómo el cerebro maneja el lenguaje en situaciones del mundo real.
El trabajo de investigación titulado “A unified acoustic-to-speech-to-language embedding space captures the neural basis of natural language processing in everyday conversations”, está disponible en Nature Human Behaviour.
Investigadores:
Ariel Goldstein1,2, Haocheng Wang3, Leonard Niekerken3,4, Mariano Schain2, Zaid Zada3, Bobbi Aubrey3, Tom Sheffer2, Samuel A. Nastase3, Harshvardhan Gazula3,5, Aditi Singh3, Aditi Rao3, Gina Choe3, Catherine Kim3, Werner Doyle6, Daniel Friedman6, Sasha Devore6, Patricia Dugan6, Avinatan Hassidim2, Michael Brenner2,7, Yossi Matias2, Orrin Devinsky6, Adeen Flinker6, Uri Hasson3.
Instituciones:
1) Departamento de Ciencias Cognitivas y Cerebrales y Escuela de Negocios, Universidad Hebrea de Jerusalem.
2) Investigación de Google, Mountain View, EE. UU.
3) Departamento de Psicología y el Instituto de Neurociencia de Princeton, Universidad de Princeton.
4) Departamento de Neurociencia Cognitiva, Facultad de Psicología y Neurociencia, Universidad de Maastricht.
5) Centro Athinoula A. Martinos de Imágenes Biomédicas, Hospital General de Massachusetts y Facultad de Medicina de Harvard.
6) Facultad de Medicina de la Universidad de Nueva York.
7) Escuela de Ingeniería y Ciencias Aplicadas, Universidad de Harvard.