Novedades del sitio

Los neurocientíficos descubren una señal del cerebro que indica si el discurso se ha entendido

 
Imagen de Carlos Rozas
Los neurocientíficos descubren una señal del cerebro que indica si el discurso se ha entendido
de Carlos Rozas - viernes, 23 de febrero de 2018, 14:10
 

Los neurocientíficos descubren una señal del cerebro que indica si el discurso se ha entendido


Cuando un oyente entiende el habla, se ve una fuerte señal de respuesta en la parte media posterior de su cuero cabelludo (fila superior; las formas de onda azul y verde muestran la respuesta en dos ubicaciones de grabación específicas). Cuando no pueden entender (porque, por ejemplo, la voz se reproduce hacia atrás), la señal desaparece completamente (fila inferior; las formas de onda rojas y amarillas muestran la falta de respuesta en las mismas dos ubicaciones de grabación específicas). Crédito: Profesor Ed Lalor


Fecha:     22 de febrero de 2018
Fuente:     Trinity College Dublin
Resumen:     La presencia o ausencia de una señal cerebral única después de que un oyente ha escuchado algún discurso indica si ese oyente ha entendido lo que se ha dicho. El descubrimiento tiene una serie de aplicaciones prácticas, incluido el seguimiento del desarrollo del lenguaje, la evaluación de la función cerebral posterior a la lesión y la confirmación de si se han entendido instrucciones importantes en trabajos de alta presión.

Los neurocientíficos del Trinity College de Dublín y la Universidad de Rochester han identificado una señal cerebral específica asociada con la conversión del habla en comprensión. La señal está presente cuando el oyente ha entendido lo que han escuchado, pero está ausente cuando o no entendieron o no prestaron atención.


La singularidad de la señal significa que podría tener una serie de posibles aplicaciones, como el seguimiento del desarrollo del lenguaje en los bebés, la evaluación de la función cerebral en pacientes que no responden o la determinación del inicio temprano de la demencia en las personas mayores.

Durante nuestras interacciones cotidianas, habitualmente hablamos a velocidades de 120-200 palabras por minuto. Para que los oyentes comprendan el habla a estas tasas, y para no perder el hilo de la conversación, sus cerebros deben comprender el significado de cada una de estas palabras muy rápidamente. Es una hazaña asombrosa del cerebro humano que lo hagamos tan fácilmente, especialmente dado que el significado de las palabras puede variar mucho según el contexto. Por ejemplo, la palabra en ingles "bat" significa cosas muy diferentes en las siguientes dos oraciones: "I saw a bat flying overhead last night"; "The baseball player hit a homerun with his favourite bat."

Sin embargo, precisamente cómo nuestros cerebros calculan el significado de las palabras en contexto, hasta ahora, no estaba claro. El nuevo enfoque, publicado hoy en la revista internacional Current Biology, muestra que nuestros cerebros realizan un cálculo rápido de la similitud en el significado que cada palabra tiene con las palabras que han llegado inmediatamente antes.

Para descubrir esto, los investigadores comenzaron explotando las técnicas más avanzadas que permiten que las computadoras modernas y los teléfonos inteligentes "entiendan" el habla. Estas técnicas son bastante diferentes de cómo operan los humanos. La evolución humana ha sido tal que los bebés vienen más o menos cableados para aprender a hablar sobre la base de un número relativamente pequeño de ejemplos de habla. Las computadoras, por otro lado, necesitan una gran cantidad de entrenamiento, pero debido a que son rápidas, pueden lograr este entrenamiento muy rápidamente. Por lo tanto, uno puede entrenar una computadora dándole muchos ejemplos (por ejemplo, toda la Wikipedia) y pidiéndole que reconozca qué pares de palabras aparecen juntas mucho y cuáles no. Al hacer esto, la computadora comienza a "entender" que las palabras que aparecen juntas regularmente, como "cake" y "pie", deben significar algo similar. Y, de hecho, la computadora termina con un conjunto de medidas numéricas que capturan cuán similar es una palabra a otra.

Para probar si los cerebros humanos realmente calculan la similitud entre las palabras mientras escuchamos el habla, los investigadores registraron señales de ondas cerebrales eléctricas registradas en el cuero cabelludo humano, una técnica conocida como electroencefalografía o EEG, mientras los participantes escuchaban varios audiolibros. Luego, al analizar su actividad cerebral, identificaron una respuesta cerebral específica que reflejaba cuán similar o diferente era una palabra dada de las palabras que la precedieron en la historia.

Fundamentalmente, esta señal desapareció por completo cuando los sujetos o no podían entender el habla (porque era demasiado ruidoso), o cuando simplemente no le prestaban atención. Por lo tanto, esta señal representa una medida extremadamente sensible de si una persona está realmente entendiendo el habla que está escuchando y, como tal, tiene una serie de posibles aplicaciones importantes.

Ussher Profesor Asistente en la Escuela de Ingeniería de Trinity College en Dublín, el Instituto de Neurociencia Trinity College, y el Centro Trinitario de Bioingeniería, Ed Lalor, dirigió la investigación.

El profesor Lalor dijo: "Las aplicaciones potenciales incluyen pruebas de desarrollo del lenguaje en bebés, o determinar el nivel de función cerebral en pacientes en un estado reducido de conciencia. La presencia o ausencia de la señal también puede confirmar si una persona en un trabajo que exige precisión y las reacciones rápidas -como un controlador de tránsito aéreo o un soldado- han entendido las instrucciones que han recibido, y tal vez incluso sean útiles para evaluar la aparición de demencia en personas mayores según su capacidad para seguir una conversación ".

"Hay más trabajo por hacer antes de comprender completamente la gama completa de cálculos que nuestros cerebros realizan cuando entendemos el habla. Sin embargo, ya hemos comenzado a buscar otras formas en que nuestros cerebros puedan calcular el significado, y cómo esos cálculos difieren de aquellos realizado por computadoras. Esperamos que el nuevo enfoque suponga una gran diferencia cuando se aplique de alguna de las maneras que imaginamos ".


Bibliografia:
Michael P. Broderick, Andrew J. Anderson, Giovanni M. Di Liberto, Michael J. Crosse, Edmund C. Lalor. Electrophysiological Correlates of Semantic Dissimilarity Reflect the Comprehension of Natural, Narrative Speech. Current Biology, 2018; DOI: 10.1016/j.cub.2018.01.080

Enlace web original:
https://www.sciencedaily.com/releases/2018/02/180222125736.htm