¿Cómo construye significados el cerebro? | 12 AGO 20

Los rostros de las palabras

Investigadores argentinos demuestran que las palabras que nombran partes del rostro activan mecanismos sensoriomotores faciales antes que mecanismos semánticos.


Créditos imagen: Lucas Neufeld, Eugenia Hesse, Agustina Briba, Adolfo García y Agustín Ibáñez (2020).

Las palabras son manifestaciones del peculiar lenguaje de los seres humanos. Se dice que ellas evocan significados y que cuando se juntan dan lugar a conceptualizaciones abstractas que nos permiten comunicarnos. Pero, ¿de dónde surge el significado que nuestras mentes construyen al oír o ver una palabra?, ¿cómo hace el cerebro para comprender cabalmente un concepto?, ¿será que activa exclusivamente sus circuitos especializados para el lenguaje o hay algo más?

Quizás la punta del ovillo se encuentre por fuera de los circuitos clásicos del lenguaje, en particular, en los mecanismos faciales de nuestro cerebro,  aquellos que se especializan en detectar y analizar rostros. Esta fue la conjetura de los científicos del CONICET Adolfo García, Agustín Ibáñez, Eugenia Hesse y Agustina Birba, que trabajan en el flamante Centro de Neurociencias Cognitivas de la Universidad de San Andrés. Teniendo en cuenta que el cerebro humano dispone de mecanismos muy específicos para procesar la información facial, es decir, circuitos que están ultra preparados para reconocer caras en una pequeña fracción de segundo y con mucha precisión, entonces –hipotetizaron los científicos– el cerebro tal vez sea capaz de construir el significado de un rostro en apenas milisegundos. Así surgió la pregunta de investigación: ¿Qué sucede si en lugar de ver un rostro, el cerebro lee una palabra que alude a caras o partes del rostro? ¿Procesará su significado con la misma velocidad y especificidad que cuando se enfrenta con un rostro real? ¿A qué mecanismos cerebrales acudirá?

La búsqueda por resolver estos interrogantes dio lugar a un estudio que fue publicado en la revista Cerebral Cortex. Este trabajo demostró que, en parte, “comprendemos el lenguaje porque nuestro cerebro reactiva las experiencias sensoriomotoras que evoca una palabra”, manifiesta García. “Si una palabra hace referencia a una parte del rostro, por ejemplo, el cerebro va a estar activando los mecanismos cerebrales de rostros. Para comprender una palabra, primero reactivamos las experiencias corporales que ésta suscita y luego accedemos a un concepto general”, ejemplifica.

De esta forma, el trabajo cuestiona la idea de que el significado se procesa únicamente mediante circuitos lingüísticos, cuya función es privativamente lingüística, y suma evidencia a otros trabajos previos. Además, ofrece evidencia inédita de que la activación de los circuitos sensoriomotores específicos es muy rápida y constitutiva del significado. “No es algo secundario o que aparece después de que se accedió al significado sino, por el contrario, es una piedra fundamental de la misma experiencia del significado”, expresa Birba.

El experimento

¿Cómo fue que llegaron a estas conclusiones? Los investigadores construyeron un sencillo experimento en el que los participantes debían leer las palabras que les iban apareciendo en una pantalla. Algunas eran palabras faciales (como ‘boca’, ‘nariz’, ‘ojo’, ‘frente’) y otras no faciales (‘pierna’, ‘pecho’, ‘brazo’). Al leerlas, tenían que decidir si se referían a partes del rostro, o no, mediante la presión de una tecla predefinida.

Mientras los participantes realizaban esta tarea, se registraba su actividad cerebral utilizando dos técnicas: en un primer experimento, mediante electroencefalografía (EEG) de alta densidad; y, en un segundo experimento, mediante de registros intracraneales (iEEG). En la primera, se colocan electrodos sobre el cuero cabelludo y se van midiendo los cambios temporales de la actividad eléctrica cerebral durante la ejecución de tareas específicas (en este caso, leer un estímulo lingüístico y clasificarlo). Al ser un método no invasivo, veinticinco personas sanas pudieron participar de esta prueba.

Para los registros intracraneales, por el contrario, se colocan los electrodos dentro del cerebro. Esta es una técnica invasiva, que solamente se utiliza con fines clínicos. “Estas intervenciones suelen ser muy efectivas para reducir epilepsias intratables que no responden a la medicación. Para identificar el foco epiléptico, se le colocan al paciente muchos electrodos en diferentes partes del cerebro”, explica Ibáñez. “En ciertos casos, es la única opción para mejorar la calidad de vida de los pacientes con epilepsia refractaria”, añade Hesse, y cuenta que cuando la operación se está llevando a cabo con fines quirúrgicos, el paciente se encuentra a la espera de que le venga algún episodio epiléptico para poder detectar donde este se genera.

La espera puede durar días. Durante ese tiempo, los científicos aprovechan esa circunstancia única para poder realizar estas investigaciones a las que pocos laboratorios científicos del mundo tienen acceso. “Tuvimos la gran oportunidad de estudiar a dos pacientes que tenían implantados electrodos al interior del giro fusiforme, una región muy especializada en el procesamiento de rostros. Entonces nos apuramos para construir una tarea que nos permitiera ver si esas regiones también responden rápidamente ante las palabras que evocan rostros”, relata García.

Ambas técnicas ofrecen una alta resolución temporal. Al ser tan precisas, sirven para saber exactamente (milisegundo a milisegundo) cómo se modula la actividad cerebral frente a un estímulo. “La resolución temporal precisa es muy importante porque aquí queremos saber qué es lo que pasa primero: si la información lingüística de una palabra es procesada primero por un área cerebral asociada al reconocimiento de rostro o por un área más asociada al lenguaje, y cuándo esto ocurre”, indica Ibáñez.

Por otro lado, también se midió la conectividad entre áreas cerebrales, lo que permite ver cómo se acoplan las diferentes áreas del cerebro. Por último, se utilizaron algoritmos de decoding, una técnica de aprendizaje de máquina que permite predecir una señal. “A la computadora le pedís que analice un pedacito de señal y que diga si la persona está procesando una palabra relacionada a ‘cara’ o a otra cosa”, indica Ibáñez. “La computadora aprende, gracias a la información que se le introduce, y realiza una clasificación. Esta información sirve, además, para predecir la actividad cerebral futura”.

 

Comentarios

Para ver los comentarios de sus colegas o para expresar su opinión debe ingresar con su cuenta de IntraMed.

CONTENIDOS RELACIONADOS
AAIP RNBD
Términos y condiciones de uso | Política de privacidad | Todos los derechos reservados | Copyright 1997-2024