Falsos positivos de actividad cerebral | 28 JUL 16

Una revisión invalida miles de estudios del cerebro

Un fallo informático y malas prácticas generalizadas ponen en entredicho 15 años de investigaciones
Autor/a: JAVIER SALAS El País / Materia / Ciencia

Las imágenes generadas por el software producían falsos positivos de actividad cerebral

Imagine que el Word de Microsoft, uno de los editores de texto más populares del mundo, tuviera un fallo de programación que genera letras donde los usuarios teclean un espacio. Suponga también que algunos mecanógrafos están escribiendo a ciegas, sin revisar lo que teclean. Y que llevaran 15 años generando documentos con erratas y falsas letras donde debería quedar un blanco. Eso es lo que ha ocurrido durante lustros en la investigación de la actividad cerebral: un fallo del software que lee las resonancias magnéticas de la materia gris deja en entredicho miles de trabajos científicos realizados este siglo. Porque además, según una investigación que acaba de publicarse, muchos investigadores no fueron rigurosos revisando y corrigiendo sus resultados en busca de borrones.

Esperaban un 5% de falsos positivos y en algunos casos dieron con un 70% de situaciones en las que el programa iluminaba una región en la que no pasaba nada

La imagen por resonancia magnética funcional (fMRI, por sus siglas en inglés) es el método más extendido para estudiar el esfuerzo que realiza una región determinada del cerebro cuando se le asigna una tarea. La fMRI detecta qué zonas están reclamando más energía del flujo sanguíneo gracias al oxígeno que transporta. El resultado son esos mapas en 3D de la materia gris con unas zonas iluminadas. Y los científicos nos dicen: esa es la parte de tu cabeza que se activa cuando comes chocolate, cuando piensas en Trump, cuando ves películas tristes, etc.

Ahora, un equipo de científicos liderados por Anders Eklund ha destapado que muchas de esas zonas se pudieron iluminar por error, por un fallo del software y el escaso rigor de algunos colegas. En su estudio, publicado en PNAS, cogieron 500 imágenes del cerebro en reposo, las que se usan como punto de partida para ver si a partir de ahí el cerebro hace algo. Usaron los programas más comunes para realizar tres millones de lecturas de esos cerebros en reposo. Esperaban un 5% de falsos positivos y en algunos casos dieron hasta con un 70% de situaciones en las que el programa iluminaba una región en la que no pasaba nada, dependiendo de los parámetros.

Este estudio ha sido como el niño que grita que el emperador está desnudo: ya se había denunciado que algunas de estas resonancias carecen de fortaleza estadística y que se estaban sobrevalorando

Estos programas dividen el cerebro humano en 100.000 voxels, que son como los píxeles de una foto en versión tridimensional. El software interpreta las indicaciones de la resonancia magnética e indica en cuáles habría actividad, a partir de un umbral que en muchos casos ha sido más laxo de lo que debiera, propiciando falsos positivos. Además, los autores de la revisión analizaron 241 estudios y descubrieron que en el 40% no se habían aplicado las correcciones de software necesarias para asegurarse, agravando el problema de los falsos positivos.

El revuelo ha sido sobresaliente en el campo de la neuroimagen, aunque se está matizando la dimensión del problema. Inicialmente, Eklund y su equipo cuestionaban la validez de unos 40.000 estudios. Ahora han anunciado una corrección: Thomas Nichols, otro de los autores del estudio, calcula que son solo unos 3.500 los trabajos que serían papel mojado. Pero es imposible saber cuáles son o cuántos exactamente. Hay tres lustros de ciencia con una sombra de duda sobre ellos.

 

Comentarios

Para ver los comentarios de sus colegas o para expresar su opinión debe ingresar con su cuenta de IntraMed.

AAIP RNBD
Términos y condiciones de uso | Política de privacidad | Todos los derechos reservados | Copyright 1997-2024