Imagina que estás en un espectáculo de magia, en el que el artista desaparece de repente. Por supuesto, en última instancia, usted sabe que la persona probablemente se está escondiendo en algún lugar. Sin embargo, sigue pareciendo que la persona ha desaparecido. No podemos descartar esa apariencia, no importa lo que dicte la lógica.
¿Por qué nuestras experiencias conscientes son tan tercas?
El hecho de que nuestra percepción del mundo parece ser tan intransigente, por mucho que podamos reflexionar sobre él, nos dice algo único acerca de cómo están conectados nuestros cerebros. Compara el escenario del mago con la forma en que normalmente procesamos la información.
Digamos que tienes cinco amigos que te dicen que está lloviendo afuera, y un sitio web meteorológico que indica que no. Probablemente solo considerarías el sitio web como incorrecto y lo descartarías. Pero cuando se trata de la percepción consciente, parece haber algo extrañamente persistente en lo que vemos, oímos y sentimos.
Incluso cuando una experiencia perceptiva es claramente "incorrecta", no podemos simplemente silenciarla.
¿Por qué es así?
Los recientes avances en inteligencia artificial (IA) arrojaron nueva luz sobre este rompecabezas. En informática, sabemos que las redes neuronales para el reconocimiento de patrones, denominadas modelos de aprendizaje profundo, pueden beneficiarse de un proceso conocido como codificación predictiva. En lugar de limitarse a captar información de manera pasiva, de abajo hacia arriba, las redes pueden formular hipótesis descendentes sobre el mundo, para contrastarlas con las observaciones. Generalmente funcionan mejor de esta manera. Cuando una red neuronal identifica a un gato, por ejemplo, primero desarrolla un modelo que le permite predecir o imaginar cómo es un gato. Luego puede examinar cualquier información entrante que llegue para ver si se ajusta o no a esa expectativa.
El problema es que, si bien estos modelos generativos pueden ser súper eficientes una vez que están en funcionamiento, generalmente exigen grandes cantidades de tiempo e información para entrenar. Una solución es utilizar redes de confrontación generativa (GAN, por sus siglas en inglés), calificada como la "idea más novedosa en el aprendizaje profundo en los últimos 20 años" por el jefe de investigación de inteligencia artificial de Facebook, Yann LeCun.
En GANs, podríamos entrenar una red (el generador) para crear imágenes de gatos, imitando a los gatos reales tan cerca como sea posible. Y entrenamos a otra red (el discriminador) para distinguir entre las imágenes de gatos fabricadas y las reales. Luego podemos enfrentar a las dos redes entre sí, de manera que el discriminador sea recompensado por atrapar falsificaciones, mientras que el generador es recompensado por salirse con la suya. Cuando están configurados para competir, las redes crecen juntas en destreza, no muy diferente de un falsificador que intenta burlar a un experto en arte. Esto hace que el aprendizaje sea muy eficiente para cada uno de ellos.
Además de un práctico truco de ingeniería, las GAN son una analogía potencialmente útil para comprender el cerebro humano. En los cerebros de los mamíferos, las neuronas responsables de codificar la información perceptiva sirven para múltiples propósitos. Por ejemplo, las neuronas que disparan cuando ves un gato también se disparan cuando imaginas o recuerdas a un gato; también se pueden activar más o menos al azar. Así que siempre que haya actividad en nuestros circuitos neuronales, el cerebro necesita poder descubrir la causa de las señales, ya sean internas o externas.
Podemos llamar a este ejercicio de vigilancia perceptiva de la realidad. John Locke, el filósofo británico del siglo XVII, creía que teníamos algún tipo de órgano interno que realizaba el trabajo de autocontrol sensorial. Pero los críticos de Locke se preguntaban por qué la madre naturaleza se tomaría la molestia de cultivar un órgano completamente separado, además de un sistema que ya está configurado para detectar el mundo a través de los sentidos. Tienes que ser capaz de oler algo antes de decidir si la percepción es real o falsa; entonces, ¿por qué no simplemente incluir un chequeo en el propio mecanismo de detección?
Imaginar a un gato se basa en los mismos patrones neuronales que ver uno en realidad
Sin embargo, a la luz de lo que ahora sabemos sobre las GAN, la idea de Locke tiene cierto sentido. Debido a que nuestro sistema perceptivo ocupa recursos neuronales, partes de él se reciclan para diferentes usos. Así que imaginar a un gato se basa en los mismos patrones neuronales que en realidad ver uno. Pero esta superposición confunde las cosas con respecto al significado de las señales.
Por lo tanto, para que el esquema de reciclaje funcione bien, necesitamos un discriminador que decida cuándo estamos viendo algo en lugar de cuando simplemente estamos pensando en ello. Este órgano sensorial interno tipo GAN, o algo así, debe estar allí para actuar como un rival adversario, para estimular el crecimiento de un mecanismo de codificación predictiva bien afinado.
Si esta explicación es correcta, es justo decir que la experiencia consciente es probablemente similar a un tipo de inferencia lógica. Es decir, si la señal perceptiva del generador dice que hay un gato, y el discriminador decide que esta señal refleja de verdad el estado del mundo en este momento, naturalmente vemos un gato. Lo mismo ocurre con los sentimientos crudos: el dolor puede sentirse agudo, incluso cuando sabemos muy bien que no hay nada que nos lastime, y los pacientes pueden informar que sienten dolor en las extremidades que ya han sido amputadas. En la medida en que el discriminador hace las cosas bien la mayor parte del tiempo, tendemos a confiar en ello.
No es de extrañar que cuando hay un conflicto entre impresiones subjetivas y creencias racionales, parece tener sentido creer lo que conscientemente experimentamos.
Esta terquedad perceptiva no es solo una característica de los humanos. Algunos primates también lo tienen, como lo demuestra su capacidad para sorprenderse y divertirse con los trucos de magia. Es decir, parecen entender que existe una tensión entre lo que están viendo y lo que saben que es verdad. Teniendo en cuenta lo que entendemos sobre sus cerebros, específicamente, que sus neuronas perceptivas también son "reciclables" para el funcionamiento de arriba hacia abajo, la teoría GAN sugiere que estos animales no humanos probablemente tienen experiencias conscientes que no son diferentes a las nuestras.
El futuro de la IA es más desafiante. Si construyéramos un robot con una arquitectura de estilo GAN muy compleja, ¿sería consciente? Sobre la base de nuestra teoría, probablemente sería capaz de codificación predictiva, ejercitando la misma maquinaria de percepción que despliega para la predicción o imaginación de arriba hacia abajo. Tal vez como algunas redes generativas actuales, podría "soñar". Al igual que nosotros, probablemente no podría descifrar su dolor, e incluso podría ser capaz de apreciar la magia de escenario.
Teorizar sobre la conciencia es notoriamente difícil, y aún no sabemos en qué consiste realmente. Por lo tanto, no estaremos en posición de establecer si nuestro robot fue realmente consciente. Por otra parte, tampoco podemos hacer esto con certeza con respecto a otros animales.
Al menos haciendo algunas conjeturas acerca de la maquinaria de la conciencia, podemos comenzar para probarlos contra nuestras intuiciones, y, lo que es más importante, en experimentos. Lo que sí sabemos es que un modelo de la mente que involucra un mecanismo interno de duda, un sistema de selección que está constantemente buscando falsificaciones en la percepción, es una de las ideas más prometedoras que hemos encontrado hasta ahora.