Archivos de la categoría ‘Neurociencias’

Mensaje antiplatónico par excellence: no existe nada que esencial, o lógicamente, ligue un hecho ético (o, más bien, la interpretación ética de un hecho) del mundo y un estado emocional placentero.  A partir del descubrimiento de las sustancias psicoactivas, nos dimos cuenta de que para conseguir una sensación o emoción no es necesaria la presencia de tal hecho o, ni siquiera, del estado mental que lo preceda y lo cause.  La alegría que hubiéramos obtenido si nos hubiera tocado la lotería de Navidad, podemos conseguirla, e incluso intensificarla, ingiriendo un compuesto de prosaicas moléculas, sin que, realmente, nos toque ni un céntimo. Es más, con una calculada dosis, ya no diremos de la brutal etorfina, sino de fentanilo (peligrosísima) o de oxicodona, podrías sonreír de un indescriptible placer mientras te corto un brazo.

Este descubrimiento tiene unas consecuencias brutales. La mayor parte de las concepciones de la ética dadas a lo largo de la historia (con la honrosísima excepción de la genial ética kantiana) prometían un estado final de felicidad, a condición de seguir una serie de, a menudo muy duros, preceptos. La ataraxia griega, el nirvana budista o la visión deifica cristiana, son estados, en gran medida emocionales, que se obtienen después de  un largo proceso que, a menudo, puede durar toda una vida. El sentido de tu existencia, lo que debes hacer día a día, está sujeto a la obtención de ese premio final. Sin embargo, llegamos a día de hoy y conseguimos el premio sin el arduo proceso.

Se podría objetar que ese estado de felicidad artificial, ese paraíso químico, sería falso, un disfraz conseguido haciendo trampas, algo inauténtico, postizo ¿Por qué? Esta objeción encierra una confusión: la emoción que se consigue al ingerir un psicotrópico no tiene absolutamente nada de falso, es tan real como la conseguida sin la ingesta. Lo falso, o más bien lo ausente, es el suceso generador de la emoción, no la emoción misma.

Se sigue objetando: pero lo realmente valioso es el camino, no únicamente el resultado. Respondemos: podemos ponderar lo que obtenemos en cada fase del camino y ver si compensa o no perderlo en virtud de conseguir, inmediatamente y sin esfuerzo, el bien final. En algunos ejemplos está claro: pensemos en las millones de personas que se están machacando en el gimnasio por lucir un bonito cuerpo cuando llegue el verano. Si yo les dijera que, puedo conseguirles ese cuerpo deseado sin el más mínimo coste, tomando una pastilla que no tiene efecto secundario alguno… ¿No la tomarían sin dudar? ¿No sería estúpido decir que no, que prefieren sufrir levantando pesas y comiendo brócoli?

Las pocas experiencias que he tenido con drogas duras (con las mal llamadas blandas, como el tabaco o el alcohol, he tenido muchísimas) fueron en mi época universitaria (juventud: bendita idiotez). Recuerdo una noche en la que probé una pastilla de MDMA. Cuando la ingerí estaba ya completamente borracho (si no, seguramente, mi superyó bien aleccionado me hubiera impedido tomarla) pero al cabo de unos treinta minutos mi estado etílico cambio radicalmente hacia algo muy diferente. Sentí una felicidad inmensa, una plenitud absoluta, una comunión total con el cosmos… Todo tenía sentido y todo era completamente maravilloso. Nunca antes había sentido un amor hacia la vida y hacia todos los seres humanos similar. Sinceramente, esas horas de efecto del MDMA han sido las más felices de mi vida (y no soy una persona especialmente desgraciada). Nunca he vuelto a sentir emociones tan agradables con esa intensidad. Y, paradójicamente, eso es lo que me aterró de las drogas y lo que consiguió que, finalmente, no terminará siendo un yonki en cualquier parque. Me dio mucho miedo saber que lo que había tomado era demasiado bueno y comprendí lo brutal que debería ser el reverso tenebroso de algo así. Entendí por qué un yonki de cualquier parque es plenamente consciente de su penosa situación y, aún así, prefiere seguir drogándose a tener una vida. No volví a probarlo.

Sin embargo, de lo que no quedé nada disuadido, es de aceptar el uso de drogas que no tengan efectos secundarios significativos. Sería la utopía del utilitarismo hedonista: una sociedad en la que todo el mundo tenga acceso a la mayor felicidad posible. Es más, lo que sería inmoral sería privar a la gente de unas sensaciones de bienestar semejantes. Y, siguiendo esa lógica, nada parece alejarnos de un futuro en el que el uso de psicotrópicos de diversa índole sea cada vez más usual (de hecho ya lo es). Pero quizá un futuro emocionalmente paradisíaco puede esconder algo, como mínimo, inquietante. Sabemos, desde experimentos realizados en la década de los cincuenta del siglo pasado, que ratas de laboratorio preferían tomar cocaína a comer o a beber, dejándose morir con tal de seguir consumiendo su droga. Y es que los sistemas de recompensa emocional del cerebro tienen un fin evolutivo claro: moverte a actuar para obtener placer o evitar el sufrimiento ¿Qué ocurre entonces cuando no hay sufrimiento y se vive en un estado de placer constante? Que el individuo ya no tiene nada que hacer, que no hay nada que pueda motivar su conducta.

Un futuro así sería como un colosal fumadero de opio en el que miles de sujetos vivirían enchufados a aparatos que les suministraran regularmente la dosis adecuada, quizá siempre durmiendo o, simplemente, ensimismados en hermosísimas ensoñaciones, quizá sin hablar con nadie más (¿para qué las relaciones sociales?) o no, pero, seguramente, sin hacer prácticamente nada: solo lo necesario para mantenerse vivos y drogados. Aquí, si que el tiempo histórico quedaría congelado. No se evolucionaría hacia nada más ya que, esta vez sí, estaríamos ante el auténtico fin de la historia de Fukuyama.

Este futuro utópico, o distópico según se mire, casaría perfectamente con el advenimiento de la singularidad tecnológica de la IA. Si construimos inteligencias artificiales que nos superen abrumadoramente, y si hemos sido lo suficientemente listos para conseguir que no nos exterminen, podría pasar algo así: las máquinas tomarían el mando de la historia y se dedicarían solo Skynet sabe a qué, mientras dejarían a sus venerables, aunque patéticamente inferiores creadores, viviendo en un inofensivo paraíso. Entonces, poseamos superdrogas o no, tendremos que enfrentarnos a algo a lo que nuestro frágil ego humano no está acostumbrado: la irrelevancia ¿Aceptará el hombre perder el protagonismo de su historia? ¿Aceptará perder el mando, aún a sabiendas de estar en mejores manos que en las suyas propias? Sería un caso de interesante dilema moral: ¿libertad o felicidad? La respuesta sería fácil para los drogados: seguir en su paraíso toda la eternidad y que gobiernen otros. La responsabilidad del gobierno trae demasiadas preocupaciones y dolores de cabeza.

O quizá, la historia podría continuar por otros derroteros: es posible que los seres humanos no nos quedásemos del todo quietos, sino que siguiéramos buscando formas de placer aún más poderosas. Quién sabe si pondríamos a la IA a nuestro servicio para conseguir placeres que ahora no alcanzamos ni a imaginar. Pensemos en diseño de cerebros a los que se aumenta su capacidad de sentir, con circuitos de placer hiperdesarrollados, que viven en un mundo de realidad virtual en el que todo está pensado para estimular cascadas de opioides, maravillosas tormentas cerebrales de una potencia inusitada. La historia de la humanidad se convertiría en la búsqueda de paraísos dentro de paraísos.

Pensemos en el mejor sueño que hayamos tenido y pongamos detrás de el a un asistente computerizado que sabe lo que nos gusta mucho mejor que nosotros. Recomiendo ver Más allá de los sueños (1998) de Vincent Ward. La película es mala pero sus efectos visuales (que ganaron un Óscar) pueden ilustrar muy bien a lo que nos referimos: imagina caminar de la mano con una bella mujer (quizá con esa chica que nos gustaba en el instituto y que ya no sabes nada de ella), por el cuadro más hermoso que se te ocurra, mientras escuchamos una increíble sinfonía (la Lacrimosa de Preisner o el Dúo de las flores de Delibes) , a la vez que nuestros centros cerebrales de placer se disparan como fuegos artificiales, haciéndonos sentir una especie de orgasmo infinito… Vivir eternamente en ese día de verano de cuando teníamos doce años y no había nada que hacer, ninguna preocupación, y todo era nuevo…

paisajes-naturales-pinturas-al-oleo-sobre-lienzo_21

Por si alguien no ha leído mi último artículo en Xátaka, va sobre otro posible futuro: precrimen.

Y feliz Navidad máquinas mías.

El siempre supravalorado Aldous Huxley escribía en el icono hippie Las puertas de la percepción, que la consciencia era una especie de “cuello de botella” que solo dejaba ver un pequeño “hilo de realidad”. Nuestra consciencia, debido a nuestras limitaciones como especie, solo podría prestar atención a una serie limitada de estímulos. Drogas como el LSD podrían “abrir” las “puertas de la percepción” y darnos acceso a partes de la realidad a las que nuestra consciencia serial, lineal y limitada no podía acceder de normal. Es más para Huxley el uso de psicotrópicos podía llevarnos al ser puro, a contemplar la realidad-en-sí.

Si bien es cierto que alterar nuestra consciencia de la realidad puede hacernos percibir el mundo de otra manera y eso puede llevarnos a grandes resultados creativos, nada hay de verdadero en que lleguemos a algo que podamos considerar como la realidad-en-sí. En general, el uso de sustancias psicotrópicas distorsiona la visión funcional de la realidad, es decir, empeora tu percepción más que abrirte las puertas a mejores lugares. Siempre me ha parecido muy erróneo, cuando no dañino, entender el uso de las drogas de modo espiritual o cuasi-religioso. No amigos, el ácido lisérgico no te va a llevar a descubrir tu “yo interior” (¿qué diablos es el yo interior?), ni va a suponer una fase más en un camino de autorealización personal. El ácido te hará pasar un buen rato teniendo alucinaciones y sintiéndote eufórico (o todo lo contrario si te da un bad trip), pero poco más.

Suena un tanto extraño que el ser humano no hubiese podido llegar a la plenitud de su existencia espiritual hasta que  Albert Hofmann  sintetizará el LSD en 1938 ¿Nuestro organismo habría sido diseñado por eones de selección natural para crear un sistema nervioso adecuado para que el ácido nos llevará a la visión deifica? No, nuestro cerebro no está diseñado ni para conocer la realidad en sí misma, ni mucho menos para llegar a contactar con dioses ni espíritus interiores. Nuestro cerebro está diseñado originariamente para sobrevivir en determinados entornos (fundamentalmente, para moverse eficazmente en ellos). Y, como vamos a ver, para ello no hace falta abrir las puertas de la percepción para conocer la realidad en su totalidad, sino más bien todo lo contrario.

El cerebelo es la parte del encéfalo encargado de la coordinación de los movimientos. Es por ello que cuando se le daña, el sujeto no pierde la capacidad de moverse, sino que sus movimientos se descontrolan, se hacen torpes y desequilibrados, teniendo problemas para realizar cualquier acción motora. Para realizar esta tarea directora el cerebelo distingue muy bien entre movimientos previsibles e imprevisibles (¿No será nuestra capacidad de prever el futuro una evolución posterior de la función cerebelar?).  Cuando alargamos un brazo para coger una taza de café, sentimos, por ejemplo, el tacto de nuestra camisa rozando nuestra piel. Esta sensación no es relevante, no es importante en la ejecución de la acción, por lo que el cerebelo “la resta” de nuestro foco de atención. El cerebelo recibe toda la información y diferencia la que es totalmente predecible y prescindible, de la necesaria para llevar a cabo correctamente la acción. Es por eso que no podemos hacernos cosquillas a nosotros mismos. El cerebelo predice donde pondremos las manos, por lo que no hay sorpresa y el hilarante resultado del ataque de cosquillas no se produce.

El neurocientífico británico Daniel Wolpert realizó unas investigaciones en las que monitorizó a una serie de individuos mediante IFRM (Resonancia magnética funcional) mientras les hacían cosquillas. En el escáner aparecía una fuerte activación de la corteza somatosensorial, pero el cerebelo permanecía silencioso. Después se pidió a los sujetos que intentarán hacerse cosquillas a ellos mismos en las partes del cuerpo donde antes las habían recibido. El resultado se invirtió: poca actividad en la corteza somatosensorial y mayor actividad en el cerebelo. Explicación: el cerebelo envió mensajes inhibidores  a la corteza cuando previó el movimiento del ataque de cosquillas, discriminando entre el movimiento auto-generado y álter-generado  (¿Origen de la diferenciación entre el yo y los otros?).

Un segundo experimento volvía a mostrar lo mismo. Wolpert situó a dos sujetos en torno a una especie de pedal de bicicleta capaz de medir la fuerza con la que se lo presionaba. Un sujeto experimental ponía su dedo índice encima del pedal y otro lo sostenía con el mismo dedo por debajo, con la palma de la mano abierta. A ambos se les dio la instrucción de responder cualquier aumento de presión en el pedal con otro movimiento de exactamente la misma fuerza (Ninguno de los dos sabía que el otro había recibido la misma instrucción). El curioso resultado es que cuando los sujetos se turnaban pulsando, ante la presión ejercida por el otro, la respuesta intensificaba la fuerza de manera muy significativa. Ellos juraban y perjuraban que era el otro el que había apretado con mucha más fuerza, por lo que ellos, únicamente, habían intensificado la presión para igualarla. Así se producía una escala de represalias tantas veces vista en el patio de los colegios: cuando, jugando al fútbol, uno sufre una falta, es muy común que en la siguiente jugada se la devuelva al agresor, pero siempre con algo más de fuerza, lo que rápidamente genera una escala de represalias que, muchas veces, termina en pelea.

La explicación es la misma que con las cosquillas. El cerebelo recibe la orden de responder a la presión con la misma fuerza, pero, poco a poco, va restando parte de la sensación de fuerza esperada, por lo que el mensaje que llega a la corteza somatosensorial es de una fuerza menos intensa que la real. Para superar esta inhibición la corteza da la orden de subir la fuerza de la respuesta pero no lo hace en la medida correcta, por lo que se produce el desajuste y la posterior escalada. En este sentido es muy interesante comprobar como un mecanismo que funciona tan bien para coordinas movimientos tan sofisticados y complejos como los que realiza un gimnasta de élite, falla estrepitósamente en un mero intercambio de mediciones de fuerza. Y es que el cerebro dista mucho de ser una máquina perfecta.

Como contaba Borges en su tantas veces citado relato Funes el memorioso, nuestra selección restrictiva de información no es tanto una cuestión de limitación como de que, percibiendo toda la serie de estímulos que nos bombardean sin discriminación alguna, sería imposible cualquier acción mental. Pensemos qué sería percibir visualmente sin discriminar qué objetos son relevantes para lo que pretendemos hacer, qué figuras son obstáculos, amenazas, o ayudas para nuestros planes. Alguien que como el Funes de Borges tuviese una imagen especular del mundo metida en su cerebro, no podría pensar ni hacer maldita la cosa. Y es que conocer no es saberlo todo, no es tener una representación mental completamente idéntica a la realidad, conocer es saber separar el grano de la paja. Quizá entonces será mucho más importante la tarea de borrado, la tarea cerebelar de inhibir o restar toda la ingente cantidad de ruido que nos acecha para quedarnos sola y exclusivamente, con lo necesario. Conocer es, en gran medida, olvidar.

Os dejo una Ted talk de Daniel Wolpert donde se explica todo esto mucho mejor.

 

P.D.: Si os ha sabido todavía a poco, me acaban de publicar un extenso artículo en Xataka sobre el mito de la tabula rasa.

clock-wall-monkey-domesticated-white

Los antiguos establecieron la triada presente, pasado y futuro para describir el tiempo como algo que fluye, un río que avanza sin que nadie pueda detenerlo. Quizá la inexorabilidad de su paso es lo que más se haya repetido en la literatura occidental: no podemos parar el tiempo por mucho que lo hayamos deseado. El pasado queda atrás inamovible, con todos nuestros grandes errores allí sin que podamos hacer nada para que jamás hubieran ocurrido; el presente se disuelve, pasa efímero y se nos escapa de las manos como un puñado de arena entre los dedos; y llega el futuro, siempre impredecible y aterrador, destino último de todo, en dónde para colmo, nos espera la vejez y la muerte.

El tiempo se ha entendido como un presente móvil, que transcurre a un ritmo regular, tan regular que todos los seres humanos (y no humanos) parece que vivimos exactamente en el mismo momento del presente. Percibimos una absoluta sincronicidad temporal entre todos los objetos del universo ¿Por qué? Una excelente cuestión filosófica es preguntarse: ¿cómo es posible que toda la diversidad de organismos que vivimos en el universo (al menos los que tenemos noción del tiempo) percibimos el ahora exactamente en el mismo momento?

La respuesta tradicional la encontramos en la física newtoniana: es que el tiempo es algo real, externo a nosotros y objetivo, un horizonte universal en donde todo sucede. La flecha del tiempo es ontológicamente real. Para Newton, si hay dos entidades inmutables e inmóviles son el espacio y el tiempo. Ambos serían los continentes del universo y todos los objetos del universo su contenido.

Sin embargo, ya muchos sospecharon de que algo no funcionaba bien en esta visión. En primer lugar, el tiempo es algo de lo que empíricamente no tenemos constancia alguna: no se ve, ni se huele, ni se oye ni se puede tocar… Lo único que podemos percibir con su paso son los procesos físico-químicos que observamos en la naturaleza. Yo observo a un ser humano envejecer y, al hacerlo, observo una infinidad de procesos biológicos pero… ¿observo el tiempo mismo por algún lado? No, ¿y si realmente todo esto es una ilusión?

La relatividad de Einstein lo dejó claro: esa sincronicidad temporal sí era una ilusión. El tiempo pasa más rápido o más lento en función del movimiento que realice el objeto. El tiempo puede estirarse y contraerse y no para todo el mundo de la misma manera sino de forma diferente para todos. Esta idea es de las más contraintuitivas que jamás se han propuesto: ¿cómo es posible que mi presente sea diferente al de cualquier otra persona? ¿Cómo podemos vivir en tiempos diferentes si, claramente, veo que vivimos en el mismo? Pero, ¿qué es el presente? ¿Cuánto dura?

En un interesante, y muy divulgado, experimento de los investigadores del MIT Jason Fischer y David Whitney, sometieron a un grupo de sujetos a la visualización de varias series de parches de Gabor. Se les mostraban las imágenes durante medio segundo y se les pedía que describieran los ángulos de inclinación. El experimento concluía que los resultados de las visualizaciones anteriores interferían en los resultados de las siguientes. Por ejemplo, si se mostraba un grupo de líneas paralelas en horizontal y, a los pocos segundos, otro de líneas paralelas en vertical, el sujeto concluía que las segundas no eran totalmente verticales sino que estaban inclinadas.

Los efectos de la distorsión disminuían cuando, entre la visualización de ambas imágenes, pasaban más de quince segundos. De aquí concluyeron Fischer y Whitney que nuestro presente es algo así como el promedio de los últimos quince segundos. Pero, ¿por qué hace esto nuestra mente? Porque, en general, nuestro mundo tiene una cierta estabilidad, por lo que si pretendes acertar haciendo predicciones muy rápidas, parece una excelente estrategia apostar por cierta estabilidad, porque las cosas no cambien en un corto periodo de tiempo. A este intervalo lo han llamado “campo de continuidad”, es decir, el lapso de tiempo en el que la realidad nos parece continua porque conectamos, ya sea correcta o erróneamente, los eventos que en ella suceden.

Estas ideas encajan muy bien con las de Tononi o Dehaene acerca de la consciencia. Estos dos conocidos neurocientíficos piensan que la consciencia de algo surge cuando hay una alta integración de información de diversas fuentes. Cuando yo percibo un suceso integro mucha información sensorial (veo muchas formas y colores, oigo, toco, huelo…) de modo que la unifico en una representación consciente. El “campo de continuidad” es una forma de integración de información, es una forma de hacer coherente un caos de estímulos perceptuales, para poder intervenir en la realidad de la forma más eficaz posible.

Otros experimentos realizados por el famoso Benjamin Libet (descritos en su libro Mind Time: The temporal factor in consciousness. Por supuesto, no traducido al castellano) nos muestran el tiempo mínimo para que algo sea captado a nivel consciente. Situando electrodos en la corteza somatosensorial del cerebro de los sujetos experimentales, Libet comprobó que si aplicaba pequeñas descargar eléctricas de menos de 500 milésimas de duración, dichos sujetos no percibían nada a nivel consciente (ya ves tú que experimento más complejo). No podemos captar conscientemente nada que dure menos de medio segundo (esta cifra ha sido corroborada también con experimentos del equipo de Dehaene). A nivel inconsciente somos mucho más rápidos, del orden de milisegundos. Téngase en cuenta que siempre tardamos algo de tiempo en procesar la información recibida, de modo que desde que un estímulo visual golpea nuestra retina hasta que esta información es procesada en diversas partes de nuestro cerebro hasta hacerla consciente, pasa tiempo. Vivimos siempre con algo de lag, siendo conscientes de la realidad con un pequeño retraso con respecto al presente. Evidentemente, en términos evolutivos, ese retraso ha de ser el menor posible si queremos sobrevivir por lo que, al menos a nuestra escala (comparados con competidores biológicos), no somos demasiado lentos: podemos cazar moscas.

En esta línea parece justificado identificar la consciencia con la memoria a corto plazo (MCP) y con mi sensación de presente. La MCP es como una especie de memoria RAM o de trabajo (hay psicólogos que distinguen MCP de memoria de trabajo, pero a mí no me convence la distinción) que utiliza mi mente para afrontar las situaciones cotidianas de modo eficiente. Si la consciencia tiene algo que ver con la integración de información en un determinado momento del tiempo (llamémosle presente) para hacerla útil, parece que hablar de consciencia, MCP y sensación de presente es básicamente lo mismo.

Otro experimento, igualmente muy divulgado, lo llevó a cabo la psicóloga del desarrollo de la Universidad de Dundee, Emese Nagy. En él, sencillamente, se medía la duración de los abrazos que atletas olímpicos se daban después de cada competición. Se estudió la duración de 188 abrazos entre jugadores de 21 deportes distintos y de 32 países diferentes. Había abrazos más largos (a sus entrenadores) y más cortos (a sus rivales), pero el promedio rondaba los tres segundos. Nagy piensa que esta cifra es extensible de los abrazos a otras muchas acciones cotidianas, de modo que tres segundos puede representar la duración del “presente psicológico” o “sentimiento del ahora” de nuestra especie.

Un estudio anterior realizado por Geoffrey Gerstner y Louis Goldberg, extendía esos tres segundos a seis especies de mamíferos no-primates (canguros, corzos, jirafas, mapaches, okapis y osos panda). Se observó el tiempo que tardaban en realizar diversos eventos modelo de movimiento (masticar, defecar, manipular u observar algo, etc.) y, si bien la duración era variable, el promedio daba el mismo número mágico: tres segundos. Gernstner y Goldberg concluían que esta constante común a diversos órdenes de mamíferos puede representar algún mecanismo neural ancestral. Parece que nuestra concepción del tiempo viene de mucho tiempo atrás.

P.D.1: En el campo de la física, un contraste de ideas muy interesante sobre la existencia real o no del tiempo, la tuvieron Julian Barbour y Lee Smolin. Hablaremos algún día de ello.

P.D.2:  Estoy preparando un artículo mucho más largo y profundo que éste (que es una mera chuchería) para Xataka que en breve saldrá publicado. Ya os avisaré.

Este vínculo entre la acción y la percepción ha quedado especialmente claro en la última década con el descubrimiento en los lóbulos frontales de una nueva clase de neuronas denominadas canónicas. En algunos aspectos, estas neuronas se parecen a las neuronas espejo […] Como las neuronas espejo, cada neurona canónica se activa durante la ejecución de una acción específica, como extender el brazo para coger una ramita o una manzana. Pero la misma neurona se activará también ante la “visión” de una manzana o una ramita. En otras palabras, es como si la propiedad abstracta de la “agarrabilidad” estuviera siendo codificada como un aspecto visual del objeto. En nuestro lenguaje corriente existe la distinción entre percepción y acción, pero se trata de una distinción que según parece el cerebro no siempre respeta.

V. S. Ramachandran, Lo que el cerebro nos dice

Hay que descartar de una vez por todas la idea de que la percepción consiste en hacer una simple fotografía realista de lo que tenemos delante de nuestros ojos. Existen múltiples factores que inciden en la percepción de un objeto que van más allá de la clásica impresión de formas y colores. Si pensamos en el ejemplo de Ramachandran, cuando vemos una manzana, rápidamente, la percibimos como “agarrable”, una propiedad pragmática no presente ni en el objeto ni en el sujeto, sino en la relación entre ambos. Seguramente que también la percibimos como “comible”, “lanzable”, “pateable”, “rompible”… es decir, percibiremos muchas de las posibilidades de acción que podemos realizar con el objeto en cuestión. Pero, es más, esta percepción lleva emparejado también un impulso a la acción. Cuando vemos una manzana colgando de la rama de un árbol… ¿quién no siente el impulso de arrancarla de la rama? Lo mismo nos pasa cuando vemos un botón cualquiera… ¿quién no desea pulsarlo?

Evolucionamos para manipular el entorno para sobrevivir en él. Así, la idea de manipulación, de manejar el entorno y de moverse en él, debe ser central a la hora de entender la percepción.  Además, no puede entenderse de modo aislado como si de una cámara de fotos se tratase. Percibimos a la vez que nos movemos en un entorno cambiante de luz y objetos, según una serie de objetivos: obtener alimento, huir de un depredador, etc. La percepción ha de estar integrada en este sistema de acciones y no verse como algo aislado.

Veamos un ejemplo con una curiosa ilusión óptica que nos ofrece Ramachandran.

IlusiónRamachandran

Al observar estas circunferencias coloreadas siguiendo una gradación perfecta del blanco al negro ocurre un hecho muy interesante. Si nos fijamos, nuestro cerebro interpreta unas circunferencias como cóncavas (como huecos) y otras convexas (como salientes) ¿Qué criterio utiliza para decir que unas son de una manera y otras de otras? Si el lector voltea la pantalla de su ordenador de modo que gire la imagen 180 grados (o, menos bruto, que copie la imagen y la gire en el visor de imágenes de Windows), comprobará que los círculos convexos ahora son cóncavos y viceversa. La interpretación de la imagen se ha invertido completamente ¿Por qué?

Porque nuestro cerebro tiende a interpretar las imágenes como si el foco de luz siempre estuviese arriba. Si ahora volvemos a mirar la imagen comprobamos que los círculos con la parte blanca arriba son siempre interpretados como convexos, mientras que los que tienen la parte blanca abajo lo son como cóncavos. Nuestro cerebro evolucionó durante cientos de miles de años en entornos en los que la gran mayoría del tiempo la luz provenía del astro rey, es decir, de arriba, por lo que es más probable acertar si siempre interpretas cualquier fenómeno dudoso como iluminado desde encima de ti.

Este ejemplo sirve muy bien para ilustrar cómo es imposible entender la percepción sin nuestro pasado evolutivo, o sin comprender la función perceptiva en ese mismo marco. En cualquier fenómeno biológico, origen, estructura y función son tres aspectos completamente inseparables.

1. Cuando mantenemos relaciones sexuales liberamos gran cantidad de oxitocina, una hormona y neuropéptido relacionado con los sentimientos de afiliación. Es muy posible que el enamoramiento en el sentido que querer mantener una pareja estable y duradera esté provocado por la oxitocina. Ya está, el amor (o, al menos, cierta parte o perspectiva de él) es tratable científicamente. Supongamos que inventamos un fármaco que pueda bloquear la captación neuronal de oxitocina. Te ha dejado tu mujer y estás hecho polvo. No importa, tenemos la cura. O, pensemos en el caso inverso: el elixir del amor. Unas gotas de este fármaco en tu desodorante y ninguna chica querrá separarse de tu lado. El caso es que ya existe y se vende por Internet. Dudo mucho que funcione, pero de lo que no me cabe duda es de que estamos entrando en la era del control químico de la conducta. Supongamos que el spray funciona y yo me ligo a una chica mediante él ¿Ella no podría denunciar que ha sido manipulada para estar conmigo? ¿No podría aducir que he hecho casi lo mismo que si la hubiera dormido con cloroformo para aprovecharme de ella? Las repercusiones éticas de la utilización de fármacos que alteran nuestra mente va a ser un tema importante de reflexión en los próximos años.

2. La neurocientífica del MIT Rebecca Saxe afirma que el 90% de los papers publicados basados en resonancias magnéticas funcionales son dudosos (pocas muestras, escaso rigor, condiciones experimentales erróneas…), sobre todo los referidos a la corteza prefrontal, donde se dan gran cantidad de acciones entremezcladas. Fíate tu de la divulgación posterior…

3. Neolarmackismo. “Los caracteres adquiridos no se heredan” era un dogma del neodarwinismo que parece derrumbarse a pasos acelerados. El mismo Darwin vivió y murió siendo un lamarckista porque entre su teoría de la selección natural y las leyes de Lamarck no hay contradicción alguna. Pero fue a finales del XIX cuando August Weissmann realizó una serie de experimentos en los que cortaba sistemáticamente el rabo a varias generaciones de ratones. Si Lamarck tenía razón, al cabo de unas cuantas, comenzarían a nacer ratones con el rabo más corto. Sin embargo, esto no ocurría, por lo que se consideró que Lamarck quedaba definitivamente refutado. El darwinismo salió triunfante, mas cuando encajaba perfectamente con la nueva genética mendeliana y los genes, eso creíamos, no se alteraban por ningún agente ambiental. Entonces llegó la epigenética que, en principio, no tenía nada que decir a favor de Lamarck; solo afirmaba que hay factores ambientales que son capaces de regular la expresión génica y, en principio, no se heredaban. Se rompía con la idea de que la expresión de tus genes era insensible al exterior durante tu vida, pero se seguía pensando que esto no afectaba a tus hijos. Y aquí llegó lo gordo: recientes experimentos con ratones agouti muestran que alimentándolos con alimentos ricos en grupos metilo, no solo cambia su coloración, sino que su crías nacen con ese nuevo color. El proceso de metilación del ADN puede alcanzar las células germinales y, en consecuencia, hay cambios epigenéticos heredables: ¡Lamarckismo en toda regla! De momento, sabemos muy poco (este campo lleva menos de 15 años estudiándose) pero, presumiblemente en poco tiempo, comenzaremos a conocer qué factores son heredables y en función de qué. Y es que a mí de siempre me parecía algo muy obvio. La selección natural es demasiado lenta… ¿no parecía muy lógico que apareciera algún organismo capaz de hacer que su genoma aprendiera del entorno y poder transmitirlo a su descendencia? Es una excelente estrategia evolutiva tan evidente que parecía absurdo que ningún organismo hubiera evolucionado hacia ella.

OLYMPUS DIGITAL CAMERA

4. Metagenómica. Para saber qué especies de microorganismos proliferaban en un determinado ecosistema, se cogía una muestra y, se la aislaba y cultivaba en una placa de Petri. El problema era que, al cambiar de su entorno natural a las bacterias a la placa, unas se desarrollaban y otras no. El resultado era muy pobre ya que solo un 5% del ecosistema conseguía replicarse. Pero llegó la metagenómica con sus potentes (y cada vez más baratos) sistemas computerizados de secuenciación de genomas y la historia cambió radicalmente: ahora ya no hace falta aislar y cultivar una muestra, sino que, sencillamente, se analiza con estas potentes herramientas y, en muy poco tiempo, conseguimos tener el genoma de todos los microorganismos que allí habitan. Las posibilidades que se abren son enormes: ahora podemos tener, con un detalle inimaginable años antes, un conocimiento profundísimo de cualquier ecosistema por muy pequeño que sea. La metagenómica se ha empezado a aplicar al ser humano y sus primeros descubrimientos son ya revolucionarios: por cada célula eucariota que forma tu organismo, tienes diez veces más bacterias habitándolo (el 90%). Esta concepción ingenua de que las bacterias son “invasores nocivos” de nuestro cuerpo salta completamente en pedazos. Las bacterias pasan a ser el componente esencial de nuestra fisionomía, teniendo funciones tan importantes como las que realiza cualquier célula tradicional. Por ejemplo, según la investigadora Julie Segre, las cerca de un millón de bacterias por centímetro cuadrado que viven en la dermis de tu piel, degradan aceite para humedecerte, controlan el pH o te defienden de otras comunidades patógenas.

AURIGA

5. Trasferencia horizontal de genes. Estábamos muy acostumbrados a que la única forma de que mis genes pasen a la siguiente generación era la reproducción. Sea sexual o asexual, lo normal parecía que mis genes solo pasan a otro organismo si éste es un descendiente mío. De nuevo el mundo de los microorganismos: allí es muchísimo más común la trasferencia horizontal de genes que la vertical. Bacterias y virus se pasan cadenas de ADN y ARN como si se cambiasen cromos. Esto impide una clasificación de especies a modo del clásico árbol darwiniano (aparte de complicar bastante cualquier tipo de clasificación). No se ve el típico esquema en el que una especie pasa a otra recorriendo varios tipos intermedios. La relación no es jerárquica, sino que una especie pasa genoma a otra para luego, varias generaciones más adelante, cogerle un trozo de ADN a la misma. El árbol de la vida va dejando de ser un conjunto de ramas que se alejan de su origen para asemejarse más a una enmarañada red.

PhylogeneticTree_horizontal_transfers

6. Y aún más sorprendente (o no tanto). La trasferencia horizontal de genes no solo afecta a virus y bacterias que, como hemos dicho, nos constituyen, sino al mismo ADN humano. Se han datado casos de bacterias que incrustan su ADN en el ADN de la célula huésped de modo que ella lo incorpora con normalidad a su funcionamiento (de nuevo epigenética). Pero, además, si uno de esos microorganismos alcanzara nuestras células germinales, su ADN se heredaría y formaría parte de la especie de modo indefinido. De hecho ya se ha encontrado dentro del genoma humano restos de ADN vírico que, además, cumplen importantes funciones (la capacidad de desarrollo de células madre nada menos) ¿Cuántas veces habrá ocurrido en la historia de nuestra especie la transferencia de ADN vírico? La historia del ser humano se hace, de nuevo, más compleja si cabe.

Professor Michael Gazzaniga

Siempre que hablamos de consciencia no podemos quitarnos de encima el significado de la palabra. Ser conscientes de algo significa que “alguien”, una determinada instancia o entidad actúa siempre como sujeto pasivo o activo del acto de ser consciente. Carecería de sentido decir que se es consciente de algo sin que alguien fuera consciente de ese algo. Una consciencia pura sin sujeto es un sinsentido. Así, no podemos prescindir del homúnculo, de un yo, de un agente receptor de la consciencia, a la vez que, al investigar el cerebro no encontramos nada, ningún módulo funcional que se encargue de tal tarea, del que pueda decirse que es el yo.

Cuando tenemos un robot que persigue con éxito la consecución de un objetivo, podemos hablar de él como un agente racional. Para conseguir sus objetivos, maneja información de su entorno de manera inteligente. Sin embargo, el robot no es consciente de nada. Por eso entendemos que el robot no tiene un yo, aunque con él hayamos demostrado que un agente puede poseer y usar información de modo lógico. Poseer información no es ser consciente de ella.

Unos experimentos que han arrojado algo de luz sobre el tema son los trabajos sobre hemisferios escindidos realizados por Michael Gazzaniga. Pacientes con graves crisis epilépticas, mejoraban muy significativamente si se les practicaba una callosotomía, si se les cortaba en gran cúmulo de fibras nerviosas que conecta ambos hemisferios cerebrales. De primeras, lo curioso de la operación es que los pacientes salían de ella sin notar cambio alguno después de una cirugía muy agresiva. Se encontraban bien, mejor que nunca ya que sus ataques habían cesado, y no eran conscientes de tener el más mínimo problema. Sus habilidades cognitivas permanecían intactas y realizaban una vida de lo más normal. Pero Gazzaniga no se conformó y decidió hacerles una serie de experimentos. La información visual llega a los hemisferios cerebrales a través del quiasma óptico. Allí se produce una inversión: la información percibida por el ojo izquierdo llega al hemisferio derecho y viceversa. Lo interesante es comprender que, después de la callosotomía, lo que el hemisferio derecho ve mediante el ojo izquierdo, no lo ve el hemisferio izquierdo, a no ser que el ojo derecho también lo vea. Los experimentos consistieron en enviar información visual solo a un ojo, sin que el otro pudiera ver nada, para comprobar si cada hemisferio percibe la realidad de modo diferente o tiene distintas habilidades. Y así sucedió: el hemisferio izquierdo puede hablar y realizar todo tipo de inferencias lógicas, mientras que el derecho no habla y tiene una comprensión muy limitada del lenguaje (es capaz de interpretar palabras y relacionarlas con imágenes), tiene muy poca capacidad de inferencia y, prácticamente, se limita a aquello sobre lo que puede tener sentimientos. Es por ello que, a grosso modo, solemos decir que el hemisferio izquierdo es el racional mientras que el derecho es el emocional.

Por ejemplo, si al hemisferio derecho (HD) de un paciente con el cerebro escindido, se le presentaba una imagen de agua y otra de una olla, era capaz de relacionarlas con sus respectivas palabras “agua” y olla”. Sin embargo, si después se le mostraba una serie de imágenes variadas entre las que se encontraba una olla llena de agua, no era capaz de establecer ninguna relación entre lo que había visto antes y la olla llena de agua. Por el contrario, el hemisferio izquierdo (HI) podía hacerlo sin ningún problema. Del mismo modo, si al HD se le mostraba una lista de objetos, y luego le mostraban otra en la que faltaban algunos, era capaz de reconocer cuáles faltaban. El HI fallaba más, ya que realizaba extrapolaciones. Si, por ejemplo, en la primera lista había una cucharilla de plástico y en la segunda una de plata, el HI decía que no faltaba ninguna cuchara ya que, en virtud de su similitud, establecía que ambas eran la misma. El HD era “más literal”, mientras que el HI razonaba.

Con respecto a la consciencia, estos experimentos pusieron en la palestra un debate muy interesante: en estos pacientes, ¿dónde residía su consciencia? La respuesta parecía indicar la presencia de dos consciencias, puesto que, dependiendo de a qué hemisferio se le preguntara, solo era consciente de la información que ese hemisferio recibía. Por otro lado, y sorprendentemente, los pacientes no encontraban nada raro y afirmaban tener la misma única consciencia que habían tenido siempre. ¿Cómo era eso posible si ambos hemisferios estaban incomunicados? ¿Cómo el paciente no se daba cuenta de que le faltaba la mitad de la información? Gazzaniga nos da una respuesta muy sugerente:

Por ejemplo, una de las pacientes con el cuerpo calloso escindido desarrolló, varios años después de la operación, la capacidad de emitir palabras simples desde el hemisferio derecho. Esto nos planeta una situación interesante, porque resulta difícil saber cuál es el hemisferio que toma la palabra cuando el paciente habla. En una entrevista describió la experiencia que tenía al ver fotografías de objetos que se proyectaban en una pantalla en sus diversos campos visuales: “Por ese lado [señalando una fotografía por el lado izquierdo de la pantalla, proyectada en su hemisferio derecho], veo la fotografía, lo veo todo más claro; en el lado derecho me siento más segura, en cierto sentido, con mi respuesta”. Por los ensayos anteriores sabíamos que el hemisferio derecho era más eficaz en todo tipo de juicios perceptivos, de modo que sabíamos que la afirmación sobre su claridad visual provenía de su hemisferio derecho, así como que su centro de habla segur, situado en el hemisferio izquierdo, era el responsable de la otra afirmación. Aunó las dos apreciaciones, una de cada hemisferio, pero al oyente le parecía una afirmación totalmente unificada, procedente de un sistema integrado. Sin embargo, intelectualmente sabemos que se trata de informaciones procedentes de dos sistemas distintos que nuestra mente entrelaza al escuchar a la paciente.

¿Quién manda ahí?, Michael Gazzaniga

La consciencia debe ser un fenómeno local, generado por variados sistemas alojados en diferentes partes de nuestro cerebro. No está exclusivamente alojada en el HI (como creía John Eccles) ni en el derecho. La idea es que cuando enunciamos una frase somos conscientes de ella, a la vez que también lo somos del objeto que estamos percibiendo, a pesar de que ambas tareas se realicen en partes diferentes e, incluso, incomunicadas de nuestro cerebro. Podemos entender la consciencia como un “espacio virtual” al que muchas partes de nuestro cerebro pueden tener acceso y otras no. Por ejemplo, por mucho que queramos no podemos tener acceso consciente a las tareas de nuestro sistema inmunitario más que como malestar o dolor. El “malestar” sería un informe consciente bastante poco preciso de lo que pasa en una zona de mi cuerpo que está siendo atacada por una infección. Lo interesante es descubrir que muchas partes diferentes de nuestro cerebro tienen acceso independiente a ese espacio virtual informativo. No hay un centro al que llegue la información para, desde allí, hacerse consciente, sino que los distintos módulos funcionales pueden acceder por si mismos a la consciencia. No hay un único “conscienciador” situado en un punto concreto, sino que hay muchísimos. Gazzaniga, y otros como Dennett, defienden que hay una especie de competencia entre módulos por acceder a ese espacio. Cuando estamos hojeando un libro somos conscientes de las frases que vamos leyendo pero, de repente, se oye un ruido estridente en la habitación. Automáticamente, dejamos de ser conscientes de las letras y nos centramos en el sonido. El módulo lector ha dejado el acceso a la consciencia al módulo del oído.

mri
¿Por qué estos pacientes no notan nada raro? ¿Cómo es posible que todo les siga pareciendo normal teniendo los dos hemisferios incomunicados? Gazzaniga responde que para darse cuenta de que algo va mal hay que tener un sistema de vigilancia que nos lo diga. Si tenemos a un individuo que se queda ciego porque se ha dañado su nervio óptico, hay un módulo en su córtex visual que detecta que hay problemas con la señal. Diría algo así como “no nos llegan datos del ojo, informa a la consciencia”. Empero si el daño se da en el mismo córtex visual, si el detector de problemas visuales falla, no hay nadie que alerte a la consciencia de que algo va mal. Hay muchas sorprendentes enfermedades mentales en las que el paciente no sabe que está enfermo, sencillamente, porque sus detectores de enfermedad fallan y no acceden a la consciencia.

Sin embargo, seguimos sin poder desprendernos del homúnculo. De acuerdo, la conciencia no se genera en un único punto, pero, ¿para qué la consciencia? Si la consciencia consiste en un sistema en el que se nos informa de ciertos acontecimientos relevantes… ¿a quién se está informando? Si pensamos que se hace a algún tipo de entidad de toma de decisiones… ¿no sabemos ya, a partir de los experimentos de Libet, Wegner o Haynes que las decisiones no se toman a nivel consciente? ¿Para qué perder el tiempo informando a algo que no toma decisión alguna? Gazzaniga da mucha importancia a lo que él llama el intérprete: un módulo esencialmente lingüístico, que se encuentra en el hemisferio izquierdo y que se encarga de dar sentido narrativo a todo lo que nos ocurre. Hay ciertos trastornos mentales en los que los enfermos están ciegos pero creen que no lo están. Cuando se les dice que en una sala hay un objeto que, realmente, no está, y se les pide que lo describan, lo hacen con todo lujo de detalles. ¿Por qué? Porque su intérprete tiene que justificar como sea la creencia inicial de que no están ciegos. Si no se inventara la descripción de ese objeto inexistente, reconociendo que no puede verlo, habría una incoherencia con la creencia inicial, y el intérprete detesta las incoherencias. De todas las fabulaciones y razonamientos (no siempre se inventa mentiras, la mayoría de las veces explica correctamente la realidad) del intérprete, somos plenamente conscientes. Hay, entonces, un fuerte interés en ser conscientes de sucesos con sentido. ¿Para qué? ¿Quién necesita ser informado de que su realidad tiene siempre sentido?

Una solución posible consiste en poner entre paréntesis los experimentos de Libet y demás, que niegan que la consciencia tenga algo que ver con la toma de decisiones. Quizá sea cierto que muchas de ellas se den a nivel inconsciente aunque nos parezca lo contrario, pero otras parece que no. Una decisión fruto de una planificación compleja a nivel consciente es imposible que se tome de forma totalmente inconsciente. Si yo quiero tomar la resolución de mover una pieza de ajedrez en una partida, antes de hacerlo, sopeso conscientemente un amplio abanico de jugadas posibles. Quizá, después de mucho meditar y si soy un buen jugador, al final me decida por un movimiento que anticipa varias jugadas posteriores. Sin toda esta anticipación realizada a nivel consciente, no hubiera tomado la decisión de mover tal o cual pieza. Es decir, las decisiones que se realizan después de una compleja planificación consciente no pueden realizarse únicamente a nivel inconsciente. Téngase en cuenta que los experimentos de Libet me dicen, únicamente, que yo soy consciente de que he tomado una decisión, después de que inconscientemente la he tomado, pero no dicen nada del proceso anterior de gestación de la decisión. Es posible que en el instante de la ejecución de la decisión el inconsciente tome el mando, pero tiempo antes, se necesita de la consciencia para planificar la acción.

La consciencia sería el workspace del que hablan Dehaene, Edelman o Baars. Sería “un lugar” donde cierta información se hace operativa para poder trabajar con ella y tomar decisiones. Así podríamos librarnos del homúnculo: en la consciencia no se informa a nadie de nada, solo se “pone” la información en un “lugar” en el que se la puede integrar, combinar o complementar con más información para tomar decisiones más complejas. Esto aún no soluciona el problema del por qué de la consciencia, ya que podríamos seguir diciendo que un computador puede planificar a largo plazo de modo completamente inconsciente, pero hay que tener en cuenta de que la evolución trabaja con lo que tiene y quizá encontró el camino de la consciencia como el mejor para realizar determinadas tareas. Tal vez, sin precisos transistores de silicio, la consciencia fue una buena opción y, quién sabe, a lo mejor existen funciones para las que la consciencia es condición necesaria.

tumblr_lk5734QN8T1qbpwkro1_1280

Cuando decimos que el cerebro causa la mente estamos diciendo que hay una serie de estados físicos que generan estados mentales. Al hacerlo, quizá sin darnos cuenta, estamos cayendo en cierto dualismo. No estamos afirmando que los estados físicos son una misma cosa que los estados mentales, sino que los primeros generan algo diferente a ellos: los estados mentales. Quizá pretendiendo defender una tesis aparentemente materialista estamos afirmando precisamente lo contrario, que la mente no es algo físico.

No obstante, la objeción puede intentar salvarse. Podemos decir que los estados mentales causados por estados físicos también son estados físicos. Podemos sostener que, por ejemplo, la actividad neuronal x, genera un estado mental y, siendo tanto x como y fenómenos físicos. El problema estaría ahora en determinar qué tipo de fenómenos físicos son los estados mentales. Y, en mi opinión, esta es el hard problem dentro del hard problem. En las observaciones mediante las, cada vez más sutiles, técnicas de escaneo cerebral, lo que observamos es única y exclusivamente actividad neuronal. Y lo que sabemos, a día de hoy, del funcionamiento del cerebro, es que es una complejísima red de comunicaciones. No hay ni rastro de qué son esos fenómenos mentales generados por la actividad neuronal. Podemos seguir dando soluciones:

1. Podemos recurrir a la teoría de la identidad: los estados neuronales son lo mismo que los estados mentales. Pero aquí está el problema que no me canso en denunciar una y otra vez: un estado mental no puede ser un potencial de acción eléctrico que se desplaza de una neurona a otra.  La electricidad es un flujo de electrones que se mueve a gran velocidad. Eso no es una emoción, pensamiento, recuerdo, etc.  Podría objetarse que la mente no es solo la actividad de una neurona, sino la actividad conjunta de muchas de ellas. Modelos informáticos de redes neuronales son capaces de memorizar, aprender y resolver ciertos problemas complejos. De acuerdo, una red neuronal así entendida es capaz de acciones inteligentes al igual que una computadora normal y corriente, pero no de tener estados mentales. Las máquinas no sienten ni tienen consciencia de nada. Vale, pero se puede volver a la carga: por ejemplo, los antidepresivos muestran con claridad que inhibiendo la recaptación de serotonina en las hendiduras sinápticas de ciertos circuitos cerebrales, cambiamos el estado emocional del sujeto. Hay miles de ejemplos de como el uso de ciertas sustancias químicas alteran nuestras emociones, e incluso nuestra consciencia. Sí, pero, ¿sabemos cómo diablos la serotonina causa que me sienta bien? Solo sabemos que su presencia mejora nuestro estado de ánimo, pero no tenemos ni idea de cómo.  No sabemos cuál es el proceso mediante el cual una molécula consigue una sensación o sentimiento. “Sentirse bien” no es idéntico a “hay muchas moléculas de serotonina flotando entre tus sinapsis” por mucho que exista una fuerte relación.

2. Siguiendo en la teoría de la identidad: deben existir otros estados físicos x, que no son idénticos a lo que hoy sabemos de los estados neuronales, pero que son realmente los estados mentales. Esto es lo que yo pienso. Albergo la creencia de que lo que sabemos del cerebro es solo la punta de un enorme iceberg. La actividad neuronal tiene mucho que ver con nuestra mente, pero la mente no es únicamente eso. Quizá hagan falta nuevas técnicas de observación o incluso, vete a saber, nuevas ramas de la bioquímica o de la misma física. El tema es que lo único que podemos hacer es seguir investigando.

Pero aquí viene el hard problem dentro del hard problem: ¿Y si no hubiera más? ¿Y si seguimos escaneando y escaneando el cerebro y seguimos únicamente encontrando actividad neuronal, esencialmente, tal y como la conocemos ahora? ¿Y si el cerebro no es más que 86.000 millones de neuronas interconectadas entre sí, lanzándose mensajes electro-químicos? Entonces, necesariamente, tendríamos que plantear algún tipo de dualismo que se saldría de los cauces de la ciencia empírica. Muy mal asunto.

el_ojo_de_la_mente_pin-rff27dd9e47204408a2841ee545ae0073_x7j3i_8byvr_512

Hay que diferenciar el hecho de ver un objeto que directamente tengo frente a mis ojos y el hecho de recordarlo mentalmente una vez que ha desaparecido de mi campo de visión. Cuando veo algo directamente el objeto se presenta en mi mente directamente, mientras que cuando lo recuerdo tengo que reconstruirlo. Usando un lenguaje preciso habría que distinguir entre representación (el objeto se me vuelve a presentar) y “presentación” (cuando el objeto aparece directamente ante mí). En el primer caso, la representación mental tiene que tener algún tipo de similitud, más allá de la meramente funcional, con el objeto que previamente se me ha presentado. Si yo recuerdo una manzana que vi hace unas horas en el supermercado, la imagen mental que se representa en mi mente debe parecerse visualmente a la que vi, por lo que mi cerebro debe reconstruir visualmente esa manzana; y debe hacerlo sin utilizar los ojos, o la parte del cerebro dedicada a la visión directa (ya que yo puedo recordar la manzana mientras estoy viendo directamente otros objetos).

Este proceso de reconstrucción mental trae de cabeza a los neurólogos y demás investigadores dedicados a la mente. De primeras, porque no encontramos casi nada en el cerebro que parezca tener el papel de reconstructor de imágenes. Se busca pero, a día de hoy, no hemos encontrado ese “proyector interno” que hace que se repita en mi mente la imagen de la manzana que contemplé. Y de segundas, porque tener un reconstructor de imágenes (o mapas según la terminología de Edelman) implica necesariamente otra figura: la del intérprete. Comprender o interpretar el significado de una imagen no puede consistir en, sencillamente, repetirla en la cabeza. Comprender una manzana no es únicamente volver a verla, sino describir sus propiedades y funciones. Conocer algo no es repetirlo, es interpretarlo. Y esa figura del intérprete tampoco parece encontrarse con claridad entre la inimaginablemente compleja maraña de redes neuronales que pueblan nuestro cerebro.

Por ejemplo, podríamos imaginar que, al recordar la manzana, una red neuronal se activa formando una estructura homóloga a la de la manzana. Las neuronas se encienden “dibujando” el esquema de la fruta en cuestión. Para que esto fuera eficaz necesitaríamos una segunda estructura neuronal que actuara como una especie de “videocámara” que contemplara el “dibujo” y que transmitiera esa información a una tercera estructura que se dedicara a interpretar o comprender lo que es realmente una manzana.  Esta explicación puede parecer poco convincente, sobre todo por el segundo grupo neuronal descrito: “la videocámara”. ¿Cómo puede existir algo como un sistema de visualización interno que detecta la posición de las neuronas? ¿Hay algo así como unos “ojos” que pueden ver mapas neuronales dentro de nuestro cráneo? Una posible solución estriba en pensar que las neuronas que se encienden “dibujando” el esquema de la manzana no dibujan realmente una manzana, sino que únicamente, dan una descripción funcional.

Vamos a explicar qué significa “descripción funcional”. Mi corteza visual puede detectar sin problemas que algo es rojo, que algo es redondo y que tiene un rabito con una hoja verde en su parte superior.  Podemos imaginar una serie de grupos de neuronas, encargados cada uno de ellos de detectar por separado cada una de las características que constituyen una manzana. Cada grupo de neuronas-detectores manda potenciales de acción a un segundo grupo que se activaría si le llegan dichos potenciales. Así, si el grupo de “detectar rojo”, el grupo de “detectar redondo” y el de “rabito con hoja” se activan, un segundo grupo se activaría como diciendo “efectivamente, estamos ante una manzana”. Como vemos, estas estructuras neuronales no tienen ningún parecido en su ordenación estructural con la forma de una manzana (de hecho cada grupo podría estar ubicado en partes lejanas del cerebro), no son un “dibujo” de una manzana, pero sirven para que el cerebro se dé cuenta de que está ante una manzana. Eso sería una descripción funcional.

Esta explicación encaja muy bien con lo que sabemos del funcionamiento de las neuronas. Muchos neurólogos hablan de que el cerebro “detecta patrones”, es decir, detecta información que le sirve para identificar lo que tiene delante. En el ejemplo, detecta el “patrón-manzana”. Y así funcionan a grosso modo nuestros sistemas informáticos encargados, por ejemplo, de reconocer rostros en las fotos de los teléfonos móviles. Pero el maldito problema sigue sin solucionarse del todo porque cuando yo recuerdo la manzana “veo” en mi mente algo cuya forma se parece mucho a una manzana.  O más rádicalmente, cuando sueño, “veo imágenes” de objetos con relativa claridad. Volvemos al principio: en el cerebro tiene que existir tal “proyector interno” que haga que yo vuelva a ver lo que antes había visto con mis ojos.  Y esta representación no puede tener solo una similitud funcional con el objeto, debe tener la misma forma, los mismo colores y demás características. En el cerebro tiene que haber algo que repita lo que hacen mis ojos, pero sin los ojos.

Una buena parte de los seres vivos viven felizmente sin cerebro. Tenemos el gran ejemplo del reino vegetal: miles de especies que no han necesitado sistema nervioso y que les ha ido muy bien sin él en la historia evolutiva. Y es que, ¿para qué puede valer un cerebro en las fases más primitivas de su desarrollo, cuando todavía anda lejísimos de poder pensar, imaginar, recordar, etc.? Para moverse. Los sistemas nerviosos primitivos van a tener la función de coordinar la percepción con el movimiento, van a ser básicamente “un cable” que comunica los ojos y los músculos, nada más. Una especie de tunicados, los ascidiáceos, tienen dos fases en su ciclo vital: en la primera, la fase de larva, son como renacuajos que se mueven por el agua buscando un lugar donde fijarse; y en la segunda, quedan pegados a la roca y se alimentan atrapando sustancias mediante un sistema de filtrado y expulsión de agua.  En la fase de larva, ya que tienen que moverse, disponen de una notocorda y de un tubo neural dorsal (un primitivo sistema nervioso), pero en la fase sésil, lo pierden (lo disuelven y se lo comen en un acto de “autocanibalismo”) ya que van a permanecer inmóviles adheridos a un sustrato el resto de su vida adulta. Los ascidiáceos se comen su propio cerebro cuando ya no lo necesitan.

Ascidia

Si los primeros organismos vivieron en el fondo marino y una de sus fuentes esenciales de alimento fue la luz (asombrosamente, la fotosíntesis aparece muy pronto en la historia de la vida), uno de los primeros objetivos del movimiento tuvo que ser dirigirse hacia las zonas más iluminadas (también comprobamos que los primeros sistemas perceptivos fueron sencillas células fotosensibles). Así, el primer imperativo para la acción, la primera orden de la historia de la vida tuvo que ser algo así como “ve hacia la luz” (curiosamente, cuando los seres humanos morimos también solemos decir lo mismo).

Hay una especie de notoplana (un tipo de platelminto) que mide aproximadamente 20 milímetros. Su cerebro (más que “cerebro”, su ganglio rostral, es decir, el ganglio que más se acerca a la parte delantera del animal) mide 700 x 1300µ (1 mm.). Lo curioso es que si se lo extirpamos quirúrgicamente, el animal sobrevive. Se vuelve más lento, ve menos, reacciona con menos viveza al alimento… en general, es mucho más torpe, pero puede sobrevivir perfectamente sin mayores problemas.

Notoplana

Si nos vamos a una especie algo más compleja, la lombriz de tierra (con unas 6.000 células nerviosas, que llegan a 10.000 en la fase adulta del animal a los cuatro meses de su nacimiento), y le extirpamos su cerebro (dos ganglios supraesofágicos), de nuevo, tenemos similares resultados: mantiene su “cabeza” en alto y parece inquieta. Si en su trayectoria hay un hueco, la lombriz caerá en vez de sortearlo como hacía habitualmente. Tendríamos a una lombriz mucho más desmañada que antes que, sin embargo, es capaz de enderezarse, puede practicar el coito e, incluso, aprender un camino en un laberinto.

Más complejas aún: las aves. Su cerebro es el de un reptil avanzado, con un gran núcleo basal (el famoso cuerpo estriado) y un buen cerebelo (aunque mucho más liso que el de los mamíferos). Si le extirpamos su dos hemisferios, aún pueden volar, correr y picotear; pero pierden la capacidad de construir nidos, aparearse o cuidar de sus crías. Esta cirugía sugiere una función social de los hemisferios en estas especies.

¿Y qué pasa con los seres humanos? En general, dada la complejidad de nuestra conducta, cualquier lesión cerebral suele tener consecuencias desastrosas pero, igualmente, se puede sobrevivir sin una importante parte de nuestro cerebro y, lo que parece aún más sorprendente, llevar una vida completamente normal. En 1923, el neurocirujano Walter Dandy de la Universidad John Hopkins, realizó la primera hemisferectomía (seccionar una parte o incluso la totalidad de uno de los dos hemisferios cerebrales) en un ser humano. Es una cirugía bastante radical que hoy en día solo se realiza en pacientes que, por ejemplo, sufren apoplejías diarias que no pueden tratarse de otro modo. Lo verdaderamente sorprendente es que cuando estas operaciones se realizan con niños de muy corta edad (menos de 10 años), su personalidad y memoria se desarrollan con total normalidad. Un chiquillo operado en la Universidad de California en Los Ángeles (UCLA) llegó a ser campeón de ajedrez de su Estado (debe ser muy humillante que te gane al ajedrez un individuo con solo medio cerebro). Los inconvenientes de la hemisferectomía se reducen principalmente a que pierdes la movilidad de la mano contraria al hemisferio extraído, la visión del ojo y algo de funcionalidad en el brazo. No se ha detectado ninguna irregularidad más (eso sí, si la operación se realiza a una edad muy temprana). Estos casos suelen ponerse de ejemplo para defender la idea de la espectacular plasticidad de cerebral, de como partes de nuestro cerebro asumen sin problemas las funciones de otras. Sin embargo, también siembran más interrogantes: si con medio cerebro puedo hacer lo mismo que con un cerebro entero, ¿para que quiero el otro medio?

Este breve recorrido por la historia evolutiva del cerebro puede indicarnos dos cosas: en primer lugar, el sistema nervioso nació para coordinar la percepción con el movimiento. Eso explica muy bien como, en el caso de nuestra sofisticada visión, veamos perfectamente los contornos de los objetos y calculemos relativamente bien las distancias con ellos (la visión estereoscópica). Nuestra visión ha sido perfeccionada durante cientos de miles de años de evolución para que nos movamos de forma muy competente en nuestro entorno circundante. Después, el cerebro creció y aumentó su complejidad para adquirir nuevas funciones, pero no hay que olvidar que esas funciones se edificaron sobre las antiguas. Podemos reflexionar, recordar o sentir sobre la base de un cerebro hecho para controlar nuestro movimiento. Nunca debemos pensar en el cerebro sin atender a su historia biológica.

 Y, en segundo lugar, que el cerebro, en sus primeras fases, fue una ventaja evolutiva más entre otras y que, en cuanto a tal, solo evolucionó en los seres y en los entornos en los que fue necesario. No hay ningún tipo de finalidad evolutiva que nos lleve a la aparición del cerebro. Solo si necesitas moverte, es posible que desarrolles uno. Podríamos imaginarnos un mundo en el que solo existieran especies vegetales o microorganismos y en el que jamás hubiera sido necesario sistema nervioso alguno. Sería un mundo descerebrado y, fascinantemente, no sería un mundo absurdo y sin sentido.

TRANSHUMAN

La tesis de la singularidad tecnológica es una de las ideas más controvertidas de Ray Kurzweil. La explicamos a grandes trazos: si conseguimos construir una inteligencia artificial más inteligente que el ser humano, según Kurzweil, será de esperar que esa inteligencia pueda crear otra inteligencia aún mayor. Pronto, la nueva máquina creará otra aún más inteligente, y así sucesivamente según un crecimiento exponencial (siguiendo la ley de rendimientos crecientes del propio Kurzweil). Nosotros, los para entonces estúpidos humanos, solo podremos contemplar como esas inteligencias se van alejando más y más de nuestro primitivo entendimiento hasta que no podamos comprender ni predecir qué es lo que estarán haciendo. Y aquí llegará la singularidad: un momento histórico sin retorno en que el hombre quedará relegado de la historia sin enterarse de nada, pues todo lo que ocurra será tan “singular”, tan diferente al resto de la historia anterior, que no habrá forma humana de comprender nada.

Pues bien, esta idea peca de una ingenuidad impresionante. Veamos por qué.

El gen NRB2 está muy relacionado con la capacidad del cerebro para asociar sucesos en la mente, al controlar la comunicación entre neuronas del hipocampo (la parte del cerebro encargada de consolidar los recuerdos, es decir, de convertir información de la memoria de trabajo en recuerdos genuinos de la memoria a largo plazo). Por esa razon NRB2 es, como mínimo, un gen imprescindible para cualquier tipo de aprendizaje. Sin él, los recuerdos no se fijan y nada se aprende. Pero, ¿se aprende más si aumentamos la expresión de estos genes? Sí, o al menos eso ocurre en ratones.

En 1999, el neurocientífico Joe Z. Tsien descubrió que la introducción de un único gen en ratas de laboratorio, provocaba un aumento más que significativo en sus facultades mentales. Eran mejores que los ratones normales en un montón de pruebas, incluidas las famosas fugas cronometradas de laberintos. Sigamos, ¿por qué no introducir más NRB2 en esos diminutos cerebros? Hecho: en diversos laboratorios se han ido criando cepas de ratones más inteligentes. En 2009, Tsien publicó un artículo en el que presentaba la variedad “Hobbie-J” (el nombre viene por un personaje de una serie de dibujos animados china), la cepa de ratones más inteligente que jamás haya existido. Su memoria para recordar hechos novedosos es tres veces superior a la variante de ratones considerada más inteligente hasta entonces.

Cuando a Tsien le preguntaron hasta qué punto llegarían a ser inteligentes sus ratones, Tsien respondió sonriente que, a fin de cuentas, solo eran ratones, nunca iban a saber resolver ecuaciones ni escribir novelas. Hay muchos límites biológicos que impiden que los ratones lleguen tan lejos. Si aplicamos estas conclusiones al planteamiento de la singularidad de Kurzweil podemos llegar a lo mismo: ¿no hay techos ni limitaciones de ningún tipo a la producción de más inteligencia en las máquinas?

Vamos a poner otro ejemplo. Pensemos que la humanidad en general no hubiera desarrollado tanto su neocortex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chaman de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Kurzweil basa su idea de progresión exponencial en el crecimiento de la capacidad de computación de los ordenadores. Parece cierto que esta capacidad va creciendo a un ritmo muy rápido. Sin embargo, la creación de una superinteligencia no depende únicamente de la capacidad de computación. Es mucho más importante saber qué hacer con esa capacidad de computación que seguir aumentándola hasta el infinito. Y el avance del saber qué hacer no está siguiendo un crecimiento exponencial: la inteligencia artificial como disciplina ha sufrido varios inviernos, varias épocas de estancamiento en las que no se han producido los avances esperados. De hecho, yo personalmente, sigo sin ver esos avances que justifiquen el entusiasmo renacido en estos tiempos.