Archivos de la categoría ‘Filosofía de la mente’

google-lamda-banner

Lo grave, lo verdaderamente grave, es que un ingeniero de Google, supuestamente de la gente más inteligente del planeta, crea que un sistema basado en una semántica distribuida, que lo único que hace es elegir estadísticamente entre secuencias de texto cuál secuencia sigue mejor a la que el interlocutor ha escrito, es consciente. Hay que ser muy, pero que muy, imbécil para pensar algo así.

En primer lugar, si conocemos el funcionamiento interno de LaMBDA (como debería conocerlo especialmente bien el señor Lemoine) que, seguramente, será muy parecido al de sus homólogos basados en BERT como GPT-3 o CYPHER, no encontramos en él más que diversas arquitecturas de deep learning combinadas, con el protagonismo puesto en las redes tipo Transformer (en este vídeo se explica muy bien su funcionamiento). Estas redes se han mostrado mucho más eficientes que sus antecesoras, utilizando mecanismos de atención que, básicamente hacen ponderaciones de la relevancia de cada palabra o token para el significado global de la frase. Son muy buenas y capaces de darnos textos tan coherentes como la conversación entre LaMBDA y Lemoine, pero en ellas no hay comprensión alguna de lo que escriben, solo relevancia estadística. LaMBDA, a pesar de lo que pueda parecer, es tremendamente estúpida. Pero es que la inteligencia, o la falta de ella, en un programa de ordenador no tiene absolutamente nada que ver con la consciencia. La aplicación de ajedrez que tengo instalada en mi móvil me masacra sin piedad cada vez que juego con ella. Jugando al ajedrez es mucho más inteligente que yo, pero eso no le da ni un ápice de consciencia. Hay mucha gente que cree que la consciencia será una consecuencia del aumento exponencial de inteligencia ¿Por qué? ¿Qué tiene que ver el tocino con la velocidad? ¿Qué va a ocurrir en una máquina muy inteligente para que emerja de ella la consciencia?  ¿A un programa que vaya aumentando su inteligencia le saldrían espontáneamente patas, antenas, alas…? No, ¿verdad? Entonces, ¿por qué consciencia sí?

Y, en segundo lugar, y más grave, si cabe, que lo anterior, es la absoluta ignorancia que Lemoine muestra acerca de lo que es la consciencia. Es curioso que se atreva a hablar de ella tan categóricamente sin un conocimiento mínimo de psicología o filosofía de la mente ¿Qué creerá Lemoine que es la consciencia? Es muy cierto que es, en gran parte, un misterio, y que no sabemos a ciencia cierta su naturaleza, pero eso no quiere decir que no sepamos nada o que cualquier idiotez vale. Vamos a dar un curso exprés sobre lo que sí sabemos de ella, además sin entrar en tecnicismos. Vamos a hablar de lo que todo el mundo, menos el señor Lemoine, sabe de la consciencia.

La consciencia tiene que ver con nuestra capacidad de sentir el mundo, de ser afectados por él. Así que un ser consciente, como mínimo, tiene que poseer algún tipo de sensor que le transmita información del mundo. LaMDA no lo tiene, solo es un conjunto de redes procesando datos según una serie de funciones matemáticas. En principio, si LaMDA es consciente no sé por qué Windows 11, o el Súper Mario Bros corriendo en una Game Boy,  no lo iban a ser. Pero la consciencia no es solo recibir información del mundo, sino sentirla. Yo no solo percibo que un puntiagudo clavo traspasa la piel de mi dedo, sino que siento dolor. La consciencia está llena de sensaciones, sentimientos… lo que los filósofos llamamos qualia. Bien, ¿qué le hace pensar al señor Lemoine que LaMDA alberga qualia? ¿Por qué un conjunto de funciones matemáticas que ponen una palabra detrás de otra pueden sentir el mundo? Para sentir el mundo hay que tener algo que se asemeje de alguna manera a un sistema nervioso… ¿Qué le hizo pensar al señor Lemoine que LaMDA alberga dentro de sí algo parecido a un sistema nervioso? Si ahora LaMDA nos dijera que siente que le late el corazón… ¿creeríamos que tiene un corazón físico? ¿Podríamos dejar inconsciente a LaMDA administrándole anestesia? No sé… ¿Quizá se la podríamos administrar poniendo la máscara de oxígeno en el ventilador de su CPU?

Desde que en 1921 Otto Loewi descubriera la acetilcolina, hemos ido demostrando que nuestras emociones están muy ligadas a un tipo de moléculas llamadas neurotransmisores. Así, cuando en mi cerebro se liberan altas cantidades de dopamina o serotonina, tiendo a sentirme bien… ¿Tiene LaMDA algún tipo de estructura que, al menos funcionalmente, se parezca a un neuropéptido? ¿Tiene LaMDA algo que se parezca, al menos en un mínimo, a lo que sabemos de neurociencia?

Pero es más, esa forma de sentir el mundo es, en parte innata, pero también aprendida. Durante nuestra biografía aprendemos a sentir, de forma que en nuestra historia psicológica quedarán grabadas situaciones que nos parecerán felices o desagradables, se configurarán nuestros gustos y preferencias, se forjará nuestra personalidad… ¿Tiene LaMBDA una biografía psicológica tal que le permita una forma particular de sentir la realidad? ¿Tiene traumas infantiles y recuerdos de su abuela? ¿Puede LaMDA deprimirse? En serio Blake Lemoine… ¿podemos darle a LaMBDA un poquito de fluoxetina para mejorar su estado de ánimo? No digo ya en pastillas físicas, sino su equivalente informático… ¿Habría un equivalente en código al Prozac? ¿Podríamos alterar sus estados conscientes con ácido lisérgico? ¿Podrá tener orgasmos? ¿Se excitará sexualmente contemplando el código fuente de otros programas?

Es muy escandaloso que gran parte de la comunidad ingenieril se haya tragado acríticamente una teoría computacional de la mente en versión hard. Una cosa son los algoritmos como herramientas para estudiar nuestra mente y otra cosa, muy diferente, es que nuestra mente sea un algoritmo. La metáfora del ordenador puede ser ilustrativa y evocadora, pero retorna absurda cuando se vuelve totalizalizadora. Me explico: es muy diferente decir que el cerebro procesa información, a decir que el cerebro es un procesador de información. Tengámoslo muy claro.

Comparativa modelos NLP

En el inacabable debate entre lo innato y lo adquirido, las redes neuronales artificiales parecían postularse como evidencia a favor del ambientalismo, ya que parecen capaces de «atrapar» ciertas estructuras lingüísticas solo a partir de su entrenamiento. Rumelhart y McCelland diseñaron una red para aprender los verbos en inglés que parecía hacerlo igual que los niños. De hecho, cometía exactamente igual que ellos, el clásico error de sobrerregulación (en vez de pasar de «volver» a «vuelto», lo hacía a «volvido») ¿Y qué decimos de los nuevos modelos de lenguaje desde BERT a Gopher? Su desempeño, al menos «externo», es sensacional. Estos días he estado jugando con GPT-3 y, a pesar de algunos errores, en general, funciona fantásticamente bien (luego subiré una entrada con extractos de mis conversaciones). Tengamos en cuenta que estos sistemas basados en semánticas distribuidas tienen cero conocimiento de semántica o sintaxis. No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.

En primer lugar, ya sabemos que el sistema de aprendizaje de estos algoritmos no parece tener nada que ver con el humano. Nosotros no necesitamos millones de ejemplos, ni en la neurología humana existe nada parecido a la backpropagation. Se ha argumentado que quizá computamos mal el número de ejemplos que necesitamos las personas en cada experiencia de aprendizaje. Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables. También se ha argumentado, y aquí está lo interesante, que la hoja de ruta de los ingenieros está en conseguir programas que necesiten cada vez menos ejemplos de entrenamiento (véase, por ejemplo, el trabajo de Li Fei-Fei). Podría llegar el momento en que el número de ejemplos necesarios para los algoritmos se aproxime en cifras aceptables al nuestro. No obstante, en el estado del arte actual, parece que estas arquitecturas no constituyen un buen modelo para la mente humana («Ni lo pretenden» responderían airados sus ingenieros. Podéis leer algo más de este tema en un TFM que hice). Pero veámoslo desde otro ángulo.

La estructura de los modelos de lenguaje desde BERT se basa en un sistema de aprendizaje en dos fases: primero tenemos el modelo base del programa, entrenado con miles de millones de ejemplos y requiriendo una enorme capacidad de cómputo. Gopher ha sido entrenado con 280 mil millones de parámetros o su rival de NVIDIA, Megatron-Turing NLG con 530 mil millones. En estos momentos estamos en una escalada de tamaños que, seguramente, está todavía lejos de terminarse. Hasta los chinos han presentado los suyos: Wu Dao 2.0 y M6, por supuesto, mucho más grandes que los occidentales. Seguidamente, al modelo base se le pueden añadir capas de ajuste fino (fine tunning), un entrenamiento específico para que la máquina sea especialmente buena en una tarea concreta (inferencias, equivalencia semántica, análisis de sentimientos, etc.). Después, el programa ya está completamente listo para funcionar. Lo importante es que ahora ya no necesita la enorme capacidad de cómputo de su entrenamiento. Todo ese gasto ya no tiene que volver a realizarse y  ahora el programa funciona como otro cualquiera en términos de gasto. De hecho, el camino parece ser incluso reducir aún su tamaño. DeepMind ha sacado RETRO, una versión de Gopher reducida en tamaño (unas 25 veces más pequeño que sus pares en desempeño). Tiene solo 7.000 millones de parámetros, pero lo compensa con la ayuda de una memoria externa a la que consulta cada vez. 

Supongamos ahora que somos una especie de extraterrestres que llegamos a la Tierra y analizamos a RETRO, sin saber absolutamente nada de su pasado de entrenamiento. Veríamos una arquitectura relativamente sencilla funcionando con una más que aceptable competencia llingüística. Podríamos entonces iniciar la investigación al estilo chomskyano: buscar unas estructuras profundas, unas gramáticas generativas a partir de las cuales RETRO produce todo ese lenguaje. Quizá fracasáramos y no encontráramos nada (debido quizá al black box problem). Entonces daríamos la razón a los ambientalistas y diríamos que todo lo que hay en RETRO ha de ser aprendido del entorno.  Sin embargo, en nuestro análisis no habríamos tenido en cuenta todo el costosísimo entrenamiento previo que RETRO lleva implícitamente dentro. RETRO nace con una enorme carga innata invisible al analizador. 

Hagamos ahora la analogía con el ser humano. Quizá nosotros traemos como innato invisible todo este gran modelo base entrenado por eones de años de evolución. Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos. El ajuste fino sería, sencillamente, el aprendizaje de los usos lingüísticos de nuestro idioma geográfico realizado por cada individuo particular durante su vida. En ese sentido, la carga innata sería enorme, infinitamente más grande que todo lo que aprendemos en vida, pero permanecería oculta al analista. Y es más, para nuestro fastidio, sería tremendamente difícil de investigar, ya que habría que conocer la historia evolutiva del lenguaje de millones de especies extintas, una tarea de ingeniería inversa imposible.  

Desde que descubrimos la teoría de la evolución, ese ha sido el gran problema: todo órgano ha pasado por una larguísima historia que desconocemos, ha pasado por innumerables adaptaciones, exaptaciones, funcionalidades cambiantes, e incluso quedar como órgano rudimentario durante un tiempo para luego volver a ser reutilizado. Si pensamos que la única forma de estudiar el pasado biológico es a través de los fósiles, siendo estos solo huesos… ¿cómo vamos a entender el cerebro si no se conserva en el registro fósil, si de nuestros parientes más cercanos solo podemos aspirar a encontrar trozos de cráneo? Algo podemos hacer estudiando el de otros seres vivos, pero todo es muy confuso: el cerebro de un chimpancé no es el de un ancestro, es de un primo, ya que no descendemos del chimpancé, sino que el chimpancé y nosotros descendemos de un ancestro común desconocido.  

Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022. 

He leído un montón variado de publicaciones y artículos en la red a los que no citaré para no darles publicidad, que hablan de que la mente no está en el cerebro, acusando a los que afirman lo contrario de cerebrocentristas o neurocentristas. El debate filosófico mente-cuerpo lleva siglos sin resolverse, pero parece que los últimos avances en la neurociencia dan clara ventaja a cerebrocentristas como yo. Voy a dar un listado de argumentos, muy viejos y manidos la mayoría de ellos, tanto a favor de que la mente está en el cerebro como de que la mente no sobrevive al cuerpo tras la muerte del cerebro.

Vamos al meollo:

  1. Si la mente no está en el cerebro, ¿dónde está? Se puede replicar, de forma cartesiana, que si la mente es, por definición, inextensa, no está en ningún lugar, siendo preguntarse por su ubicación lo que Ryle llamaría un error categorial . Sí, pero entonces tenemos que encontrar un punto de contacto en donde esa «inextensión» tome contacto con el mundo físico, ya que cuando yo decido mover un brazo, las fibras musculares obedecen mi mente. Descartes se sacó de la chistera la glándula pineal, y a día de hoy no existe nada en el cerebro que podamos entender con esa función ¿Cómo debería ser esa «wifi para lo inextenso»? ¿Estaría dentro de las leyes de la física clásica o habría que apelar a la cuántica?
  2. Si la mente no está en cerebro tenemos que explicar por qué cuando dañamos ciertas áreas del cerebro, la función mental queda dañada también. Si un paciente tiene un accidente cerebrovascular que le destruye el hipocampo, su memoria a corto plazo quedará igualmente destruida. Esta correlación se constituye como una evidencia muy fuerte a favor de la identidad entre cada función mental y su parte correspondiente.
  3. Si la mente no está en el cerebro, ¿para qué vale el cerebro? Seria muy curioso tener el órgano que más tasa metabólica consume del cuerpo (un 25% del gasto total con solo un 2% del peso) estuviera aquí de adorno o, en el mejor de los casos, que valiera para otras cosas que todos los investigadores del mundo hubieran pasado por alto.
  4. Podría objetarse que si bien la mente tiene que ver con el cerebro, el cerebro solo es un «interruptor», «disparador» o simple «receptor» de las funciones mentales, es decir, si bien el hipocampo «activa» la memoria a corto plazo, dicha memoria no se reduce al hipocampo. Dicho de otro modo: para funcionar, la mente debe estar encarnada, pero la mente no se reduce a su encarnación. Bien, pero entonces, por qué no aplicamos el mismo razonamiento a otro tipo de objetos. Por ejemplo, mi tostador enciende sus resistencias y tuesta el pan. Cuando una resistencia se quema, deja de funcionar ¿no podríamos argumentar que la resistencia solo ha perdido su parte corpórea pero que no se reduce a ella y que, de alguna manera, existe sin residir en el tostador? Obviamente, este argumento nos parece absurdo ¿Por qué entonces no nos lo parece al aplicarlo a las funciones mentales? ¿Por qué a la mente le damos un tratamiento epistemológico especial que nos parecería absurdo dar a cualquier otro objeto?
  5. Vamos a verlo aún más claro diciéndolo de otro modo: ¿Qué razones hay para sostener que estados mentales como mis recuerdos, emociones, consciencia, etc. vayan a seguir funcionando después de la muerte de mi cerebro? ¿Qué tienen de tan especial para que puedan seguir funcionando sin objeto material? Sería lo mismo que decir que el motor de mi viejo Seat Málaga, al que lleve al desguace después de 25 años de fiel servicio, sigue funcionando «en otro lugar»… ¿Por qué sostener eso de un coche es una locura pero hacerlo de la mente humana es una creencia respetable?
  6. Si la más pura y dura evidencia observacional nos dice que las funciones mentales dejan de funcionar con la muerte cerebral y, por mucho que la gente crea en fantasmas, no tenemos la más mínima prueba de que tales funciones mentales sigan funcionando post mortem ¿por qué sostener que siguen haciéndolo?
  7. Podría objetarse que no conocemos bien el funcionamiento del cerebro para asegurar con certeza que todas nuestras funciones mentales están allí. Estoy de acuerdo en que conocemos muy poco del cerebro, mucho menos de lo que suele creerse, pero la carga de la prueba reside en quien afirma. Cuando lo habitual es que un objeto pierda su función cuando es destruido, si alguien afirma que conoce una función que no se reduce a su objeto, debería demostrarlo y no pedir a los demás que demuestren lo contrario. Si sostenemos afirmaciones tan arriesgadas como que la mente es independiente y sobrevive al cuerpo en base a que no sabemos como funciona el cerebro estamos cayendo en la más pura y dura falacia ad ignorantiam.
  8. Otra objeción: es que la mente no es un objeto como una piedra o, en este caso, un cerebro. La mente es un conjunto de procesos y/o funciones que no pueden confundirse con el objeto donde se realizan. Así, los mismo procesos mentales que hoy funcionan en el cerebro, mañana podría funcionar en otra entidad material como podría ser el hardware de un computador. De acuerdo, pero que la mente pueda implementarse en otro entorno material diferente al cerebro (cosa, por cierto, nada evidente, pero vale, lo aceptamos por mor de la argumentación), no quiere decir que no ocurra en ningún lugar o que la mente pueda ser independiente de lo material. Pensemos, por ejemplo, en la digestión. No es un objeto, es un proceso que incluye multitud de subprocesos… ¿Alguien diría que la digestión no ocurre en el aparato digestivo, en el estómago y en los intestinos? O pensemos en la velocidad a la que va un automóvil. La velocidad no es un objeto, es el resultado de una gran cantidad de sucesos que ocurren, fundamentalmente, en el motor del coche… ¿Alguien diría que si yo voy por la autovía a 120 km/h no es en mi coche en donde se da esa velocidad? ¿Alguien diría, de verdad, que la velocidad no existe en el mundo físico sino en otra realidad? Reitero: que una función pueda darse en diferentes sustratos materiales no quiere decir que pueda existir con independencia de éstos. Windows es un software que funciona en innumerables hardwares diferentes ¿Existe Windows-en-sí, en el platónico mundo de las ideas?
  9. Nueva objeción: ¿En qué se parece la imagen mental que aparece en mi mente cuando pienso en mi abuela a lo que sabemos del funcionamiento del cerebro? La imagen de mi abuela y los sentimientos a ella asociados no se parecen en nada a descargas eléctricas en axones y a vesículas sinápticas soltando neurotransmisores… ¿Qué justificación tiene entonces decir que mis estados mentales equivalen a mi cerebro? A mi juicio, esta es la mejor objeción. Y la respuesta es que, a día de hoy, dado lo que sabemos del cerebro, es cierto que no se justifica la equivalencia. Mis estados mentales no son, para nada, equivalentes a lo que hoy sabemos de nuestros estados neuronales. Sin embargo, esto tampoco justifica dar el salto al dualismo, esencialmente, porque el dualismo presenta todavía muchos más problemas que seguir en el monismo materialista (todos los que estamos diciendo aquí). Lo lógico es, dadas las conexiones que sí conocemos entre estados neuronales y estados mentales, aceptar que todavía desconocemos mucho del funcionamiento del cerebro, pero que albergamos una muy razonable esperanza en que descubrimientos futuros vayan arrojando más luz hasta que se consiga identificar el mecanismo del que quepa justificar una equivalencia con los estados mentales. A esta idea la llamo la Teoría de la Identidad pero Todavía No.
  10. La Teoría de la Identidad pero Todavía No nos dice que existe un mecanismo causal que va desde que mis vesículas sinápticas liberan grande cantidades de serotonina hasta que yo tengo el quale de sentirme bien, pero que es totalmente desconocido a día de hoy, y no se identifica con ningún proceso neuronal de los conocidos en el estado del arte actual sobre el cerebro.

Acepto de muy buena gana contraargumentos. Change my mind.

En abril de 2019 el Allen Institute of Brain Science celebraba la culminación de un ambicioso proyecto de investigación: cartograficar cada una de las 100.000 neuronas y cada una de las 1.000 millones de sinapsis contenidas en un milímetro cúbico de la corteza cerebral de un ratón. Por el momento, se trata del conectoma (así se llama este tipo de «mapa») a nanoescala de mayores dimensiones, valga el oxímoron. Dentro de este granito de arena había unos cuatro kilómetros de fibras nerviosas. El equipo tomo imágenes de más de 25.000 secciones ultrafinas de tejido contenido en ese minúsculo volumen, generando un conjunto de datos (dataset) de dos petabytes, suficiente capacidad como para unos 50 millones de elepés en MP3: el faraón Mentuhotep III podría haberle dado al «play» en el año 2000 a. C. y todavía no se habría repetido ni una sola canción. Si quisiéramos mapear de forma análoga la corteza cerebral humana generaríamos un zetabyte: aproximadamente, la cantidad de información registrada en todo el mundo a día de hoy. Si a esos datos meramente morfológicos quisiéramos añadir datos más específicos, acerca de la tipología química de las sinapsis, pongamos por caso, necesitaríamos múltiplos de esa cifra. Si a esos datos quisiéramos añadir, adicionalmente, datos acerca de, por ejemplo, el citoesqueleto proteico que configura la estructura interna de la neurona – y no olvidemos que importantes especialistas sostienen que el mismo es crucial para la «vida mental del cerebro» – , generaríamos por cada neurona una cantidad de información similar a la requerida para mapear la anatomía neuronal del cerebro completo. Si a estas «fotos» quisiéramos añadir datos acerca de la actividad acaecida cada segunda en cualquiera de estos niveles de organización, necesitaríamos, sencillamente, elevar una cifra astronómica a otra absurda. Se trata de hechos que no debieran descuidar los que fantasean con «simulaciones computacionales del cerebro».

Arias, Asier. Introducción a la Ciencia de la conciencia. Catarata. Madrid, 2021. p. 223-224.

Desde luego, vienen bastante bien unas dosis de realismo acerca de las posibilidades de construir cerebros artificiales. Pero que no cunda el desánimo. No hace falta tener un mapa de grano tan sumamente fino para comprender el funcionamiento de nuestra mente. A fin de cuentas, podemos explicar bastante bien el funcionamiento del brazo, sin tener un mapa de todas y cada una de las fibras musculares y óseas que lo componen. Lo interesante entonces no es el realismo del mapa en sí, porque la explicación de su funcionamiento estará a otros niveles explicativos superiores. Por eso nunca me han impresionado demasiado todos estos proyectos titánicos de mapeo cerebral. Como se ha mencionado muchas veces, ya tenemos desde hace años todo el conectoma de la Caenorhabditis elegans, que solo tiene 302 neuronas y unas 8.000 conexiones sinápticas, y no somos capaces de predecir su conducta ¿por que íbamos a sacar algo en claro de cerebros exponencialmente más complicados? En el fondo, se trata de una miope obcecación reduccionista. Y es que el reduccionismo es una estrategia siempre saludable, menos cuando deja de serlo.

P.D.: puedes descargarte una aplicación del Allen Institute para ver mapas del cerebro en 3D aquí. Y también tienen un mapa muy chulo de la conectividad del cerebro del ratón aquí.

La verdad es que no esperaba demasiado. Me olía a que, dada la pobreza el estado del arte, no se podía presentar nada demasiado revolucionario, pero ¿quién sabe? Estamos hablando de Elon Musk, ese que consiguió hacer aterrizar cohetes y mandó un Tesla Roadster al espacio… Pero no, nada nuevo bajo el sol: el típico show grandilocuente al que los multimillonarios americanos nos tienen acostumbrados con la misma poca chicha que la mayoría de su cine.

Bien, ¿y qué nos presentaron? Lo único interesante ha sido  una mejora en la miniaturización del sistema: los electrodos que utiliza Neuralink v0.9  son diez veces más finos que un cabello humano, lo cual permite que cuando se implantan esquiven mejor venas y arterias, evitando el sangrado y la inflamación. Son menos invasivos que los modelos anteriores. Del mismo modo, su menor tamaño les hace ganar en precisión. Uno de los retos más importantes de las técnicas de monitorización cerebral es la precisión: conseguir captar la actividad de solo el grupo de neuronas que nos interesa, apagando el ruido de todo lo demás. Eso es muy difícil con técnicas no invasivas (sin meter electrodos en el cerebro) y con las técnicas invasivas disponibles la precisión todavía es muy baja. Además, los electrodos de Neuralink pueden captar 1024 canales de información, lo que es diez veces más que los cien que se venían manejando en los dispositivos comerciales al uso. Y hasta aquí da de sí la novedad. Todo lo demás ya se había hecho. Kevin Warwick, de la Universidad de Reading, ya se implantó bajo la piel un chip de radiofrecuencia que le permitía hacer cosas como encender y apagar luces, abrir puertas, etc. Esto fue en 1998, hace ya un poquito. O si queremos un ejemplo patrio, el neurocientífico Manuel Rodríguez Delgado implantó unos electrodos en el cerebro de un toro al que paraba en seco mediante un mando cuando éste se dirigía hacia él para embestirle. Tecnología inalámbrica de control mental en 1963. Hace ya 57 años de esto. Hoy hay miles de personas con implantes cocleares que mejoran la audición de pacientes sordos y también existen implantes electrónicos de retina que devuelven parcialmente la visión a personas ciegas.

¿Y dónde está la trampa? Musk dice que con este dispositivo se podrán tratar multitud de trastornos tales como la ansiedad, la depresión, la ansiedad, el insomnio, pérdidas de memoria… ¡Maravilloso! ¿Cómo? Y aquí se acaba la presentación. Es cierto que tenemos ciertos estudios que avalan que hay ciertas mejoras en pacientes a los que se electroestimula, por ejemplo, en el caso del Parkinson. También, hay multitud de experimentos en los que conseguimos ciertos cambios conductuales, simplemente, bombardeando eléctricamente tal o cual zona del cerebro, pero de ahí a curar la depresión… ¡va un universo! Y es que Musk parte de un terrible error demasiado común hoy en día: pensar que el cerebro es, por completo, un computador, en el sentido de pensar que dentro del cerebro solo hay una especie de larguísima maraña de cables. Nuestras neuronas funcionan eléctricamente sí, pero solo a un nivel. En ellas hay una infinidad de interacciones bioquímicas aparte de lanzar un pulso eléctrico por el axón. Y muchísimas de ellas las desconocemos. De hecho, la neurociencia está todavía en pañales. Nuestro conocimiento del cerebro es todavía terriblemente superficial. Entonces, ¿cómo justificar que solo mediante la estimulación eléctrica vamos a hacer tantas cosas? No se puede porque, seguramente, no se va a poder hacer así.

Musk nos está vendiendo que con su interfaz va a poder, literalmente, leer la mente. No colega, tus electrodos captarán ecos de la actividad mental, como yo escucho el ruido del motor del coche cuando voy conduciendo. Actualmente no sabemos cómo el cerebro genera emociones, pensamientos, recuerdos, consciencia… Tenemos algunas pistas sobre en qué zonas aproximadas puede ocurrir cada una de estas cosas, pero poco más. Obviamente, saber la localización de un suceso no es saber todavía demasiado del suceso. Si yo oigo el ruido del motor debajo del capó podré inferir que, seguramente, el motor está debajo del capó, pero eso no me dice casi nada de cómo funciona el motor. Por ejemplo, sabemos que en el hipocampo es donde se generan nuevos recuerdos pero, ¿cómo se generan? ¿Y dónde y cómo se guardan en la memoria? Silencio vergonzoso.

A mí, cuando en estas infructuosas discusiones en la red, alguien se me ha puesto chulito igualándome la actividad neuronal al pensamiento, suelo retarle a que me explique todo el proceso causal que va desde que yo, ahora mismo, decido pensar en mi abuela hasta que en mi mente aparece su imagen, únicamente mediante lo que sabemos de la neurona ¿Cómo diablos se genera una «imagen mental» mediante disparos eléctricos o vaciando vesículas sinápticas de neurotransmisores químicos? ¿Cómo consigue una molécula de acetilcolina que el recuerdo de mi abuela se quede fijado en mi mente? ¿Cómo hacen las moléculas de serotonina o de dopamina que yo tenga sensaciones agradables al pensar en ella? No tenemos ni remota idea. O le reto a qué me diga en qué se parece el paso de un pulso eléctrico por un conjunto de células mielinizadas al recuerdo fenoménico de mi abuela ¿En qué se asemejan los colores y rasgos de la cara de mi abuela en la imagen que parece proyectarse en mi mente a los procesos bioquímicos que ocurren en mi cerebro para que digamos que ambas cosas son lo mismo? Silencio vergonzoso. Con total certeza, el cerebro hace muchísimas más cosas que transmitir impulsos eléctricos entre células nerviosas y, por tanto, el cerebro no es un circuito electrónico tal y como piensa Musk, por lo que sus electrodos van a tener un alcance mucho más limitado de lo que nos ha hecho creer. Y en el mejor de los casos, suponiendo que al final, por un increíble golpe de suerte, Musk acertara y su Neuralink nos salvan de todos los males, su modus operandi no es éticamente correcto: no se pueden vender promesas, hay que vender hechos consumados.

Otra estrategia que suelen utilizar estos visionarios tecnológicos es con un error o sesgo que solemos cometer a la hora de analizar el desarrollo de cualquier tecnología o programa de investigación científica. Consiste en tender a pensar que una tecnología que en el presente va muy bien, seguirá progresando indefinidamente hacia el futuro. Por ejemplo, si ahora tenemos Neuralink versión 0.9, podríamos pensar: bueno, la 0.9 todavía no hace mucho pero espera a que llegue la 10.0 ¡Esa ya nos permitirá volcar Wikipedia entera en el cerebro! NO, de que una tecnología sea ahora puntera no podemos inferir, de ninguna manera, que seguirá siéndolo. De hecho, la historia de la ciencia y la tecnología nos ha mostrado multitud de investigaciones muy espectaculares en principio pero que no fueron a más. Por ejemplo, si pensamos que la inteligencia artificial es ahora una disciplina muy a la vanguardia, hay que ver que ha pasado por varios inviernos en los que quedó completamente olvidada. Es muy posible que el hoy tan alabado deep learning pase de moda en un tiempo y otras tecnologías ocupen su lugar ¿Por qué? Porque esas investigaciones o desarrollos se encuentran, de repente, con problemas que se enquistan y que quizá tardan diez, veinte, cincuenta años en resolverse o, sencillamente, no se resuelvan nunca. También tendemos a pensar que el progreso tecno-científico todo lo puede, que, al final, todo llegará y que solo es cuestión de tiempo. No, eso es un mito sacado de la más barata ciencia-ficción. No hay ninguna inferencia lógica que sostenga este progreso imparable hacia adelante. Verdaderamente, la ciencia y la tecnología son cosas mucho más humildes de lo suele pensarse.

No obstante, partiendo una lanza a favor de Musk, también hay que decir que el hombre, al menos, dedica su talento y fortuna a desarrollar tecnologías. Podría haberse comprado un equipo de fútbol o puesto a coleccionar yates, y en vez de eso emprende proyectos que, al menos a priori, tienen una finalidad pretendidamente positiva para la humanidad. En este sentido Musk está muy bien y ojalá todos los multimillonarios del mundo se parecieran un poquito más a él. Al menos, tal y como no se cansan de repetir su legión de seguidores en la red, él es valiente, se arriesga y emprende intentando llevar las cosas a cabo. El problema de Musk es que está en la onda del transhumanismo trasnochado de la Universidad de la Singularidad de Ray Kurzweil y cía. Esta gente defiende ideas muy discutibles tales como el el advenimiento de una inteligencia artificial fuerte en las próximas décadas, o la consecución de la inmortalidad, ya sea eliminando el envejecimiento mediante nuevas técnicas médicas, ya sea subiendo nuestra mente a un ordenador (mind uploading). Lo malo no está en que defiendan esas ideas (¡Yo quiero ser inmortal!), lo malo es que lo hacen a partir de una más que endeble base científica, y eso en mi pueblo se llama vender humo.

De este tema vamos a hablar este domingo a las 12:00 en Radio 3 en el célebre programa «Fallo de sistema». Estaré junto a personas del peso de Ramón López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial del CSIC; Juan Lerma, editor en jefe de Neuroscience; Manuel González Bedía, asesor en el Ministerio de Ciencia, Innovación y Universidades; Liset Menéndez, líder del Laboratorio de Circuitos Neuronales del Instituto Cajal; o el tecnohumanista Pedro Mujica,  impulsor de IANÉtica.  He de decir que nunca he estado sentado en una mesa  con personas de tanto nivel científico. Es la flor y nata de la ciencia española. Así que yo voy a estar bastante calladito escuchando y aprendiendo. No os lo perdáis.

Aquí tenéis la charla que he dado para el curso de verano de la SEMF. En ella hago un recorrido histórico por los principales hitos en el campo, desde los primeros modelos teóricos de McCulloch o Rosenblatt, hasta Alpha Zero o GPT-3. He intentado que sea lo más sencilla y sugerente posible, sin meterme demasiado en temas técnicos. Para quien quisiera profundizar he adjuntando el artículo académico principal de cada tema que trato. Espero que os resulte provechosa.

Perdonándome por mis continuas coletillas (mi perenne «vale») y mis malas vocalizaciones, las que hacen de mí un pésimo orador, no hay nada mejor que hacer en tiempos de cuarentena que ver la pequeña charla que dí para los AI Saturdays de Almería en el centro cultural La Oficina, allá por el 2018. Debo agradecer a los organizadores la invitación, el trato recibido y la elaboración de este vídeo. Me lo pasé muy bien y descubrí una ciudad bastante sorprendente.

Y recordad, las máquinas no piensan, ¡las máquinas kensan!

Para un trabajo que realicé para la asignatura Bases Neurológicas de la Cognición del Máster en Ciencias Cognitivas que imparte la Universidad de Málaga, tuve que enumerar una serie de características que yo considerada imprescindibles para crear una máquina que imitara el funcionamiento del cerebro humano. Concedo que son principios muy generales, pero creo que no hay que perderlos de vista porque son, esencialmente, verdaderos, y uno se encuentra por ahí, más veces de lo que querría, con teorías de la mente que se alejan, muy mucho, de ellos.

  1. El cerebro es un kludge (klumsy: torpe, lame: poco convincente, ugly: feo, dumb: tonto, but good enough: pero bastante bueno) fruto de la evolución biológica. Tal como defiende el neurocientífico David Linden (Linden, 2006), si aplicamos los principios de funcionamiento de la selección natural, el diseño del cerebro dista mucho de ser una máquina perfecta fruto del trabajo racional de ingenieros, siendo más bien un cúmulo de chapuzas, de soluciones, muchas veces poco eficientes, que lo único que han pretendido es aumentar el fitness del organismo dado un ecosistema concreto. Teniendo en cuenta que los ecosistemas cambian debido, por ejemplo, a cambios en las condiciones climáticas o por aumentos o disminuciones en las poblaciones de competidores, lo que hoy podría ser una excelente adaptación, mañana puede ser una carga inútil. Es por eso que nuestro cerebro puede estar lleno de órganos rudimentarios (adaptaciones que perdieron su función pero que no fueron eliminados) y exaptaciones (antiguas adaptaciones que se están rediseñando en la actualidad para una nueva función), o de las famosas pechinas de Jay Gould y Richard Lewontin (elementos que solo obedecen a necesidades estructurales de auténticas adaptaciones). También hay que tener en cuenta que el cerebro no es una máquina acabada, sino que, al seguir siendo afectado por la selección natural, sigue construyéndose, siempre siendo un estado intermedio. El cerebro, al contrario que cualquier máquina diseñada por el hombre, tiene una larga historia biológica, lo cual, dicho sea de paso, dificulta mucho la labor de ingeniería inversa necesaria para su estudio.
  2. El cerebro como una máquina de movimiento. La gran diferencia entre el reino animal y el vegetal fue, originariamente, la capacidad de movimiento. Se da el hecho de que las plantas no tienen sistema nervioso y esto se explica, precisamente, por su quietud: si apenas te mueves no necesitas un complejo sistema que ligue tu percepción al control del movimiento. Por tanto, el sistema nervioso surge con la función biológica de coordinar la percepción con el sistema motor. Podemos entonces entender que muchas de las funciones cognitivas actuales son exaptaciones de funciones perceptivo-motoras. O dicho de otro modo: nuestro cerebro se construyó a partir de otro que únicamente servía para percibir y moverse, por lo que parece esencial, comprender bien cómo eso puede afectar al diseño del cerebro. Pensemos como sería construir un ordenador personal a partir de las piezas de un automóvil.
  3. El cerebro como máquina de visión. El órgano de los sentidos que mejor servía para moverse eficazmente en el mundo animal, ha sido la visión (con honrosas excepciones como la ecolocalización de los murciélagos). Y es por ello que los animales más evolucionados como los mamíferos superiores tienen los mejores sistemas visuales de toda la biosfera ¿Qué es lo que ve, lo que percibe nuestro cerebro? En este sentido es muy interesante la teoría de la interfaz (Hoffman, 1998 y 2015) del científico cognitivo Donald Hoffman ¿Percibimos la realidad tal cómo es? No. En primer lugar hay que tener en cuenta que el cerebro no es una máquina con infinitos recursos sino que tiende a optimizarlos para competir en situaciones de escasez. Percibir toda la realidad sería un enorme derroche cuando solo tiene que percibir necesario para aumentar sus posibilidades de supervivencia y reproducción: alimento, presas/depredadores y parejas sexuales. Todo lo demás, lo que es indiferente a los factores evolutivos no tiene por qué ser percibido. Y después, tampoco hace falta percibir lo que se percibe tal y como es, sino que nos bastaría con una etiqueta, con un símbolo que, sencillamente, identificara la función de lo percibido. Es por eso que Hoffman nos habla de nuestra percepción como una interfaz, como el típico escritorio de Windows lleno de iconos. Pensemos que cada icono es un símbolo que representa una función (Abrir el programa determinado), pero ese símbolo no tiene nada que ver (no se parece en nada a su función), pero es muy práctico y eficiente: un pequeño dibujito vale como etiqueta para indicarme que debo hacer clic en ella para ejecutar un programa (el cual puede ser tremendamente complejo en sí mismo). Por otro lado, el órgano de los sentidos que más información proporciona al ser humano, es con diferencia, la visión (el córtex visual ocupa casi un tercio del volumen del cerebro), por lo que a la hora de establecer cómo procesamos la información y cómo realizamos acciones cognitivas o conductuales, habría que tener muy en cuenta que, principalmente, trabajamos con información visual, por lo que habría que tener muy en cuenta sus propiedades y peculiaridades con respecto a otros tipos de información.
  4. La división entre rutinas y subrutinas. En su famosa obra The society of mind (1986), el informático Marvin Minsky nos describía el cerebro como un gran conjunto de pequeños módulos funcionales que realizan tareas relativamente sencillas pero que, trabajando coordinadamente, hacen emerger una conducta muy inteligente. Esto nos da dos ideas: en primer lugar nos sirve para establecer la distinción entre procesos conscientes y subconscientes. La tarea de esos sencillos módulos funcionales (que quizá podrían identificarse con clusters de redes neuronales) ocurriría a nivel inconsciente, siendo únicamente el resultado, lo que aparece a nivel consciente (o, si no, solo el trabajo de ciertos tipos de módulos encargados, precisamente, de los procesos conscientes). Y, en segundo lugar, da pie a todo el programa de investigación conexionista (en redes neuronales artificiales): buscar modelos matemáticos del funcionamiento del cerebro centrados en sus unidades básicas (la neurona) y en sus relaciones (las redes). Una neurona es una célula relativamente sencilla, pero millones de ellas funcionando en paralelo podrían dar lugar a comportamiento complejo. Como Rodney Brooks (Brooks, 1991) demostró en sus investigaciones en robótica, es posible hacer emerger comportamiento inteligente mediante un conjunto de dispositivos sin que exista ningún módulo de control que dirija la acción. Serían dispositivos automáticos que actúan siguiendo el patrón percepción-acción sin apenas procesamiento de la información. En este sentido la metáfora del funcionamiento de los programas informáticos actuales es perfecta: un programa llama constantemente a otros (llamados subrutinas) para que le den un valor, un resultado. El programa principal no sabe qué hacen ni cómo funcionan cada uno de estos subprogramas, pero le son útiles porque le dan el resultado que necesita para acometer una determinada tarea. Incluso puede ser el caso de que funcionen sin ningún tipo de comunicación con ningún centro de mando, sencillamente realizando una tarea de forma completamente autónoma.
  5. Conocer es actuar. Ha sido un gran error histórico (quizá el mayor error de la historia de la filosofía) entender el conocimiento desde la gnoseología platónico-aristotélica, es decir, entender que conocer consiste en volver a presentar (re-presentar) el mundo exterior a nosotros, abstrayendo una especie de esencia incluida en el objeto conocido y “colocándola dentro” de nuestro entendimiento. Esta concepción mixtifica, sobrenaturaliza la acción de conocer y, evidentemente, saca el estudio del conocimiento del ámbito científico. Conocer no es repetir el mundo exterior dentro de nuestro mundo interior, ya que eso nos llevaría a una cadena infinita de homúnculos. Conocer es un acto biológico con finalidades evolutivas que no tiene nada que ver con representar el mundo. Sería absurdo que nuestra percepción fuera como una cámara de fotos que solo intenta hacer una réplica lo más fidedigna posible de lo fotografiado porque ¿qué hacer luego con la foto? ¿Para qué queremos, solamente, una foto realista? La información obtenida mediante los sentidos es procesada, manipulada o transformada simbólicamente, para hacer cosas con ella, para intervenir en la realidad y no para describirla. Conocer es un proceso que tiene que entenderse exactamente igual que cualquier otro proceso biológico como la digestión o la acción del sistema inmunitario. Y, en un nivel inferior, el acto de conocimiento es una acción físico-química como cualquier otra. Cuando percibimos mediante la vista, el primer paso se da cuando fotones golpean las capas de discos membranosos de los fotorreceptores de nuestra retina, generando una cascada de disparos neuronales que forman patrones que posteriormente serán procesados por redes neuronales. En toda esta compleja red de procesos no se atrapa ninguna esencia ni se repite ni siquiera una supuesta estructura de la realidad, sino que se elabora un mapa funcional, se elabora todo un sistema para tomar decisiones de modo eficiente.
  6. Módulos cerebrales de reconocimiento de patrones (Kurzweil, 2013) Parece que lo que mejor saber hacer las últimas herramientas de la IA conexionista, las redes neuronales convolucionales, es encontrar patrones en entornos poco (o nada) formalizados, es decir, muy difusos. Así están venciendo uno de los grandes obstáculos de la IA: la visión artificial. Ya existen redes neuronales que distinguen rostros con suma fiabilidad, o que reconocen cualquier tipo de objeto que observan, estando ese objeto en diferentes posiciones, iluminado con diferentes intensidades de luz, incluso en movimiento. Esto sirve como fuerte indicio para apostar por una teoría computacional de la percepción y del conocimiento: si al utilizar redes neuronales artificiales conseguimos hacer máquinas que ven de una forma, aparentemente, muy similar a la nuestra, será porque nuestro cerebro también funciona así. Además, una de las teorías de la percepción más influyentes del siglo XX, la famosa Gestalt, ya afirmaba que la percepción no consistía en la suma de todos los estímulos visuales (como sostenía la escuela elementarista), sino en dar sentido, en comprender una estructura profunda de la imagen vista (en, según sus propios términos, obtener una gestalten). Ese sentido que otorga significado a lo observado bien puede entenderse como el reconocimiento de un patrón. Además, esta forma encaja perfectamente con la teoría de la interfaz de Hoffman: no percibimos todo ni lo real, sino una información (que será deseablemente la mínima) suficiente para responder adecuadamente.

Imagen del artista Pablo Castaño.

El conductismo, en cualquiera de sus versiones, siempre me ha parecido algo extravagante. En su versión débil, el conductismo epistemológico, sostiene que si bien la mente puede existir, la psicología ha de centrarse exclusivamente en la conducta observable y renunciar per secula seculorum a hablar de la psique humana en términos mentales. Debido a que el concepto de mente no se antoja muy científico a nuestros instrumentos de observación habituales, y el principal método de análisis mental, la introspección, no es muy fiable, prescindimos radicalmente de él, y solo observamos la conducta. Esto, ya de primeras, se intuye como un total despropósito pues… ¿cómo explicar la conducta de una persona prescindiendo absolutamente de lo que ocurre dentro de su cabeza? Pero es más, está la versión fuerte, el conductismo ontológico, el cual no solo no permite estudiar lo mental, sino que sostiene sin ambages, que la mente no existe. Algunos autores afirmarán que la mente es un pseudoconcepto, como antes lo fueron el flogisto, el calórico o el éter. Cuando la ciencia avanzó, fue desechándolos. Así, cuando las neurociencias progresen, toda la conducta humana podrá explicarse en su totalidad sin tener que hablar, en absoluto, de la mente.

De primeras, ya digo, todo parece muy exagerado, muy forzado. Sin embargo, cuando lees que pensadores del calibre de Rudolf Carnap, Gilbert Ryle, Dan Dennett, o incluso el mismísimo Ludwig Wittgenstein, lo han defendido, la idea no puede ser tan mala. Bien, vamos a ver qué virtudes puede tener:

  1. Eliminar una idea de mente mitológica y pseudocientífica. Parece muy saludable extirpar de la práctica científica conceptos como «alma», «espíritu» o cualquier otra entidad «inmaterial, eterna e inmortal» que la tradición metafísica occidental ha usado continuamente.
  2. Prescindir de cualquier tipo de dualismo y de sus problemas. El conductismo ontológico es monista: solo existe la conducta observable, por lo que no hay que intentar explicar las, siempre controvertidas, relaciones entre mente y cuerpo. Así, para el conductista no hay ningún abismo ontológico entre la mente y el mundo (pues solo hay mundo), ni tampoco existe el escepticismo hacia las otras mentes (está en el mismo plano decir «Yo me siento triste» que «Él se siente triste»: ambas son conductas externas observables). El conductismo es radicalmente anticartesiano y al serlo se quita de todas sus dificultades.
  3. Se permite a la psicología ser independiente de las neurociencias. La conducta, y no el cerebro, es su objeto de estudio exclusivo. Así, la psicología puede ser una ciencia por derecho propio.

De acuerdo, ¿pero cómo soluciona el conductismo algo tan evidente como la causalidad mental? Si yo creo que va a llover y, en consecuencia, salgo a la calle con un paraguas, lo único que un conductista puede observar es mi salida a la calle con el paraguas ¿Cómo puede explicar el que yo cogiera el paraguas si no es apelando a mi creencia en que va a llover, algo que no es una conducta sino un pensamiento, algo tradicionalmente mental? Gilbert Ryle nos ofrece una solución: las creencias, deseos, etc. (lo que los filósofos llamamos actitudes proposicionales), son tan solo disposiciones conductuales, es decir, propensiones a realizar o no realizar una conducta. Por ejemplo, mi creencia en que va a llover queda definida como la disposición a realizar la conducta de coger un paraguas. Es una jugada maestra: todo lo que antes se consideraría como un contenido mental, pasa a ser definido exclusivamente en términos de conducta y, así, el conductismo sale airoso de lo que parecía ser su principal problema. Además, por si acaso nos encontráramos con la dificultad de explicar la variedad de conductas humanas que se dan ante la misma creencia (por ejemplo, mi creencia en que va a llover podría haber causado que yo cogiera un chubasquero en vez de un paraguas), Ryle nos habla de disposiciones conductuales de múltiples vías: una misma disposición puede manifestarse en diferentes conductas.

El segundo Wittgenstein hacía hincapié en el aspecto normativo de la disposición.  Mi creencia en que va a llover estipula qué conductas serían correctas o incorrectas. Si en vez de sacar un paraguas, salgo a la calle con una trompeta, evidentemente, habré ejecutado una conducta errónea. Muy interesantes son, al respecto, las consecuencias para la teoría de la verdad: que algo sea verdadero o falso no tiene nada que ver con ninguna adecuación de mis representaciones mentales a la realidad, ya que no existe ningún tipo de representación mental sensu stricto, sino en un ajuste entre mi conducta y la conducta correcta.  El debate, claro está, estará en determinar de dónde surge y quién determina qué es y qué no es correcto.

Bien, la propuesta es ingeniosa y tiene virtudes pero, sin embargo, sigue siendo terriblemente contraintuitiva ¿De verdad que no existe nada que podamos considerar mental? ¿De verdad que puede reducirse todo contenido mental, únicamente, a conducta? ¿De verdad que no tenemos mente? Hillary Putnam nos ofrece un sencillo experimento mental pare evidenciar lo difícil que se nos hace eliminar nuestra mente interior. Imaginemos un grupo de antiguos guerreros espartanos. Durante mucho tiempo se han entrenado en la habilidad de resistir el dolor sin realizar acción alguna más que la consecuente conducta verbal consistente en informar a los demás de que se siente dolor. Así, esos superespartanos, pueden ser gravemente heridos en combate pero no mostrarán más conducta de dolor que mover sus labios y decir «Me duele». Hasta aquí no hay ningún problema con el conductismo. El dolor seguiría siendo una disposición conductual a proferir una determinada conducta verbal. Putnam nos dice entonces que imaginemos a los super-superespartanos, una élite dentro de los superespartanos que, tras durísimos entrenamientos, habrían conseguido incluso eliminar cualquier necesidad de proferir palabra alguna para referirse al dolor. Los super-superespartanos serían tan duros que, a pesar de que les sacarán una muela sin anestesia, no mostrarían el más mínimo indicio externo de dolor. Y aquí sí que hay problemas para el conductismo: si no hay ni conducta externa observable ni propensión conductual alguna, no hay nada; sin embargo, nos parece evidente que los super-superespartanos sentirían dolor igual que cualquier otro ser humano. Ergo, la mente no es reductible a conducta.

El conductismo se parece a un zapatero que quiere meter un pie muy grande (la mente) en un zapato muy pequeño (la conducta), e intenta mil y un peripecias para que encaje pero nunca lo consigue. El conductismo es un nuevo ejemplo de la expresión intentar meter con calzador.

Ilustración de Emmanuel MacConnell.

Cuando Descartes abre la Edad Moderna con su cogito ergo sum, nos viene a decir que el único punto indestructible, el único cimiento lo suficientemente sólido para construir el gran edificio del saber es el «Yo», entendido como la totalidad del mundo psíquico de una persona. Todo lo que pienso puede ser falso, pero el hecho de que pienso es indudable, una verdad claradistinta.

Esta idea se ha tendido a interpretar, demasiadas veces, como que, aunque no tengamos certeza ni siquiera de la existencia de los objetos percibidos, sí que la tenemos con respecto de sus cualidades subjetivas, es decir, de lo que «aparece en mi mente» cuando yo percibo el objeto. Es posible que la manzana que percibo como roja no sea realmente roja, pero «la rojez» que yo percibo es absolutamente real y nadie podría negarme que, al menos en mi representación mental, la manzana es indudablemente roja. Sería posible que en el universo no hubiera nada rojo, pero yo estoy completamente seguro de que «en algún lugar de mi mente» yo estoy viendo algo rojo. En consecuencia, los informes introspectivos que un sujeto hace sobre sus representaciones mentales, sobre su mundo subjetivo, solían considerarse como infalibles. Nada más lejos de la realidad o, como mínimo, tendría que decirse que los informes introspectivos son tan dudosos como los informes del mundo exterior. No hay ninguna razón para darles esa primacía epistemológica. Hagamos un pequeño experimento.

El ángulo de nuestro foco de atención visual es muy pequeño. Fije el lector la vista en la letra X del centro de la tabla. Ahora intente identificar las letras que hay alrededor sin mover los ojos. Lo normal será que no pueda pasar de las ocho letras inmediatamente circundantes a la X. El resto de la tabla queda completamente borrosa.

Ahora apliquemos este pequeño descubrimiento a la percepción de una imagen real. Cuando observamos, por ejemplo, las Meninas de Velázquez, creemos que vemos algo así:

Cuando, verdaderamente, si nuestra atención se centra en la infanta Margarita, lo que vemos se parece más a esto:

Nuestro campo visual es mucho más borroso y desenfocado de lo que creemos experimentar y, por tanto, la cualidad de «claridad», «enfoque», «límite preciso» que parece tener nuestra experiencia visual, es tan solo una ilusión. Ergo, no podemos fiarnos, al menos siempre, de la veracidad de nuestras propias representaciones. Aunque parezca muy extraño, es posible no percatarse de lo que uno cree que se está percatando.

Pero podemos indagar un poco más. No solo ocurre que no puedo estar seguro de que veo lo que veo, sino que el informe lingüístico que hago cuando hablo de ello tiene serias limitaciones. Es lo que los filósofos de la mente llaman la inefabilidad de los qualia. Fíjese el lector en la siguiente escala de azules. En general, podemos distinguir bien unos tonos de otros.

Sin embargo, si queremos explicar a otra persona la diferencia entre unos colores u otros, pronto nos encontramos con que nuestro lenguaje es paupérrimo para esta tarea. Solamente se nos ocurre decir que unos colores son levemente más claros que otros o, en el caso de este ejemplo, podríamos referirnos a otros colores, diciendo que tal o cual azul tiene un toque más verdoso o más violeta. Ya está, no hay más palabras ¿Es nuestra ignorancia a nivel pictórico la causante de esta pobreza léxica? No, un profesional del color tampoco tiene muchas más expresiones que nosotros. Y es que la única forma de saber qué es un color (a nivel fenomenológico) es percibirlo directamente, porque sus propiedades son inefables. El ejemplo que siempre se utiliza por su calidad ilustrativa es que no podemos enseñarle a un ciego de nacimiento qué es el color azul. Imagine el lector cómo podríamos explicarle las diferencias entre los distintos tonos de azul ¡Imposible!

Una de las razones de ello es que las diferentes modalidades sensoriales (vista, olfato, tacto, etc.) son absolutamente irreductibles las unas a las otras. A no ser que seamos sinestésicos, no podemos explicar una experiencia sonora en términos de colores, sabores u olores. Solo podemos hablar de cada modalidad sensorial apelando a elementos dentro de la propia modalidad: puedo hablarle a alguien de un grupo de música que me gusta, refiriendo a la música de otros grupos musicales parecidos, pero no de otra manera.

Según un, ya clásico, estudio de Hasley y Chapanis de 1951, los humanos somos capaces de discriminar  unos 150 tonos de color subjetivamente diferenciados entre los 430 y los 650 nanómetros. Sin embargo, si se nos pide identificarlos con precisión, solo somos capaces de hacerlo con unos 15 tonos. Por ejemplo, si miramos la escala de azules somos perfectamente capaces de distinguir unos tonos de otros. Pero si se nos pidiera que seleccionáramos un color (por ejemplo el PMS 293) y después se nos mostrara otra escala con muchos otros tonos de color azul desordenados con ese color entre ellos, nos resultaría difícil encontrarlo. De la misma manera pasa con el sonido: un oyente promedio es capaz de discriminar unas 1.400 variaciones de tono, pero solo puede reconocer de forma aislada unas 80. Somos muchísimo mejores diferenciando colores o tonos musicales que reconociéndolos. En la percepción hay mucho de lo que no sabemos, o no podemos, hablar.

El problema de la inefabilidad supone un gran desafío a la ciencia. Si solo tenemos acceso a nuestros estados subjetivos mediante la introspección, y si tanto ésta puede ser engañosa (El filósofo Daniel Dennett compara la consciencia con un hábil ilusionista), como nuestro lenguaje incapaz de hablar de ella, tendremos serios problemas para generar conocimiento de algo que, curiosamente, es lo más cercano e inmediato que tenemos.