Posts etiquetados ‘Teoría de la Identidad’

He leído un montón variado de publicaciones y artículos en la red a los que no citaré para no darles publicidad, que hablan de que la mente no está en el cerebro, acusando a los que afirman lo contrario de cerebrocentristas o neurocentristas. El debate filosófico mente-cuerpo lleva siglos sin resolverse, pero parece que los últimos avances en la neurociencia dan clara ventaja a cerebrocentristas como yo. Voy a dar un listado de argumentos, muy viejos y manidos la mayoría de ellos, tanto a favor de que la mente está en el cerebro como de que la mente no sobrevive al cuerpo tras la muerte del cerebro.

Vamos al meollo:

  1. Si la mente no está en el cerebro, ¿dónde está? Se puede replicar, de forma cartesiana, que si la mente es, por definición, inextensa, no está en ningún lugar, siendo preguntarse por su ubicación lo que Ryle llamaría un error categorial . Sí, pero entonces tenemos que encontrar un punto de contacto en donde esa «inextensión» tome contacto con el mundo físico, ya que cuando yo decido mover un brazo, las fibras musculares obedecen mi mente. Descartes se sacó de la chistera la glándula pineal, y a día de hoy no existe nada en el cerebro que podamos entender con esa función ¿Cómo debería ser esa «wifi para lo inextenso»? ¿Estaría dentro de las leyes de la física clásica o habría que apelar a la cuántica?
  2. Si la mente no está en cerebro tenemos que explicar por qué cuando dañamos ciertas áreas del cerebro, la función mental queda dañada también. Si un paciente tiene un accidente cerebrovascular que le destruye el hipocampo, su memoria a corto plazo quedará igualmente destruida. Esta correlación se constituye como una evidencia muy fuerte a favor de la identidad entre cada función mental y su parte correspondiente.
  3. Si la mente no está en el cerebro, ¿para qué vale el cerebro? Seria muy curioso tener el órgano que más tasa metabólica consume del cuerpo (un 25% del gasto total con solo un 2% del peso) estuviera aquí de adorno o, en el mejor de los casos, que valiera para otras cosas que todos los investigadores del mundo hubieran pasado por alto.
  4. Podría objetarse que si bien la mente tiene que ver con el cerebro, el cerebro solo es un «interruptor», «disparador» o simple «receptor» de las funciones mentales, es decir, si bien el hipocampo «activa» la memoria a corto plazo, dicha memoria no se reduce al hipocampo. Dicho de otro modo: para funcionar, la mente debe estar encarnada, pero la mente no se reduce a su encarnación. Bien, pero entonces, por qué no aplicamos el mismo razonamiento a otro tipo de objetos. Por ejemplo, mi tostador enciende sus resistencias y tuesta el pan. Cuando una resistencia se quema, deja de funcionar ¿no podríamos argumentar que la resistencia solo ha perdido su parte corpórea pero que no se reduce a ella y que, de alguna manera, existe sin residir en el tostador? Obviamente, este argumento nos parece absurdo ¿Por qué entonces no nos lo parece al aplicarlo a las funciones mentales? ¿Por qué a la mente le damos un tratamiento epistemológico especial que nos parecería absurdo dar a cualquier otro objeto?
  5. Vamos a verlo aún más claro diciéndolo de otro modo: ¿Qué razones hay para sostener que estados mentales como mis recuerdos, emociones, consciencia, etc. vayan a seguir funcionando después de la muerte de mi cerebro? ¿Qué tienen de tan especial para que puedan seguir funcionando sin objeto material? Sería lo mismo que decir que el motor de mi viejo Seat Málaga, al que lleve al desguace después de 25 años de fiel servicio, sigue funcionando «en otro lugar»… ¿Por qué sostener eso de un coche es una locura pero hacerlo de la mente humana es una creencia respetable?
  6. Si la más pura y dura evidencia observacional nos dice que las funciones mentales dejan de funcionar con la muerte cerebral y, por mucho que la gente crea en fantasmas, no tenemos la más mínima prueba de que tales funciones mentales sigan funcionando post mortem ¿por qué sostener que siguen haciéndolo?
  7. Podría objetarse que no conocemos bien el funcionamiento del cerebro para asegurar con certeza que todas nuestras funciones mentales están allí. Estoy de acuerdo en que conocemos muy poco del cerebro, mucho menos de lo que suele creerse, pero la carga de la prueba reside en quien afirma. Cuando lo habitual es que un objeto pierda su función cuando es destruido, si alguien afirma que conoce una función que no se reduce a su objeto, debería demostrarlo y no pedir a los demás que demuestren lo contrario. Si sostenemos afirmaciones tan arriesgadas como que la mente es independiente y sobrevive al cuerpo en base a que no sabemos como funciona el cerebro estamos cayendo en la más pura y dura falacia ad ignorantiam.
  8. Otra objeción: es que la mente no es un objeto como una piedra o, en este caso, un cerebro. La mente es un conjunto de procesos y/o funciones que no pueden confundirse con el objeto donde se realizan. Así, los mismo procesos mentales que hoy funcionan en el cerebro, mañana podría funcionar en otra entidad material como podría ser el hardware de un computador. De acuerdo, pero que la mente pueda implementarse en otro entorno material diferente al cerebro (cosa, por cierto, nada evidente, pero vale, lo aceptamos por mor de la argumentación), no quiere decir que no ocurra en ningún lugar o que la mente pueda ser independiente de lo material. Pensemos, por ejemplo, en la digestión. No es un objeto, es un proceso que incluye multitud de subprocesos… ¿Alguien diría que la digestión no ocurre en el aparato digestivo, en el estómago y en los intestinos? O pensemos en la velocidad a la que va un automóvil. La velocidad no es un objeto, es el resultado de una gran cantidad de sucesos que ocurren, fundamentalmente, en el motor del coche… ¿Alguien diría que si yo voy por la autovía a 120 km/h no es en mi coche en donde se da esa velocidad? ¿Alguien diría, de verdad, que la velocidad no existe en el mundo físico sino en otra realidad? Reitero: que una función pueda darse en diferentes sustratos materiales no quiere decir que pueda existir con independencia de éstos. Windows es un software que funciona en innumerables hardwares diferentes ¿Existe Windows-en-sí, en el platónico mundo de las ideas?
  9. Nueva objeción: ¿En qué se parece la imagen mental que aparece en mi mente cuando pienso en mi abuela a lo que sabemos del funcionamiento del cerebro? La imagen de mi abuela y los sentimientos a ella asociados no se parecen en nada a descargas eléctricas en axones y a vesículas sinápticas soltando neurotransmisores… ¿Qué justificación tiene entonces decir que mis estados mentales equivalen a mi cerebro? A mi juicio, esta es la mejor objeción. Y la respuesta es que, a día de hoy, dado lo que sabemos del cerebro, es cierto que no se justifica la equivalencia. Mis estados mentales no son, para nada, equivalentes a lo que hoy sabemos de nuestros estados neuronales. Sin embargo, esto tampoco justifica dar el salto al dualismo, esencialmente, porque el dualismo presenta todavía muchos más problemas que seguir en el monismo materialista (todos los que estamos diciendo aquí). Lo lógico es, dadas las conexiones que sí conocemos entre estados neuronales y estados mentales, aceptar que todavía desconocemos mucho del funcionamiento del cerebro, pero que albergamos una muy razonable esperanza en que descubrimientos futuros vayan arrojando más luz hasta que se consiga identificar el mecanismo del que quepa justificar una equivalencia con los estados mentales. A esta idea la llamo la Teoría de la Identidad pero Todavía No.
  10. La Teoría de la Identidad pero Todavía No nos dice que existe un mecanismo causal que va desde que mis vesículas sinápticas liberan grande cantidades de serotonina hasta que yo tengo el quale de sentirme bien, pero que es totalmente desconocido a día de hoy, y no se identifica con ningún proceso neuronal de los conocidos en el estado del arte actual sobre el cerebro.

Acepto de muy buena gana contraargumentos. Change my mind.

tumblr_lk5734QN8T1qbpwkro1_1280

Cuando decimos que el cerebro causa la mente estamos diciendo que hay una serie de estados físicos que generan estados mentales. Al hacerlo, quizá sin darnos cuenta, estamos cayendo en cierto dualismo. No estamos afirmando que los estados físicos son una misma cosa que los estados mentales, sino que los primeros generan algo diferente a ellos: los estados mentales. Quizá pretendiendo defender una tesis aparentemente materialista estamos afirmando precisamente lo contrario, que la mente no es algo físico.

No obstante, la objeción puede intentar salvarse. Podemos decir que los estados mentales causados por estados físicos también son estados físicos. Podemos sostener que, por ejemplo, la actividad neuronal x, genera un estado mental y, siendo tanto x como y fenómenos físicos. El problema estaría ahora en determinar qué tipo de fenómenos físicos son los estados mentales. Y, en mi opinión, esta es el hard problem dentro del hard problem. En las observaciones mediante las, cada vez más sutiles, técnicas de escaneo cerebral, lo que observamos es única y exclusivamente actividad neuronal. Y lo que sabemos, a día de hoy, del funcionamiento del cerebro, es que es una complejísima red de comunicaciones. No hay ni rastro de qué son esos fenómenos mentales generados por la actividad neuronal. Podemos seguir dando soluciones:

1. Podemos recurrir a la teoría de la identidad: los estados neuronales son lo mismo que los estados mentales. Pero aquí está el problema que no me canso en denunciar una y otra vez: un estado mental no puede ser un potencial de acción eléctrico que se desplaza de una neurona a otra.  La electricidad es un flujo de electrones que se mueve a gran velocidad. Eso no es una emoción, pensamiento, recuerdo, etc.  Podría objetarse que la mente no es solo la actividad de una neurona, sino la actividad conjunta de muchas de ellas. Modelos informáticos de redes neuronales son capaces de memorizar, aprender y resolver ciertos problemas complejos. De acuerdo, una red neuronal así entendida es capaz de acciones inteligentes al igual que una computadora normal y corriente, pero no de tener estados mentales. Las máquinas no sienten ni tienen consciencia de nada. Vale, pero se puede volver a la carga: por ejemplo, los antidepresivos muestran con claridad que inhibiendo la recaptación de serotonina en las hendiduras sinápticas de ciertos circuitos cerebrales, cambiamos el estado emocional del sujeto. Hay miles de ejemplos de como el uso de ciertas sustancias químicas alteran nuestras emociones, e incluso nuestra consciencia. Sí, pero, ¿sabemos cómo diablos la serotonina causa que me sienta bien? Solo sabemos que su presencia mejora nuestro estado de ánimo, pero no tenemos ni idea de cómo.  No sabemos cuál es el proceso mediante el cual una molécula consigue una sensación o sentimiento. «Sentirse bien» no es idéntico a «hay muchas moléculas de serotonina flotando entre tus sinapsis» por mucho que exista una fuerte relación.

2. Siguiendo en la teoría de la identidad: deben existir otros estados físicos x, que no son idénticos a lo que hoy sabemos de los estados neuronales, pero que son realmente los estados mentales. Esto es lo que yo pienso. Albergo la creencia de que lo que sabemos del cerebro es solo la punta de un enorme iceberg. La actividad neuronal tiene mucho que ver con nuestra mente, pero la mente no es únicamente eso. Quizá hagan falta nuevas técnicas de observación o incluso, vete a saber, nuevas ramas de la bioquímica o de la misma física. El tema es que lo único que podemos hacer es seguir investigando.

Pero aquí viene el hard problem dentro del hard problem: ¿Y si no hubiera más? ¿Y si seguimos escaneando y escaneando el cerebro y seguimos únicamente encontrando actividad neuronal, esencialmente, tal y como la conocemos ahora? ¿Y si el cerebro no es más que 86.000 millones de neuronas interconectadas entre sí, lanzándose mensajes electro-químicos? Entonces, necesariamente, tendríamos que plantear algún tipo de dualismo que se saldría de los cauces de la ciencia empírica. Muy mal asunto.

El funcionalismo es la postura filosófica de la actual psicología cognitiva. Por ende, también lo es de la mayoría de los ingenieros en Inteligencia Artificial. Es, por tanto, una postura compartida por gran parte de la comunidad científica dedicada al tema de la mente, el stablishment contemporáneo (donde más disidencias hay es entre los neurólogos y, como no podría ser de otra manera, entre los filósofos). Vamos a elaborar un pequeño análisis crítico viendo sus ventajas pero, sobre todo, los inconvenientes que hacen de esta posición algo inviable y subrayando como conclusión la disyuntiva entre abandonarla por completo o reparar algunas de sus partes.

Todo surge con el problema epistemológico de la mente. Si la psicología pretendía ser una disciplina científica, tenía que hacer de la mente un objeto de estudio claro y preciso, algo cuantificable, observable empíricamente. Como no podía, decidió hacer como si la mente no existiera. Eso es el conductismo: entender la psicología como la ciencia de la conducta (algo que sí puede observarse), por lo que intentó explicarlo todo mediante el binomio estímulo-respuesta (sin nada entre ellos). El fracaso fue rotundo, por lo que surgieron alternativas: una es la teoría de la identidad en sus distintas vertientes. Los defensores de la identidad sostienen que los estados mentales son idénticos a procesos neuronales. Un estado mental es exactamente lo mismo que una red neuronal concreta en funcionamiento. La virtud de esta perspectiva es que es perfectamente monista y materialista y casa a la perfección con los avances de las neurociencias. Además, su negación, parece absurda: ¿qué si no van a ser los pensamientos que sucesos neuroquímicos? Sin embargo, tiene dos problemas bastante graves:

1. Que sepamos, no hay nada en las reacciones físico-químicas de una red neuronal que pueda explicar, ni remotamente, un pensamiento o  una sensación. Las descargas eléctricas de los potenciales de acción que recorren los axones de las neuronas o las reacciones químicas que se dan en las sinapsis no son estados mentales.

2. Ponemos en problemas a los ingenieros de IA. Si un estado mental es idéntico a un estado neuronal, no es idéntico al proceso computacional que se da en un ordenador. Únicamente los seres con un sistema nervioso similar al humano podrían tener estados mentales. Las máquinas no.

HilaryPutnam

Y entonces llegó el funcionalismo, como una reacción al conductismo y como una solución a los problemas de la teoría de la identidad.  La clave está en definir los estados mentales como estados funcionales. ¿Qué quiere decir esto? Que un estado mental es siempre algo que causa un efecto o que es efecto de una causa, y se define exclusivamente por su función. Por ejemplo, un dolor de muelas es un estado mental porque es la causa de que yo me tome un analgésico. Uno de los fundadores del funcionalismo (si bien luego se retractó y se volvió muy crítico con su criatura) fue Hilary Putnam, quien entendió lo que era un estado mental a través de la tablatura de programa de una máquina de Turing. Este tipo de máquina, además de una definición de computabilidad, es un ordenador primitivo, una máquina capaz de hacer cálculos. Putnam afirmaba que las diversas órdenes que el programa da a la máquina son estados mentales (ya que tienen poderes causales). Esta concepción podría parecernos extraña a priori, pero soluciona un montón de problemas:

1. Para el funcionalismo, la relación entre estados físicos y mentales no es de equivalencia sino de superveniencia. Dos entes físicamente idénticos tienen los mismos poderes causales (realizan las mismas funciones), pero una misma función puede ser realizada por diferentes entes físicos. Dicho de otro modo: misma materia implica misma función pero misma función no implica misma materia. El funcionalismo con su superveniencia parece una gran idea: incluye la mente olvidada por el conductismo, salva la objeción de la teoría de la identidad hacia la Inteligencia Artificial, a la vez que no se lleva mal con la misma teoría de la identidad. Veamos eso más despacio:

a) El conductismo tenía un embarazoso problema con lo que llamamos estados intencionales o actitudes proposicionales (por ejemplo, las creencias o los deseos). Como prescindía de todo lo que no fuera conductual, no podía explicar el poder causal de una creencia. Por ejemplo, si yo creo que va a llover y por eso me pongo un chubasquero, una creencia causa mi conducta. Para el conductismo, como una conducta (respuesta) solo podía ser causada por otra conducta (estímulo) las creencias no podían causar nada, así que los conductistas no podían dar cuenta de algo tan sencillo y habitual como ponerse un chubasquero porque va a llover. El funcionalismo no tiene problemas con las creencias: una creencia es causa de un efecto, por lo tanto, es un estado mental.

b) El funcionalismo permite que los ingenieros de IA construyan máquinas con estados mentales. Siguiendo a Putnam, la orden que da un programa a un computador es un estado mental que puede ser idéntico al de un humano si cumple la misma función, a pesar de que el sistema físico que los genera es diferente (uno de silicio y otro de carbono). Es la gran virtud de la relación de superveniencia.

c) El funcionalismo permite cierta independencia a la psicología sobre la neurología. Como lo explica todo en términos funcionales, permite que no tengamos que hablar siempre en términos neuroquímicos. Por ejemplo, para explicar que la creencia de que llueva ha causado que me ponga un chubasquero, no es preciso que hable en términos de axones y dendritas. Puedo decir que la creencia causa mi conducta con funciones claramente adaptativas: si me mojo puedo ponerme enfermo y morir. Predecir el clima tiene una clara función adaptativa. Así, el funcionalismo se lleva fantásticamente bien con la psicología evolucionista, ya que ésta, igualmente, explica la mente en términos adaptativos, es decir, de funcionalidad biológica. Los funcionalistas permiten que la psicología pueda hablar en un lenguaje que no se reduce al fisicalista, lo cual es fantástico para los psicólogos, ya que no tienen que estar constantemente mirando por el microscopio y hablando de neuronas.

d) El funcionalismo es perfectamente compatible con la neurología. No tiene problema alguno en admitir que un estado mental es idéntico a un estado neuronal, sencillamente, puede hablar de él sin que la ciencia haya descubierto aún tal identidad. Podemos decir que la creencia en que va a llover causa que yo me ponga un chubasquero, aceptando que la creencia en que va llover es idéntica a un estado neuronal concreto y reconociendo que aún la neurología no ha descubierto tal estado neuronal. Incluso si la neurología descubriera cada correlato neural de todos nuestros estados mentales, el funcionalismo podría seguir hablando en términos funcionales sin contradicción alguna. Simplemente diría que mi creencia es un estado neuronal x que, igualmente, causa que yo me ponga mi chubasquero, lo cual tiene una función claramente adaptativa.

e) Incluso el funcionalismo no tiene ningún compromiso ontológico con el monismo materialista. Podríamos ser funcionalistas y dualistas. Un estado mental podría no ser algo material y tener, igualmente, poderes causales sobre mi conducta. Algunos dualistas que, por ejemplo, para explicar la mente se basan en la distinción informática entre hardware (base física) y software (programas), sosteniendo que mientras el hardware es material, el software no lo es, pueden ser perfectamente funcionalistas. Por el contrario, si un funcionalista quiere ser materialista, solo tiene que añadir otra condición a la tesis de que los estados mentales son funcionales, a saber, que toda relación causal es material, que una causa y un efecto siempre son dos entes materiales. ¡El funcionalismo vale para todos los gustos!

Comprobamos que el funcionalismo es una gran teoría debido a sus grandes ventajas. De aquí su éxito en la actualidad. Sin embargo, tiene dos serios problemas, a los que a día de hoy, nadie ha encontrado una solución satisfactoria:

1. El problema de la conciencia fenomenológica o de los qualia. El funcionalismo no puede explicar de ninguna manera el hecho de que tengamos sensaciones conscientes (sentience). Cuando me duelen las muelas y, debido a ello, me tomo un analgésico, siento conscientemente el dolor de muelas. Una computadora no siente ningún dolor cuando algo falla en su sistema, aunque lo detecte y tome medidas para repararlo. Una computadora, a pesar de que pudiese tener una conducta muy similar a la humana, no siente que hace lo que hace, no desea hacerlo, no se enfada ni se pone nerviosa cuando se equivoca… ¡Una máquina no es consciente de absolutamente nada! No poder dar cuenta de la distinción entre estados conscientes e inconscientes es un gravísimo problema del funcionalismo: ¿por que la selección natural ha gastado tantos recursos en hacer que sintamos cuando podría haber conseguido lo mismo generando organismos totalmente inconscientes? Es la objeción de los zombis de Chalmers ante la que el funcionalismo calla.

2. El problema semántico expuesto por John Searle.  Estamos ante el archiconocidísimo argumento de la caja china que no voy a entrar a explicar. La idea tiene como trasfondo el concepto de intencionalidad de Franz Brentano: los estados mentales tienen la cualidad de siempre referirse a algo que no son ellos mismos. Su contenido siempre es otra cosa diferente a ellos, siempre apuntan a otra cosa. En este sentido, los estados mentales son simbólicos. Si analizamos el funcionamiento de un ordenador, la máquina trata todo con lo que trabaja como objetos físicos y no como símbolos. Un computador que traduce del español al chino, no entiende realmente ninguno de los dos idiomas. Trata las palabras como objetos físicos que intercambia siguiendo unas pautas sin entender nada de lo que está haciendo. La conclusión de Searle es que las máquinas no tienen semántica sino tan solo sintaxis. Es un argumento bastante fuerte y aunque se han hecho muchos intentos de refutarlo, ninguno lo ha conseguido del todo.

FranzBrentano

No he conocido ninguna teoría que, ya desde su comienzo, no haya tenido serios problemas. El funcionalismo no es diferente, pero debe resultarnos chocante que el sustrato filosófico que hay debajo de la psicología actual más comúnmente aceptada por la comunidad científica sea deficiente. A mí no deja de resultarme difícil de digerir como conocidos científicos cometen errores garrafales por no tener ni idea de lo que están hablando cuando hablan de la mente. Entre otros, me refiero al popular Ray Kurzweil, el cual ignora completamente la filosofía de la mente a la vez que habla constantemente de temas por ella tratados (y además, tiene el atrevimiento de decir que muy pronto vamos a construir una mente indistinguible de la humana). Nos quedan dos alternativas: o lo abandonamos completamente y pensamos algo radicalmente nuevo (o volvemos a otras posturas más viejas), o intentamos arreglar los desperfectos. Hay algunos intentos: por un lado está el interesante materialismo anómalo de Donald Davidson o, el mismo David Chalmers de los zombis, quien intenta una especie de compatibilismo entre los qualia y el funcionalismo. Hablaremos de ellos otro día.

Argumenta Pascual F. Martínez-Freire en La nueva filosofía de la mente:

Por otra parte, la propia conclusión de Lewis, es decir, la identidad entre procesos mentales y procesos neurológicos se enfrenta desde el desarrollo de las ciencias cognitivas (y en especial de la inteligencia artificial) al argumento que denominaré argumento antimaterialista de las máquinas y que discurre del modo siguiente. […] existe evidencia empírica de que algunas máquinas tienen procesos mentales. La ciencia de la inteligencia artificial y su tecnología correspondiente han desarrollado máquinas «inteligentes» que ejecutan procesos que en los seres humanos calificaríamos de de procesos mentales; no solo hacen complicados cálculos artiméticos y pruebas de teoremas lógicos y matemáticos, sino que también juegan a las damas y al ajedrez e incluso realizan diagnósticos médicos. Y, sin embargo, en estas máquinas no existen procesos neurológicos, por la sencilla razón de que no están constituidas de neuronas o células nerviosas. Siendo así, la identidad entre procesos mentales y procesos neurológicos queda refutada, puesto que se dan procesos mentales enteramente ajenos a los procesos neurológicos. En este punto es interesante poner de relieve que el desarrollo de las máquinas, tarea alentada por el materialismo mecanicista, se vuelve contra el materialismo en su tentativa de reducir la mente a los mecanismos físico químicos del sistema nervioso central.

¿Por qué este argumento es falaz y no sirve para defender ningún tipo de dualismo?

Martínez-Freire supone que existe evidencia empírica de que las máquinas tienen procesos mentales cuando, en realidad, no existe evidencia alguna. De lo único que tenemos evidencia es de máquinas que llegan a los mismos resultados que nosotros cuando realizados procesos mentales. Una máquina de juega al ajedrez mueve las piezas siguiendo una estrategia determinada tal y cómo lo haría un humano. Sin embargo en esa máquina no hay deseo alguno de ganar la partida, no hay nerviosismo ni competitividad, no hay representaciones mentales en los que la máquina «visualiza» el tablero como si viera una fotografía… ¡La máquina no tiene qualia! Ni siquiera la lógica de juego de la máquina (calcular millones de jugadas por segundo siguiendo un inmenso archivo de partidas) es similar a la del humano. Reitero: en el quehacer total de la máquina queriendo emular el pensamiento humano solo podemos decir con seguridad que existe una parte similar a la humana: el resultado, siendo todo lo demás distinto (o no probado que sea similar).

Entonces, en el estado actual de la Inteligencia Artificial solo estamos en condiciones de afirmar que existen estados mentales en seres que tienen sistema nervioso central, por lo que el argumento de la identidad entre procesos mentales y procesos neuronales no queda dañado.

Otro argumento en contra de la reducción de lo mental a lo físico:

Sin embargo, esta reducción no parece posible. […] aunque fuese posible deducir los fenómenos psicológicos a partir de los fenómenos neurológicos, no será posible explicar los fenómenos psicológicos neurológicamente. La razón básica es que el lenguaje mentalista (con términos como deseo, creencia, emoción, sentimiento, percepción, sensación, recuerdo, inferencia o introspección) no es reducible al lenguaje neurológico (con términos como neurona, sinapsis, neurotransmisor, fibras aferentes o fibras deferentes).

Efectivamente, uno de los grandes errores de la teoría de la identidad es afirmar que, por ejemplo, resolver mentalmente una suma es exactamente lo mismo que una serie de disparos neuronales o un conjunto de interacciones químicas en las sinapsis, cuando, a todas luces, es imposible que sean lo mismo. En primer lugar porque yo no experimento mi pensamiento introspectivamente como descargas eléctricas ni como reacciones químicas y, en segundo lugar, porque las descargas eléctricas y las interacciones químicas que conocemos en el cerebro no producen pensamientos. Así es, que una neurona lance un pulso eléctrico que produce que una vesícula presináptica libere serotonina o vasopresina, no produce ningún tipo de pensamiento. No se puede establecer ningún tipo de conexión causal honesta entre lo que sabemos del funcionamiento del cerebro y un estado mental. ¿Esto significa entonces volver al dualismo, a reconocer la incapacidad de la ciencia para hablar de la mente o hablar de espíritus y almas divinas? No, significa que a día de hoy, dado lo que sabemos del funcionamiento del cerebro, el lenguaje de las neurociencias no puede explicar la mente humana. No puedo explicar la sensación de contemplar una obra de arte únicamente con las palabras «sinapsis» o «dendrita», al igual que no podría explicar el vuelo de un Boeing 747 en términos de «tuercas» y «tornillos». Falta muchísimo, nada más (y nada menos para los que no tenemos paciencia).

En filosofía de la mente la teoría de la identidad afirma que los estados mentales son una y la misma cosa que los estados físicos del cerebro. Durante mucho tiempo he considerado esta teoría como manifiestamente errónea. Si decimos que dos cosas son una y la misma, ambas tienen que tener exactamente las mismas propiedades y cuando comparamos los estados mentales con los neurales, esta identidad parece no darse en absoluto. Si abro un cerebro con un bisturí no encuentro nada que se parezca a un sentimiento o pensamiento. ¿Que tendrán que ver una serie de intercambios y procesos entre moléculas con mi sentimiento de dolor o alegría? ¿Qué podría tener que ver el chisporrotear de una neurona con mi soledad? Ambas cosas tienen propiedades diferentes: mi soledad no produce electricidad ni parece tener enlaces químicos… ¿Cómo van a ser lo mismo? Muchos filósofos hablan de que dar propiedades físicas a estados mentales es cometer errores categoriales: ¿Es legítimo dar a mi soledad propiedades como tener masa y ocupar un lugar en el espacio? Como veíamos en anteriores entradas, el lenguaje de la física parece muy inadecuado para hablar de la mente y en nuestra vida cotidiana nos apañamos bastante bien sin utilizar un lenguaje fisicalista cuando hablamos de ella.

No obstante, después de leer a Paul Churchland, la teoría ya no me parece tan descabellada. Para defenderla voy a dar dos argumentos, siendo más  fuerte e interesante el segundo:

1. Negar la teoría de la identidad nos lleva a una posición más complicada que si la aceptamos. La cuestión es: ¿Si los estados mentales no son, a fin de cuentas, estados físicos, qué diablos son? Si no aceptamos la identidad debemos postular algún tipo de dualismo sustancial, el cual siempre es problemático. Nos encontramos, al igual que ya le pasó a Descartes, con dos realidades irreconciliables que cuesta mucho casar. ¿Cómo se relaciona lo mental con lo físico? ¿Cómo algo inmaterial e intangible como un pensamiento interacciona con algo físico como mi brazo cuando yo pienso en moverlo? El dualismo es más complicado de mantener que una teoría de la identidad. Aplicando la navaja de Ockham, la identidad es más sencilla: no multiplicamos entes.  

2. Solemos decir que los estados mentales y los físicos tienen un distinto acceso epistémico. Para los estados físicos usamos la observación: vemos las neuronas y experimentamos con ellas, mientras que para los estados mentales no nos queda otra que la introspección en primera persona: me analizo únicamente a mí mismo sintiendo o pensando, no pudiendo hacer lo mismo con otros. Así comprobamos que ambos tipos de estados tienen propiedades distintas y, por eso, nos parece lícito decir que son dos cosas diferentes y hacernos dualistas. Sin embargo, aquí hay un error lógico: que dos cosas tengan un acceso epistémico diferente no implica que sean dos cosas diferentes. Imaginemos una casa que tiene dos entradas. La primera es la puerta principal que sólo da acceso al salón y la segunda es la puerta de atrás que sólo da acceso a la cocina. El dualista entra por una puerta y sólo ve el salón, después entra por la otra y sólo ve la cocina y de ello deduce que ambas habitaciones son de casas distintas.  El problema está en que no sabemos lo suficiente de cómo funcionan los estados físicos del cerebro. Siguiendo con el ejemplo, no sabemos qué puertas conectan el salón con la cocina, pero esto, insistimos, no implica que estemos en dos casas diferentes. Podría ser que sólo contemplamos dos perspectivas de un mismo fenómeno. Nuestra soledad podría tener masa… ¡lo que no sabemos es cuanta!