Posts etiquetados ‘Hard Problem’

He aquí lo que han desarrollado el biólogo Detlev Arendt y sus colegas. Tal como ellos lo ven, el sistema nervioso se originó dos veces; pero no quieren decir que se desarrolló por evolución en dos tipos de animales; en lugar de ello, se originó dos veces en los mismos animales, en lugares diferentes del cuerpo del animal. Imagine el lector un animal parecido a una medusa, con forma de cúpula, con una boca debajo. Un sistema nervioso evoluciona en la parte superior y capta la luz, pero no es un guía para la acción. En cambio, utiliza la luz para controlar ritmos corporales y para regular hormonas. Otro sistema nervioso surge por evolución para controlar el movimiento, inicialmente solo de la boca. Y, en algún estadio, los dos sistemas empiezan a moverse dentro del cuerpo y llegan a establecer nuevas relaciones mutuas. Arendt considera que éste es uno de los acontecimientos cruciales que hizo que los bilaterales avanzaran en el Cámbrico. Una parte del sistema de control del cuerpo se desplazó hacia la parte superior del animal, donde residía el sistema sensible a la luz. De nuevo, este sistema sensible a la luz solo guiaba cambios químicos y ciclos, no el comportamiento. Aun así, la unión de los dos sistemas nerviosos les confirió un nuevo papel.

¡Qué imagen más asombrosa!: en un largo proceso evolutivo, un cerebro que controla el movimiento se desplaza hacia la parte superior de la cabeza para encontrarse allí con algunos órganos sensibles a la luz, que se convierten en ojos.

Peter Godfrey-Smith, Otras mentes

Mi impresión es que un suceso así no ocurrió solamente dos veces, sino muchas más. Si nuestro cerebro es como una especie de caja de herramientas con múltiples y variados módulos funcionales, seguramente que muchos de ellos funcionaron con cierta independencia hasta que se encontraron con los demás y hasta que se se fueron coordinando, cada vez mejor, entre ellos mediante módulos de control superiores. El aumento de la complejidad entre la comunicación celular produciría un aumento de las formas de cooperación modulares. Pensemos que las células, sin ningún tipo de sistema nervioso, son muy capaces de comunicarse entre sí, y de trabajar en equipo, de formas bastante intrincadas. La aparición del sistemas nerviosos solo posibilitó la comunicación a larga distancia (y a una mayor velocidad). El progresivo aumento del tejido nervioso, el aumento del “cableado”, tuvo que interconectar un montón de funciones, en principio, independientes.

Más adelante, en el libro de Godfrey-Smith, se nos cuenta cómo entre los tentáculos de los pulpos y su cabeza existe muy poca conexión nerviosa, de modo que durante mucho tiempo se pensó que los tentáculos, prácticamente, operaban con total independencia de cualquier “control central”. Experimentos posteriores mostraron que no, que el pulpo puede coordinar perfectamente su vista con los movimientos tentaculares a la vez, no obstante, que éstos muestran cierta independencia, ciertos “automatismos” propios. Esto nos muestra el equilibrio central-local que se da en la mente de los octópodos y que, seguramente, se dio a lo largo de la evolución de todos los sistemas nerviosos hasta llegar al nuestro.

Otro tema, tal y como lo plantea Arendt, es más complicado: si ambos lados del animal tienen una mente propia en el sentido de poseer una consciencia fenoménica, aquí tendríamos un problema: ¿qué ocurre cuando dos consciencias se encuentran en un único organismo? Si el organismo sigue manteniendo dos consciencias que, aunque se relacionen (pensemos que podrían compartir ciertas sensaciones)  son diferentes, no parece existir problemas: dos individuos en un organismo. Sin embargo, si planteamos que ambas consciencias se fusionan en una, nos encontramos con una contradicción porque, precisamente, la consciencia se define por ser sentida por un único sujeto, siendo imposible el hecho de que dos consciencias se conviertan en una, puesto que una de las dos debería, necesariamente, desaparecer. De nuevo el hard problem.

Anuncios

Leo este artículo de un tal Michael Graziano. Otra propuesta más de cómo construir una máquina consciente, deshaciendo ese gran “pseudoproblema” que es el hard problem. Nada nuevo bajo el sol y la enésima prueba de que no se comprende bien el tema.

Graziano va introduciendo los elementos que habría que implementar en una máquina para que fuera consciente. Pone el ejemplo de ser consciente de percibir una pelota de tenis. En primer lugar hay que darle a la máquina información acerca de la pelota. Graziano insiste, y ahora veremos por qué tanto, en que la información que tenemos del mundo real es tan solo un esquema, una serie de indicadores que nos sirven para reconocer el objeto pero no para tener una información real y completa de él. Percibir una pelota de tenis no es tener en la mente otra pelota de tenis similar a la percibida, es únicamente tener una serie de datos que nos permitan reconocer y utilizar la pelota. La razón es que sería un grandísimo derroche de recursos tener una copa absolutamente fidedigna del mundo en nuestra mente, cuando lo único que nosotros necesitamos es funcionar eficientemente en él, es decir, adaptarnos a él.  Hasta aquí todo correcto.

Graziano dice que si le preguntásemos a la máquina si es consciente de la pelota de tenis, ésta no sabría cómo responder ya que le falta otra parte importante de la ecuación: información sobre sí misma. Para ser consciente de algo hace falta un sujeto, alguien que sea consciente del objeto. La solución es implementar en la máquina información sobre sí misma. Podemos darle información sobre su cuerpo, la posición de sus piezas, etc. De nuevo, esta información es un nuevo esquema. Nosotros no conocemos la posición de todos y cada uno de los átomos de nuestro cuerpo, ni siquiera sabemos muy bien dónde están ciertos órganos ni mucho menos cómo funcionan. Tenemos un mapa borroso e impreciso de nuestro cuerpo. Bien, se lo implementamos.

Si, de nuevo, le preguntamos a la computadora si es consciente de la pelota, volvería a fallar. Tiene información de la pelota y de sí misma, pero no de la relación entre ambas cosas. Graziano cree que la neurociencia estándar ha descuidado por completo esta relación, y parece pensar que ha descubierto América al hacernos caer en la cuenta de su importancia. Sí, en unos veinticinco siglos de historia de filosofía de la mente, a nadie se le había ocurrido pensar en cómo el hombre se piensa a sí mismo pensando. Probablemente habrá cientos de miles de páginas sobre el tema. Pero vale, no seamos malos y perdonémosle a Graziano estos deslices. Sigamos.

Tercer paso y el más crucial: hay que implementar en la máquina esa relación entre el objeto y el sujeto ¿qué le ponemos?  Graziano piensa que, de nuevo, hay que introducirle un esquema (Además, dado que según él la neurociencia no tiene nada que decirnos, no podríamos hacer otra cosa). Habría que implementarle propiedades generales de lo que significa prestar atención a algo. Por ejemplo, podríamos hacer que definiera atención como “poseer mentalmente algo” o “tener algo en mi espacio interior”. No importa que las definiciones pudiesen ser falsas, incompletas o muy imprecisas. Lo importante es sacarlas de la psicología popular, de cómo las personas nos referimos a prestar atención.

Entonces, y aquí viene lo interesante, si nos ponemos a charlar con la máquina, ésta nos dirá que es consciente de la pelota de tenis. Ella no sabe que funciona mediante microchips de silicio, ni que únicamente procesa información pero, en función de los datos que le hemos implementado, ella diría que no es una máquina y que tiene una propiedad no física que es ser consciente de una pelota de tenis, debido a que sus modelos internos son descripciones borrosas e incompletas de la realidad física.

Y ya está, para Graziano a esto se reduce el hard problem. Tenemos una forma útil aunque, en último término falsa, de referirnos a nuestra relación de atención entre los objetos del mundo y el modelo de nosotros mismos. Y de aquí surge la idea de consciencia, una mera forma de hablar que nos resulta muy práctica pero que, realmente no representa nada real. Graziano culmina el artículo hablando de que concebir la conciencia de otro modo es hablar de cosas mágicas. De nuevo volvemos al viejo funcionalismo que niega la existencia real de los qualia. Y, de nuevo, aunque Graziano seguro que no lo sabe, está repitiendo el antiguo esquema del conductismo lógico tan bien representado por Gilbert Ryle: la mente es un mero error en el uso del lenguaje.

Objeción a lo bruto desde el estado de ánimo que me causa leer este artículo: si yo cojo la pelota de tenis y la estrello en la pantalla de la “computadora consciente” ¿a la máquina le dolerá realmente? Y si cojo de nuevo la pelota y la estrello en la cara de Graziano ¿le dolerá igual que a la máquina o de otra manera diferente?

Objeción razonada una vez que me he calmado: Estoy bastante harto de leer teorías que, de uno u otro modo, niegan la existencia de los qualia y los equiparan con conceptos obsoletos como el de “alma” o “espíritu”, sosteniendo que hablar de ellos es hacer metafísica. No, queridos neurólogos e ingenieros varios, los qualia existen con una realidad aplastante. Cuando siento que me duelen las muelas, me duelen. Otra cosa es que el dolor no represente con precisión ninguna lo que ocurre en mis muelas (mi dolor no se parece en nada a millones de bacterias infectando un diente), que solo sea una especie de símbolo convencional para alertarme de que algo malo pasa en mi boca, pero el dolor existe con total plenitud ontológica.

La máquina de Graziano diría que es consciente pero, en realidad no lo sería. No tendría ningún tipo de sensación consciente, nada de nada. Lo único que hace es deducir una serie de conclusiones a partir de unas premisas erróneas que le hemos implementado a propósito. En el fondo, lo único que hemos hecho es programar a una computadora de la siguiente forma:

Premisa 1: Tu relación con la pelota de tenis es de consciencia.

Pregunta de Grazziano: Ves una pelota ¿eres consciente de ella?

Respuesta: En virtud de la premisa 1, deduzco que sí soy consciente.

La máquina solo ha hecho una deducción lógica, un sencillo modus ponens que el ordenador desde el que escribo esto realiza millones de veces por segundo, sin ser nada consciente de que lo hace. Y es que Graziano hace un juego muy tonto. Aunque no lo diga explícitamente y parezca deducirlo del resultado del experimento mental con la máquina, él parte de la premisa de que la consciencia es una ilusión útil. Entonces crea una máquina a la que le pone por premisa creer que es consciente sin serlo. Después, parece fingir sorpresa (dice que le resulta espeluznante) ante que la máquina diga que es consciente.

Lo repetimos: señores ingenieros de IA, psicólogos congitivos, neuorocientíficos y pensadores de diversa índole, no necesitamos máquinas que finjan, simulen, digan o prometan por el niño Jesús que son conscientes. Los qualia son muy reales y tenemos que construir máquinas que realmente los tengan. Entiendo que, de momento, no tengamos ni idea de cómo hacerlo. Pues sigamos estudiando el sistema nervioso, pero no nos lancemos tan deprisa a decir majaderías.

tumblr_lk5734QN8T1qbpwkro1_1280

Cuando decimos que el cerebro causa la mente estamos diciendo que hay una serie de estados físicos que generan estados mentales. Al hacerlo, quizá sin darnos cuenta, estamos cayendo en cierto dualismo. No estamos afirmando que los estados físicos son una misma cosa que los estados mentales, sino que los primeros generan algo diferente a ellos: los estados mentales. Quizá pretendiendo defender una tesis aparentemente materialista estamos afirmando precisamente lo contrario, que la mente no es algo físico.

No obstante, la objeción puede intentar salvarse. Podemos decir que los estados mentales causados por estados físicos también son estados físicos. Podemos sostener que, por ejemplo, la actividad neuronal x, genera un estado mental y, siendo tanto x como y fenómenos físicos. El problema estaría ahora en determinar qué tipo de fenómenos físicos son los estados mentales. Y, en mi opinión, esta es el hard problem dentro del hard problem. En las observaciones mediante las, cada vez más sutiles, técnicas de escaneo cerebral, lo que observamos es única y exclusivamente actividad neuronal. Y lo que sabemos, a día de hoy, del funcionamiento del cerebro, es que es una complejísima red de comunicaciones. No hay ni rastro de qué son esos fenómenos mentales generados por la actividad neuronal. Podemos seguir dando soluciones:

1. Podemos recurrir a la teoría de la identidad: los estados neuronales son lo mismo que los estados mentales. Pero aquí está el problema que no me canso en denunciar una y otra vez: un estado mental no puede ser un potencial de acción eléctrico que se desplaza de una neurona a otra.  La electricidad es un flujo de electrones que se mueve a gran velocidad. Eso no es una emoción, pensamiento, recuerdo, etc.  Podría objetarse que la mente no es solo la actividad de una neurona, sino la actividad conjunta de muchas de ellas. Modelos informáticos de redes neuronales son capaces de memorizar, aprender y resolver ciertos problemas complejos. De acuerdo, una red neuronal así entendida es capaz de acciones inteligentes al igual que una computadora normal y corriente, pero no de tener estados mentales. Las máquinas no sienten ni tienen consciencia de nada. Vale, pero se puede volver a la carga: por ejemplo, los antidepresivos muestran con claridad que inhibiendo la recaptación de serotonina en las hendiduras sinápticas de ciertos circuitos cerebrales, cambiamos el estado emocional del sujeto. Hay miles de ejemplos de como el uso de ciertas sustancias químicas alteran nuestras emociones, e incluso nuestra consciencia. Sí, pero, ¿sabemos cómo diablos la serotonina causa que me sienta bien? Solo sabemos que su presencia mejora nuestro estado de ánimo, pero no tenemos ni idea de cómo.  No sabemos cuál es el proceso mediante el cual una molécula consigue una sensación o sentimiento. “Sentirse bien” no es idéntico a “hay muchas moléculas de serotonina flotando entre tus sinapsis” por mucho que exista una fuerte relación.

2. Siguiendo en la teoría de la identidad: deben existir otros estados físicos x, que no son idénticos a lo que hoy sabemos de los estados neuronales, pero que son realmente los estados mentales. Esto es lo que yo pienso. Albergo la creencia de que lo que sabemos del cerebro es solo la punta de un enorme iceberg. La actividad neuronal tiene mucho que ver con nuestra mente, pero la mente no es únicamente eso. Quizá hagan falta nuevas técnicas de observación o incluso, vete a saber, nuevas ramas de la bioquímica o de la misma física. El tema es que lo único que podemos hacer es seguir investigando.

Pero aquí viene el hard problem dentro del hard problem: ¿Y si no hubiera más? ¿Y si seguimos escaneando y escaneando el cerebro y seguimos únicamente encontrando actividad neuronal, esencialmente, tal y como la conocemos ahora? ¿Y si el cerebro no es más que 86.000 millones de neuronas interconectadas entre sí, lanzándose mensajes electro-químicos? Entonces, necesariamente, tendríamos que plantear algún tipo de dualismo que se saldría de los cauces de la ciencia empírica. Muy mal asunto.