Posts etiquetados ‘David Chalmers’

Aunque Descartes, y tantos otros antes que él, definiera la mente por su inextensión, es decir, por no ocupar lugar alguno en el espacio, por ser inmaterial, o si se prefiere, espiritual, todo el mundo con dos dedos de frente, ubica la mente “dentro” del cerebro. Sin saber muy bien qué tipo de entidad ontológica es, sin poder siquiera definirla con precisión, todo el mundo cree que se piensa con la cabeza. Nadie acepta de buen grado que le digas que su mente no está en ningún sitio, o que su último pensamiento está ubicado a 1.000 kilómetros de su cerebro.

Es más, dado el materialismo monista imperante en las ciencias de la mente, gran parte de la gente algo letrada en el tema apuesta por la teoría de la identidad: mi mente es equivalente a una serie de procesos físico-químico-biológicos que, en cuanto a tales, ocurren en una precisa ubicación espacial: mi tejido cerebral. Mi mente se forma, de alguna manera todavía no aclarada, entre esa increíblemente densa enredadera de neuronas que pueblan mi encéfalo.

Así que, solo por llevar la contraria y violentar un poco las mentes de mis brillantes lectores, vamos a ver una teoría clásica en filosofía de la mente  que pretende romper este “chauvinismo cerebral” de creer que los sucesos mentales solo ocurren “dentro” del cerebro: es la teoría de la mente extendida. Quizá la primera en plantearla fue la filósofa norteamericana Susan Hurley en su obra Conscioussness in Action de 1998, pero el texto clásico es el artículo de Andy Clark y David Chalmers The Extended Mind  del mismo año, y entró de lleno en el debate cuando Clark publicó el libro Supersizing the mind en 2008.

La teoría de la mente extendida es una consecuencia lógica del funcionalismo imperante en las ciencias cognitivas (ya lo describimos y lo criticamos aquí). El funcionalismo dice que los estados mentales son estados funcionales que conectan causalmente estímulos con respuestas (o estados funcionales con otros estados funcionales). En este sentido si yo quiero realizar una operación matemática y me valgo para ello de una calculadora de bolsillo, entre el input (por ejemplo, la visualización de los dos factores que voy a multiplicar) y el output (obtener el resultado), transcurren multitud de estados funcionales, unos “dentro” del cerebro y otros “fuera”. “Dentro”, por ejemplo, está mi miente ordenando a mis dedos qué teclas de la calculadora pulsar, y “fuera” estaría el microprocesador de la calculadora procesando los datos y mostrando en pantalla el resultado.

Si definimos los estados mentales por su función, es decir, por ser elementos causales en la cadena entre el estímulo y la respuesta, tanto mis pensamientos sobre que teclas pulsar como el funcionamiento del microprocesador de la calculadora, son eslabones causales de la cadena, ¿por qué decir  que solo los estados causales que están “dentro” de mi cabeza son estados realmente mentales, mientras que los que están “fuera” ya no lo serían? Supongamos que nos sometemos a los designios de Elon Musk y de su empresa Neuralink, y nos insertamos la calculadora en el cerebro, conectando sus circuitos a nuestros axones y dendritas neuronales. Entonces, si hiciésemos un cálculo ayudados por la calculadora, todo ocurriría “dentro” de nuestro cerebro ¿Ahora sí aceptamos lo que hace la calculadora como parte de nuestra mente y antes no? ¿Los criterios para distinguir lo mental son, únicamente, algo tan pobre como “dentro” y “fuera”?

Extendamos entonces la mente a lo bestia. Cuando usamos Google para buscar información, devolviéndonos Google la respuesta que buscábamos, nuestro proceso de causas y efectos funcionales ha viajado desde nuestra mente hasta diferentes servidores a lo largo del mundo, incluso ha podido ir al espacio y rebotar en antenas de satélites, hasta volver a nosotros… ¡Nuestros estados mentales se han extendido hasta el infinito y más allá! Seríamos, por utilizar terminología más guay, cíborgs cognitivos o mind cyborgs…

Según Clark, nuestra vida mental es un continuo negociar y re-negociar los límites de la mente con los diferentes dispositivos cognitivos que tenemos a nuestro alcance. Extendemos y reducimos la mente a cada momento: cada vez que encendemos la tele,miramos un reloj, nuestro móvil.. Lo interesante es que podríamos utilizar esta extensión para medir el potencial cognitivo de un individuo o sociedad: desde lo mínimo, un neanderthal escribiendo en la arena con un palo, hasta las actuales megalópolis de millones de individuos  hiperconectados entre ellos y con el resto del mundo, teniendo acceso a una incontable cantidad de información. Los hitos fundamentales en una historia de la humanidad concebida desde su capacidad de extensión mental serían la aparición del lenguaje, primero hablado y luego escrito (la extensión de la memoria), el desarrollo del cálculo y de sus herramientas que concluirían con la llegada del computador y, el estadio en el que nos encontramos: internet y su casi ilimitado acceso a todo tipo de datos.

Problemas: si la teoría de la mente extendida puede estar bien para medir la potencia cognitiva de un sistema, habría que entenderla únicamente como una etiqueta pragmática, como una forma de hablar útil en determinados contextos, ya tiene exactamente los mismos problemas del funcionalismo (como hemos dicho, no es más que una consecuencia lógica de éste): no explica la consciencia fenomenológica y no superaría la crítica de la caja china de Searle. Autores como Jerry Fodor, desde una perspectiva cerebrocéntrica o, Robert Rupert, desde todo lo contrario, han sido bastante críticos con ella. Y es que pasa lo de siempre: la explicación funcionalista de los estados mentales es muy incompleta y, llevada a su extremo, llega a ser confusa.

Ejemplo: de nuevo voy a realizar un cálculo extendiendo mi mente hacia una calculadora. Sin embargo, me doy cuenta de que no tiene pilas, así que bajo a la tienda de abajo de mi casa a comprar unas. Desafortunadamente no les quedan ¡Los vendedores de pilas están de huelga! Así, recorro decenas de tiendas pero en ninguna tienen nada. Viajo por toda España en busca de las pilas malditas, hasta que en un pequeño pueblecito perdido en los Pirineos, encuentro una tienda donde, al fin, las consigo. Después de tres meses de búsqueda vuelvo a mi casa, y puedo usar la calculadora para terminar mi cálculo… ¿Todo este tedioso proceso de búsqueda geográfica de tiendas de pilas formaría parte de un proceso cognitivo? ¿Lo englobaríamos dentro de un proceso mental? Echar gasolina al coche, conducir, preguntar a transeúntes, usar el GPS… ¿todos son estados mentales? ¿Dónde queda el límite entre lo que es y lo que no es un estado mental si cualquier cosa es susceptible de participar en un proceso causal?

El funcionalismo es la postura filosófica de la actual psicología cognitiva. Por ende, también lo es de la mayoría de los ingenieros en Inteligencia Artificial. Es, por tanto, una postura compartida por gran parte de la comunidad científica dedicada al tema de la mente, el stablishment contemporáneo (donde más disidencias hay es entre los neurólogos y, como no podría ser de otra manera, entre los filósofos). Vamos a elaborar un pequeño análisis crítico viendo sus ventajas pero, sobre todo, los inconvenientes que hacen de esta posición algo inviable y subrayando como conclusión la disyuntiva entre abandonarla por completo o reparar algunas de sus partes.

Todo surge con el problema epistemológico de la mente. Si la psicología pretendía ser una disciplina científica, tenía que hacer de la mente un objeto de estudio claro y preciso, algo cuantificable, observable empíricamente. Como no podía, decidió hacer como si la mente no existiera. Eso es el conductismo: entender la psicología como la ciencia de la conducta (algo que sí puede observarse), por lo que intentó explicarlo todo mediante el binomio estímulo-respuesta (sin nada entre ellos). El fracaso fue rotundo, por lo que surgieron alternativas: una es la teoría de la identidad en sus distintas vertientes. Los defensores de la identidad sostienen que los estados mentales son idénticos a procesos neuronales. Un estado mental es exactamente lo mismo que una red neuronal concreta en funcionamiento. La virtud de esta perspectiva es que es perfectamente monista y materialista y casa a la perfección con los avances de las neurociencias. Además, su negación, parece absurda: ¿qué si no van a ser los pensamientos que sucesos neuroquímicos? Sin embargo, tiene dos problemas bastante graves:

1. Que sepamos, no hay nada en las reacciones físico-químicas de una red neuronal que pueda explicar, ni remotamente, un pensamiento o  una sensación. Las descargas eléctricas de los potenciales de acción que recorren los axones de las neuronas o las reacciones químicas que se dan en las sinapsis no son estados mentales.

2. Ponemos en problemas a los ingenieros de IA. Si un estado mental es idéntico a un estado neuronal, no es idéntico al proceso computacional que se da en un ordenador. Únicamente los seres con un sistema nervioso similar al humano podrían tener estados mentales. Las máquinas no.

HilaryPutnam

Y entonces llegó el funcionalismo, como una reacción al conductismo y como una solución a los problemas de la teoría de la identidad.  La clave está en definir los estados mentales como estados funcionales. ¿Qué quiere decir esto? Que un estado mental es siempre algo que causa un efecto o que es efecto de una causa, y se define exclusivamente por su función. Por ejemplo, un dolor de muelas es un estado mental porque es la causa de que yo me tome un analgésico. Uno de los fundadores del funcionalismo (si bien luego se retractó y se volvió muy crítico con su criatura) fue Hilary Putnam, quien entendió lo que era un estado mental a través de la tablatura de programa de una máquina de Turing. Este tipo de máquina, además de una definición de computabilidad, es un ordenador primitivo, una máquina capaz de hacer cálculos. Putnam afirmaba que las diversas órdenes que el programa da a la máquina son estados mentales (ya que tienen poderes causales). Esta concepción podría parecernos extraña a priori, pero soluciona un montón de problemas:

1. Para el funcionalismo, la relación entre estados físicos y mentales no es de equivalencia sino de superveniencia. Dos entes físicamente idénticos tienen los mismos poderes causales (realizan las mismas funciones), pero una misma función puede ser realizada por diferentes entes físicos. Dicho de otro modo: misma materia implica misma función pero misma función no implica misma materia. El funcionalismo con su superveniencia parece una gran idea: incluye la mente olvidada por el conductismo, salva la objeción de la teoría de la identidad hacia la Inteligencia Artificial, a la vez que no se lleva mal con la misma teoría de la identidad. Veamos eso más despacio:

a) El conductismo tenía un embarazoso problema con lo que llamamos estados intencionales o actitudes proposicionales (por ejemplo, las creencias o los deseos). Como prescindía de todo lo que no fuera conductual, no podía explicar el poder causal de una creencia. Por ejemplo, si yo creo que va a llover y por eso me pongo un chubasquero, una creencia causa mi conducta. Para el conductismo, como una conducta (respuesta) solo podía ser causada por otra conducta (estímulo) las creencias no podían causar nada, así que los conductistas no podían dar cuenta de algo tan sencillo y habitual como ponerse un chubasquero porque va a llover. El funcionalismo no tiene problemas con las creencias: una creencia es causa de un efecto, por lo tanto, es un estado mental.

b) El funcionalismo permite que los ingenieros de IA construyan máquinas con estados mentales. Siguiendo a Putnam, la orden que da un programa a un computador es un estado mental que puede ser idéntico al de un humano si cumple la misma función, a pesar de que el sistema físico que los genera es diferente (uno de silicio y otro de carbono). Es la gran virtud de la relación de superveniencia.

c) El funcionalismo permite cierta independencia a la psicología sobre la neurología. Como lo explica todo en términos funcionales, permite que no tengamos que hablar siempre en términos neuroquímicos. Por ejemplo, para explicar que la creencia de que llueva ha causado que me ponga un chubasquero, no es preciso que hable en términos de axones y dendritas. Puedo decir que la creencia causa mi conducta con funciones claramente adaptativas: si me mojo puedo ponerme enfermo y morir. Predecir el clima tiene una clara función adaptativa. Así, el funcionalismo se lleva fantásticamente bien con la psicología evolucionista, ya que ésta, igualmente, explica la mente en términos adaptativos, es decir, de funcionalidad biológica. Los funcionalistas permiten que la psicología pueda hablar en un lenguaje que no se reduce al fisicalista lo cual es fantástico para los psicólogos, ya que no tienen que estar constantemente mirando por el microscopio y hablando de neuronas.

d) El funcionalismo es perfectamente compatible con la neurología. No tiene problema alguno en admitir que un estado mental es idéntico a un estado neuronal, sencillamente, puede hablar de él sin que la ciencia haya descubierto aún tal identidad. Podemos decir que la creencia en que va a llover causa que yo me ponga un chubasquero, aceptando que la creencia en que va llover es idéntica a un estado neuronal concreto y reconociendo que aún la neurología no ha descubierto tal estado neuronal. Incluso si la neurología descubriera cada correlato neural de todos nuestros estados mentales, el funcionalismo podría seguir hablando en términos funcionales sin contradicción alguna. Simplemente diría que mi creencia es un estado neuronal x que, igualmente, causa que yo me ponga mi chubasquero, lo cual tiene una función claramente adaptativa.

e) Incluso el funcionalismo no tiene ningún compromiso ontológico con el monismo materialista. Podríamos ser funcionalistas y dualistas. Un estado mental podría no ser algo materia y tener, igualmente, poderes causales sobre mi conducta. Algunos dualistas que, por ejemplo, para explicar la mente se basan en la distinción informática entre hardware (base física) y software (programas), sosteniendo que mientras el hardware es material, el software no lo es, pueden ser perfectamente funcionalistas. Por el contrario, si un funcionalista quiere ser materialista, solo tiene que añadir otra condición a la tesis de que los estados mentales son funcionales, a saber, que toda relación causal es material, que una causa y un efecto siempre son dos entes materiales. ¡El funcionalismo vale para todos los gustos!

Comprobamos que el funcionalismo es una gran teoría debido a sus grandes ventajas. De aquí su éxito en la actualidad. Sin embargo, tiene dos serios problemas, a los que a día de hoy, nadie ha encontrado una solución satisfactoria:

1. El problema de la conciencia fenomenológica o de los qualia. El funcionalismo no puede explicar de ninguna manera el hecho de que tengamos sensaciones conscientes (sentience). Cuando me duelen las muelas y, debido a ello, me tomo un analgésico, siento conscientemente el dolor de muelas. Una computadora no siente ningún dolor cuando algo falla en su sistema, aunque lo detecte y tome medidas para repararlo. Una computadora, a pesar de que pudiese tener una conducta muy similar a la humana, no siente que hace lo que hace, no desea hacerlo, no se enfada ni se pone nerviosa cuando se equivoca… ¡Una máquina no es consciente de absolutamente nada! No poder dar cuenta de la distinción entre estados conscientes e inconscientes es un gravísimo problema del funcionalismo: ¿por que la selección natural ha gastado tantos recursos en hacer que sintamos cuando podría haber conseguido lo mismo generando organismos totalmente inconscientes? Es la objeción de los zombis de Chalmers ante la que el funcionalismo calla.

2. El problema semántico expuesto por John Searle.  Estamos ante el archiconocidísimo argumento de la caja china que no voy a entrar a explicar. La idea tiene como trasfondo el concepto de intencionalidad de Franz Brentano: los estados mentales tienen la cualidad de siempre referirse a algo que no son ellos mismos. Su contenido siempre es otra cosa diferente a ellos, siempre apuntan a otra cosa. En este sentido, los estados mentales son simbólicos. Si analizamos el funcionamiento de un ordenador, la máquina trata todo con lo que trabaja como objetos físicos y no como símbolos. Un computador que traduce del español al chino, no entiende realmente ninguno de los dos idiomas. Trata las palabras como objetos físicos que intercambia siguiendo unas pautas sin entender nada de lo que está haciendo. La conclusión de Searle es que las máquinas no tienen semántica sino tan solo sintaxis. Es un argumento bastante fuerte y aunque se han hecho muchos intentos de refutarlo, ninguno lo ha conseguido del todo.

FranzBrentano

No he conocido ninguna teoría que, ya desde su comienzo, no haya tenido serios problemas. El funcionalismo no es diferente, pero debe resultarnos chocante que el sustrato filosófico que hay debajo de la psicología actual más comúnmente aceptada por la comunidad científica sea deficiente. A mí no deja de resultarme difícil de digerir como conocidos científicos cometen errores garrafales por no tener ni idea de lo que están hablando cuando hablan de la mente. Entre otros, me refiero al popular Ray Kurzweil, el cual ignora completamente la filosofía de la mente a la vez que habla constantemente de temas por ella tratados (y además, tiene el atrevimiento de decir que muy pronto vamos a construir una mente indistinguible de la humana). Nos quedan dos alternativas: o lo abandonamos completamente y pensamos algo radicalmente nuevo (o volvemos a otras posturas más viejas), o intentamos arreglar los desperfectos. Hay algunos intentos: por un lado está el interesante materialismo anómalo de Donald Davidson o, el mismo David Chalmers de los zombis, quien intenta una especie de compatibilismo entre los qualia y el funcionalismo. Hablaremos de ellos otro día.

La sugerente forma con la que Chalmers plantea el problema duro de la conciencia va a tener una interesante aplicación al problema del origen evolutivo de la misma. Supongamos que la evolución (o los ingenieros de AI) diseñan una entidad, ya sea orgánica o mecánica, que puede realizar las mismas funciones fenoménicas que un ser humano pero sin tener ningún tipo de autoconciencia ni de estados internos ni emociones o deseos (sin los famosos qualia). Esas entidades serían capaces de resolver ecuaciones, escribir libros, o cualquier otra acción de la que fuera capaz un humano, de tal modo que pasarían el Test de Turing a todos los niveles. Chalmers adjetiva con humor a estos seres como “zombis” recalcando la idea de que, a pesar de que “parecieran humanos” en todas sus características, al no tener subjetividad, estarían de algún modo “desalmados” como los zombis hollywoodienses, habría algo tétrico, inhumano en ellos.

Si estos zombis fueran posibles se plantearían una serie de dilemas filosóficos. En primer lugar, la idea parece apuntar a un dualismo. Si los zombis son físicamente idénticos a nosotros y pueden realizar nuestras mismas funciones, la única cosa que nos diferencia de ellos es que tenemos estados internos, tenemos subjetividad. Como somos físicamente idénticos, lo físico no puede explicar lo mental o, como mínimo, lo mental no puede ser reducido a físico. Los zombis serían nuestras tristes copias monistas, siendo el ser humano un compuesto de materia y mente, dos sustancias diferentes. Materia y mente quedan separadas en una vuelta al cartesianismo. Y en segundo lugar, ¿qué sentido tendría el hecho de que tengamos conciencia si una entidad sin ella podría realizar las mismas cosas y con la misma efectividad que nosotros? ¿Por qué la evolución se habría preocupado en generar conciencia cuando con sólo crear zombis hubiera conseguido los mismos resultados? ¿No es la conciencia algo redundante en términos evolutivos? Esta perspectiva podría constituir una prueba de que la mente no es explicable desde la teoría darwiniana, consecuencia lógica de lo anterior: la mente no se reduce a lo físico como tampoco a lo biológico, ha de ser explicada desde otras instancias.

Ingenioso dilema si no fuera porque el planteamiento de Chalmers es erróneo. Si los zombis fueran físicamente exactamente iguales a los seres humanos generarían necesariamente conciencia. Si la evolución o la AI consiguieran hacer estructuras físicas idénticas a las humanas, tendrían subjetividad exactamente igual que nosotros. Afirmar que un ser físicamente igual que nosotros no tendría conciencia es como pensar que diseñamos dos relojes despertadores idénticos, y uno suena y otro no, no habiendo causa física para que el segundo no suene. La posibilidad de los zombis nos haría aceptar que un sistema físico pierde “por arte de magia” una de sus características.

Sin embargo, podría objetarse que sería posible crear zombis que fueran funcionalmente idénticos a nosotros aunque físicamente no lo fueran. Sólo haría falta que pudieran imitarnos a la perfección en todo lo que hacemos de modo que pasaran el Test de Turing a pesar de ser, por ejemplo, un manojo de chips de silicio. Es el caso de los programas de ajedrez: no habría forma de saber si uno juega contra un programa o contra un humano a pesar de que los mecanismos psicológicos que utiliza el ser humano para planificar y realizar sus jugadas no tienen nada que ver con los que hace la máquina (que realiza millones de jugadas por segundo). Aceptando el caso de que pudiéramos crear zombis funcionales para la totalidad de las características del ser humano (es un hecho que lo hemos conseguido para muchas, pero quizá improbable para todas) eso no implicaría que estuviéramos ante un ser humano sino sólo ante una excelente copia cuya estructura es diferente. Estos pseudohumanos podrían engañarnos en apariencia, pero si tuviésemos acceso a su estructura comprobaríamos que no son realmente humanos, al igual que cuando tenemos acceso al software de un programa de ajedrez comprobamos que no estamos ante una mente humana. Y es que el argumento de Chalmers cae en una petición de principio. En sus premisas ya se esconde el dualismo al que parece llegarse en la conclusión. Al partir del hecho de que unos zombis sin estados internos son físicamente indistinguibles de los reales ya se está dando por supuesto el dualismo. Precisamente, un zombi sin estados mentales sí sería físicamente distinguible de un hombre si partimos de un monismo materialista o fisicalista. A la postre, el dilema de los zombis no sirve ni para defender el dualismo ni el monismo, no sirve para nada.

Los desalmados zombis de Chalmers tan fallidos como defensa del dualismo como pésimas son las películas de George A. Romero (excepto para los amantes de la serie B). En cualquier caso, si os encontrárais con alguno recordad que hay que dispararles a la cabeza, si puede ser, con buenos argumentos. Yo habitualmente suelo encontrarme con unos treinta por clase.

Todos los lunes tengo que impartir una hora de “Alternativa a la Religión”, una pseudoasignatura en la que no se puede hacer nada, ni dar ningún tipo de temario ni hacer maldita la cosa con fines pedagógicos (contradicciones del sistema educativo. Si fuera la única…). Lo único que se permite de forma unánime es ver películas, así que como hombre obediente que soy, eso hacemos todos los lunes en la clase de 3ª ESO B.

Tengo la mala costumbre de dejar la elección de la película a última hora, así que siempre ando el lunes, veinte minutos antes de que empiece la clase, mirando con  prisas en mi colección de películas cuál sería la adecuada para el alumnado. Empecé mirando la estantería de izquierda a derecha. Blade Runner no que es demasiado densa para los críos, 2001 demasiado lenta, Dogville no la van a entender, Troya ya se la he puesto, Reservoir Dogs ni de coña… ¡Bingo! Million Dollar Baby, de boxeo pero muy humana, perfecta.

Sin embargo, en ese momento me acordé de que Million Dollar Baby ya se la había puesto. Es más, me vino a la memoria todo el proceso de elección de esa película cuando lo hice la vez pasada y comprobé que había sido exactamente igual. Me vi a mi mismo empezando de izquierda a derecha y descartando las otras películas exactamente por las mismas razones que había dado ahora mismo. Los dos  procesos habían sido idénticos, sólo los diferenciaba el haber ocurrido en fechas diferentes y que yo me hubiera acordado de que todo era una repetición.

La reflexión surge de modo evidente: ¿qué hay de libre albedrío en mi elección? Alguien que me conociera perfectamente podría haber predicho los descartes y sus respectivas razones, así como la película seleccionada. ¿He elegido libremente?

Mi idea es que no. Los seres humanos operamos por razones, por motivaciones, por causas que determinan nuestra acción. Yo escogí mi película en base a mi experiencia pasada eligiendo películas. Es más, repliqué exactamente mi experiencia pasada, el archivo que hay en mi memoria para elegir películas para la clase de los lunes con 3ºB. ¿No es esa siempre nuestra forma de actuar? ¿No estamos siempre aprendiendo y repitiendo? Vale pero, ¿dónde queda entonces la novedad de nuestras acciones? Stuart Hameroff lo explica muy bien en este texto (extraído de nuevo del libro de Blackmore):

Para hacer una analogía, imagina que has entrenado a un robot zombi para que cruce un lago en un velero, y en el otro hay tres embarcaderos, A, B o C, y el viento cambia constantemente. En este caso, el viento jugaría el papel de las influencias no computables, y los virajes y golpes de timón del velero serían los procesos algorítmicos deterministas para cuya ejecución se ha programado al robot zombi. Pero cada viraje estaría sometido a esa influencia no computable, de manera que el resultado – el puerto A, B o C en que atraca el velero – sería consecuencia de ambas influencias. Pienso que la experiencia de llevar a cabo este proceso determinista junto con esta influencia no computable es lo que llamamos libre albedrío. Por lo tanto, en ocasiones, hacemos cosas que son más o menos inesperadas incluso para nosotros mismos.

Creo que Hameroff se equivoca en varios puntos, si bien el planteamiento general es correcto. En primer lugar de lo que está hablando no es de libre albedrío sino de alatoriedad. Un proceso aleatorio (los golpes de viento) no tiene nada que ver con actos libres. Es como si dijéramos que cuando tiro un dado, éste elige libremente sacar una de sus seis caras. Y en segundo lugar, esa no computabilidad a la que se refiere tiene que ver con las fluctuaciones cuánticas de los microtúbulos de las neuronas, que según él y Penrose son las responsables de nuestra conciencia, teoría ésta, muy dudosa para la comunidad científica (sinceramente, no la entiendo).

Yo cambiaría la perspectiva afirmando que nuestra toma de decisiones es un sistema caótico en el sentido en que es muy sensible a pequeñas variaciones en las condiciones iniciales. Si mientras  estaba escogiendo mi película mi canario se hubiese puesto a cantar, es posible que esta pequeña interferencia hubiera hecho cambiar mi decisión. Algo insignificante, impredecible, cambia el resultado, por eso la conducta humana es tan difícil de pronosticar, pero de ahí a libertad de elección va un trecho. Así que la metáfora de que somos robots zombi me parece correcta: robots en el sentido determinista de nuestra elección, pero zombis en el sentido de caóticos, torpes, volubles, muchas veces impredecibles (nota: nada que ver con los zombis de Chalmers, de los que ya hablaré otro día).