Archivos de la categoría ‘Filosofía de la mente’

Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte “inmaterial” de la máquina. Lo demás, lo físico, era cosa de electricistas.

En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?

Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos “estúpidos” pueden emerger conductas muy sofisticadas e inteligentes.

Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).

Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.

Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.

Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.

Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

Adjunto el famoso paper de Brooks (muy criticado en su momento):

Intelligence without reason – Rodney Brooks

Anuncios

Es cierto que su “Alchemy and Artificial Intelligence” para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado.

Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban.  Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron.

El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más.

Vamos a hacer un somero resumen de sus planteamientos. Su crítica pueden dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades esenciales al ser humano que la IA nunca será capaz de reproducir.

Presupuestos discutibles de la IA:

  1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off  de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de ésto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestro modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro.
  2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente.  La mente está, según Dreyfus, muy lejos de ser igual a un ordenador.
  3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones?
  4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico.  Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica.

Aspectos del ser humano que la IA no puede, ni podrá nunca, simular:

  1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition.
  2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien ésto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su critica desde una perspectiva completamente opuesta a la visión materalista-naturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental.
  3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña).

Hubert Dreyfus falleció el pasado 22 de abril. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.

En Bigthink Dennett muestra su preocupación acerca del mensaje que los neurocientíficos están mandando a la sociedad acerca del libre albedrío, a saber, que es una ilusión. Parece ser que las personas que saben que no son libres actúan de modo más irresponsable, o directamente peor en términos morales, que las personas que piensan que sus actos son fruto de su libre elección.

Para ilustrarnos sobre el tema nos expone un divertido experimento mental (o bomba de intuición como le gusta decir): un paciente aquejado de un trastorno obsesivo-compulsivo es tratado mediante la inserción de un chip en su cerebro. El neurocirujano le dice al enfermo que esa pequeña prótesis no solo vale para curar su trastorno, sino que, desde ese momento, van a controlar su conducta a través de ella. Le dice que a él le parecerá todo normal ya que tendrá la ilusión de que lo que hace, lo hace libremente, aunque la realidad será que todas sus acciones estarán estrictamente controladas (causadas) por el médico y su equipo.

Al paciente le dan el alta del hospital y se marcha a su casa a seguir llevando su vida, feliz por haberse curado de su trastorno. Sin embargo, a los pocos días comete un delito y es llevado ante un tribunal. Cuando le preguntan por sus fechorías, él responde que no es culpable de nada, ya que ha obrado sin libre albedrío, controlado por el equipo de la clínica de neurocirugía. El juez llama entonces al neurocirujano quien dice que todo fue una broma, que realmente nadie estaba controlando la conducta del presunto delincuente ¿Sería culpable el acusado? Diríamos que sí. Pero, ¿actúo irresponsablemente el neurocirujano? Seguramente que sí ¿Habría delinquido el acusado si hubiera sabido que la responsabilidad era totalmente suya? Es posible que no.

Dennett utiliza este relato para advertirnos acerca de las consecuencias de decir a todo el mundo que no es libre de lo que hace. Si pensamos que son otros los que controlan nuestra conducta y nos apetece apalear a nuestro jefe, ¿no lo haríamos sabiendo que, realmente, toda la responsabilidad es de otros, que nosotros, realmente, no lo hemos hecho? O dicho de otro modo, ¿no lo haremos sabiendo que, realmente, lo están haciendo otros y nosotros no estamos haciendo nada? Pensemos que mientras hacemos el mal podríamos pensar: ¡Qué malvado el neurocirujano! ¡Lo que hace con mi cuerpo!

Y es que podríamos llegar a argüir que, incluso aceptando que todo fuera una broma pesada del médico y nadie controlara sus acciones, ese individuo no obró con pleno libre albedrío porque… ¿tienes la misma responsabilidad de tus actos si crees que estás siendo controlado? ¿Eres responsable de hacer algo que tú mismo crees que no estás haciendo?

Veámoslo más claro en otro ejemplo. Supongamos que estamos contemplando con una videocámara como un criminal asesina brutalmente a nuestro jefe. Nosotros, solo como espectadores, nos lo pasamos pipa viendo hacer algo que desearíamos haber hecho desde hace mucho tiempo. Es más, el asesino mata a nuestro desdichado jefe exactamente de la misma forma que nosotros hubiésemos elegido, de tal modo que casi nos da la impresión de que nosotros vamos ordenando al asesino qué hacer a cada paso. Bien, pues a pesar de que nuestra conducta como sádicos espectadores no es éticamente muy reconfortante, nadie diría que somos culpables del asesinato pero… ¿qué diferencia hay entre este caso y el del obsesivo-compulsivo de Dennett? ¿Por qué diríamos que uno es culpable y el otro no?

Aunque Descartes, y tantos otros antes que él, definiera la mente por su inextensión, es decir, por no ocupar lugar alguno en el espacio, por ser inmaterial, o si se prefiere, espiritual, todo el mundo con dos dedos de frente, ubica la mente “dentro” del cerebro. Sin saber muy bien qué tipo de entidad ontológica es, sin poder siquiera definirla con precisión, todo el mundo cree que se piensa con la cabeza. Nadie acepta de buen grado que le digas que su mente no está en ningún sitio, o que su último pensamiento está ubicado a 1.000 kilómetros de su cerebro.

Es más, dado el materialismo monista imperante en las ciencias de la mente, gran parte de la gente algo letrada en el tema apuesta por la teoría de la identidad: mi mente es equivalente a una serie de procesos físico-químico-biológicos que, en cuanto a tales, ocurren en una precisa ubicación espacial: mi tejido cerebral. Mi mente se forma, de alguna manera todavía no aclarada, entre esa increíblemente densa enredadera de neuronas que pueblan mi encéfalo.

Así que, solo por llevar la contraria y violentar un poco las mentes de mis brillantes lectores, vamos a ver una teoría clásica en filosofía de la mente  que pretende romper este “chauvinismo cerebral” de creer que los sucesos mentales solo ocurren “dentro” del cerebro: es la teoría de la mente extendida. Quizá la primera en plantearla fue la filósofa norteamericana Susan Hurley en su obra Conscioussness in Action de 1998, pero el texto clásico es el artículo de Andy Clark y David Chalmers The Extended Mind  del mismo año, y entró de lleno en el debate cuando Clark publicó el libro Supersizing the mind en 2008.

La teoría de la mente extendida es una consecuencia lógica del funcionalismo imperante en las ciencias cognitivas (ya lo describimos y lo criticamos aquí). El funcionalismo dice que los estados mentales son estados funcionales que conectan causalmente estímulos con respuestas (o estados funcionales con otros estados funcionales). En este sentido si yo quiero realizar una operación matemática y me valgo para ello de una calculadora de bolsillo, entre el input (por ejemplo, la visualización de los dos factores que voy a multiplicar) y el output (obtener el resultado), transcurren multitud de estados funcionales, unos “dentro” del cerebro y otros “fuera”. “Dentro”, por ejemplo, está mi miente ordenando a mis dedos qué teclas de la calculadora pulsar, y “fuera” estaría el microprocesador de la calculadora procesando los datos y mostrando en pantalla el resultado.

Si definimos los estados mentales por su función, es decir, por ser elementos causales en la cadena entre el estímulo y la respuesta, tanto mis pensamientos sobre que teclas pulsar como el funcionamiento del microprocesador de la calculadora, son eslabones causales de la cadena, ¿por qué decir  que solo los estados causales que están “dentro” de mi cabeza son estados realmente mentales, mientras que los que están “fuera” ya no lo serían? Supongamos que nos sometemos a los designios de Elon Musk y de su empresa Neuralink, y nos insertamos la calculadora en el cerebro, conectando sus circuitos a nuestros axones y dendritas neuronales. Entonces, si hiciésemos un cálculo ayudados por la calculadora, todo ocurriría “dentro” de nuestro cerebro ¿Ahora sí aceptamos lo que hace la calculadora como parte de nuestra mente y antes no? ¿Los criterios para distinguir lo mental son, únicamente, algo tan pobre como “dentro” y “fuera”?

Extendamos entonces la mente a lo bestia. Cuando usamos Google para buscar información, devolviéndonos Google la respuesta que buscábamos, nuestro proceso de causas y efectos funcionales ha viajado desde nuestra mente hasta diferentes servidores a lo largo del mundo, incluso ha podido ir al espacio y rebotar en antenas de satélites, hasta volver a nosotros… ¡Nuestros estados mentales se han extendido hasta el infinito y más allá! Seríamos, por utilizar terminología más guay, cíborgs cognitivos o mind cyborgs…

Según Clark, nuestra vida mental es un continuo negociar y re-negociar los límites de la mente con los diferentes dispositivos cognitivos que tenemos a nuestro alcance. Extendemos y reducimos la mente a cada momento: cada vez que encendemos la tele,miramos un reloj, nuestro móvil.. Lo interesante es que podríamos utilizar esta extensión para medir el potencial cognitivo de un individuo o sociedad: desde lo mínimo, un neanderthal escribiendo en la arena con un palo, hasta las actuales megalópolis de millones de individuos  hiperconectados entre ellos y con el resto del mundo, teniendo acceso a una incontable cantidad de información. Los hitos fundamentales en una historia de la humanidad concebida desde su capacidad de extensión mental serían la aparición del lenguaje, primero hablado y luego escrito (la extensión de la memoria), el desarrollo del cálculo y de sus herramientas que concluirían con la llegada del computador y, el estadio en el que nos encontramos: internet y su casi ilimitado acceso a todo tipo de datos.

Problemas: si la teoría de la mente extendida puede estar bien para medir la potencia cognitiva de un sistema, habría que entenderla únicamente como una etiqueta pragmática, como una forma de hablar útil en determinados contextos, ya tiene exactamente los mismos problemas del funcionalismo (como hemos dicho, no es más que una consecuencia lógica de éste): no explica la consciencia fenomenológica y no superaría la crítica de la caja china de Searle. Autores como Jerry Fodor, desde una perspectiva cerebrocéntrica o, Robert Rupert, desde todo lo contrario, han sido bastante críticos con ella. Y es que pasa lo de siempre: la explicación funcionalista de los estados mentales es muy incompleta y, llevada a su extremo, llega a ser confusa.

Ejemplo: de nuevo voy a realizar un cálculo extendiendo mi mente hacia una calculadora. Sin embargo, me doy cuenta de que no tiene pilas, así que bajo a la tienda de abajo de mi casa a comprar unas. Desafortunadamente no les quedan ¡Los vendedores de pilas están de huelga! Así, recorro decenas de tiendas pero en ninguna tienen nada. Viajo por toda España en busca de las pilas malditas, hasta que en un pequeño pueblecito perdido en los Pirineos, encuentro una tienda donde, al fin, las consigo. Después de tres meses de búsqueda vuelvo a mi casa, y puedo usar la calculadora para terminar mi cálculo… ¿Todo este tedioso proceso de búsqueda geográfica de tiendas de pilas formaría parte de un proceso cognitivo? ¿Lo englobaríamos dentro de un proceso mental? Echar gasolina al coche, conducir, preguntar a transeúntes, usar el GPS… ¿todos son estados mentales? ¿Dónde queda el límite entre lo que es y lo que no es un estado mental si cualquier cosa es susceptible de participar en un proceso causal?

  1. El giro humanista del Renacimiento se concretó, sobre todo con la figura de Descartes, en el giro a la subjetividad. El centro del pensamiento a partir de entonces sería el yo en dos vertientes: como sujeto cognoscente (la teoría del conocimiento sustituirá a la metafísica como disciplina reina dentro de la filosofía) y como sujeto moral (base del individualismo y del liberalismo moderno).
  2. La idea fundacional nuestro sistema político-judicial y económico es el liberalismo. Se entiende al sujeto desde tres vertientes: como votante (política), como sujeto responsable de sus actos (Derecho) y como productor-consumidor (economía) y, en las tres, se entiende el yo fundamentalmente como un agente libre que vota, delinque, y trabaja y consume en virtud de su capacidad de elección completamente libre. Por eso cualquier ataque a la libertad o a la intimidad individuales, cualquier atisbo de totalitarismo es condenado unánimemente por la sociedad.

Tres críticas para extinguir el yo moderno (y, por tanto, para hacer saltar en pedazos la Modernidad y, con ella, todo nuestro estilo de vida actual):

  1. El yo no existe. La crítica viene desde lejos. El filósofo ilustrado David Hume ya advirtió que no teníamos experiencia alguna que pueda corresponder a un “yo”. Si hacemos un ejercicio de introspección e intentamos “ver” dentro de nosotros mismos solo encontramos ideas, palabras, imágenes, sentimientos… pero nunca encontramos a ese sujeto, a ese yo que, supuestamente, es el dueño de todos los contenidos de la mente. Las actuales neurociencias no parecen encontrar en el cerebro ningún “módulo central” que pueda equipararse a un yo. Tampoco parece existir ningún “teatro cartesiano” en dónde un homúnculo contempla lo que perciben nuestros sentidos.
  2. El individuo no existe. Una condición de posibilidad de que el yo exista es que sea un individuo, es decir, que sea indivisible. Si hubiese muchos yoes diferentes, ¿cuál de ellos sería realmente yo? ¿Cuál de ellos sería el que vota o comete crímenes? De hecho, incluso solemos entender una gravísima enfermedad mental, la esquizofrenia, como una especie de fragmentación del yo. Pues, precisamente, la ciencia nos está diciendo que no existe un solo yo. Los inquietantes experimentos con cerebros escindidos de Sperry y Gazzaniga apuntan claramente en esa dirección: no tenemos un solo yo, sino que múltiples agentes funcionales compiten para controlar el mando de la acción según se requiera.
  3. El yo no es libre. Entender el yo como un agente causal libre de nuestras acciones significa hablar de una causa incausada que constituiría una violación del principio de razón suficiente (desde una perspectiva materialista, de una violación del principio de conservación de la energía), un absurdo lógico. Además, desde la perspectiva neurológica los experimentos de Libet y otros, a pesar de ser discutibles y matizables, apuntan con claridad a la ausencia de libre albedrío (Wikipedia en castellano tiene un buen artículo sobre este tema). En coherencia, las tesis del psicólogo Daniel Wegner son claras: no elegimos nuestros pensamientos, y si consideramos que éstos son los agentes causales de nuestra conducta, no elegimos nuestra conducta.  Cuando comunicamos la intención de hacer algo lo único que hacemos, tal y como decía Spinoza, es lanzar una hipótesis predictiva de lo que es posible que vaya a ocurrir en un futuro.

Objeción: ¿Por qué entonces todos tenemos la sensación de poseer un yo y de ser libres? Es una ilusión fruto, igualmente como decía Spinoza, de las limitaciones de nuestra mente para conocer la multitud de causas que, realmente, ocasionan nuestros actos  ¿Y cuál es el sentido de tal ilusión? El agenciamiento (no confundir, por Dios, con el fraudulento concepto deleuziano). En la naturaleza operan simultáneamente una exponencial cantidad de agentes causales. A nuestro organismo le interesa mucho diferenciar, al menos, los agentes que son importantes para su supervivencia (un conjunto en movimiento de manchas naranjas y negras que ruge puede hacerme mucha pupa, por lo que yo establezco la relación causal: si tigre entonces pupa, en la cual pongo al tigre como agente, como sujeto de la acción “hacer pupa”. Nótese que no es porque el tigre sea un individuo ni tenga realmente un yo que active sus dientes y garras, sencillamente a un conjunto de percepciones les pongo una etiqueta útil para mi supervivencia). Igualmente, a la enorme colonia simbiótica de células que nos compone, le conviene diferenciarse de otros agentes causales (no es lo mismo que el tigre muerda cualquier brazo a que muerda ese brazo que tengo pegado al cuerpo). Y aquí llega el agenciamiento: agenciarme actos, hacer mío un objeto o suceso del mundo (Un ser está bebiendo agua ¿Cómo sé si eso es útil para mi supervivencia? Si el ser que está bebiendo agua es mi organismo y no otro, por lo que mi organismo le dice a un módulo funcional de mi cerebro que se agencie ese acto, que diga “Yo, y no otro agente causal, estoy bebiendo agua”. Importante: eso no quiere decir que haya un yo que beba agua ni que exista un yo que le ordene al organismo que beba agua, es solo una diferenciación, una ficción práctica, una etiqueta útil para que el organismo se diferencie de otros en función de utilidades evolutivas).

Nueva objeción a la que no soy capaz de responder: ¿Y qué pasa con la consciencia? Cuando a mí me duele algo, si no hay un yo al que le duela ¿a quién le duele realmente? ¿Podría darse, como en el mundo de las ideas platónico, el dolor sin sujeto doliente? Estamos, como siempre, con el problema de la irreductibilidad de los qualia. Sabemos que las sensaciones conscientes son un poderoso motivador de la conducta: el placer atrae y el dolor aleja, por lo que la función evolutiva de la consciencia parece clara, pero viendo lo fácil que nos resulta hacer computadores perfectamente motivados sin emociones ¿por qué la evolución crearía algo tan extraño?

Posible vía de solución 1: el yo como sujeto de la consciencia es una trampa del lenguaje. Una muestra de ello: extrapolamos la gramática a la realidad sin justificación. Como toda oración tiene un sujeto, sostenemos que debe existir un sujeto de las sensaciones consientes. Quizá sí es posible que existan sensaciones sin sujeto, si bien nos sigue pareciendo una idea extraña y poco intuitiva (¿un dolor de muelas que no le duela a nadie?). En esta línea está el trabajo de Gilbert Ryle y de su discípulo Dan Dennett, quienes llegan a negar la existencia de la propia consciencia.

Posible vía de solución 2: podríamos aceptar que si bien no existe un yo como agente causal de nuestra conducta, que no es individual y que no es libre, sí que existe en cuanto a sujeto paciente de la consciencia. No obstante, me parece una solución poco elegante, fea.

 

Mensaje antiplatónico par excellence: no existe nada que esencial, o lógicamente, ligue un hecho ético (o, más bien, la interpretación ética de un hecho) del mundo y un estado emocional placentero.  A partir del descubrimiento de las sustancias psicoactivas, nos dimos cuenta de que para conseguir una sensación o emoción no es necesaria la presencia de tal hecho o, ni siquiera, del estado mental que lo preceda y lo cause.  La alegría que hubiéramos obtenido si nos hubiera tocado la lotería de Navidad, podemos conseguirla, e incluso intensificarla, ingiriendo un compuesto de prosaicas moléculas, sin que, realmente, nos toque ni un céntimo. Es más, con una calculada dosis, ya no diremos de la brutal etorfina, sino de fentanilo (peligrosísima) o de oxicodona, podrías sonreír de un indescriptible placer mientras te corto un brazo.

Este descubrimiento tiene unas consecuencias brutales. La mayor parte de las concepciones de la ética dadas a lo largo de la historia (con la honrosísima excepción de la genial ética kantiana) prometían un estado final de felicidad, a condición de seguir una serie de, a menudo muy duros, preceptos. La ataraxia griega, el nirvana budista o la visión deifica cristiana, son estados, en gran medida emocionales, que se obtienen después de  un largo proceso que, a menudo, puede durar toda una vida. El sentido de tu existencia, lo que debes hacer día a día, está sujeto a la obtención de ese premio final. Sin embargo, llegamos a día de hoy y conseguimos el premio sin el arduo proceso.

Se podría objetar que ese estado de felicidad artificial, ese paraíso químico, sería falso, un disfraz conseguido haciendo trampas, algo inauténtico, postizo ¿Por qué? Esta objeción encierra una confusión: la emoción que se consigue al ingerir un psicotrópico no tiene absolutamente nada de falso, es tan real como la conseguida sin la ingesta. Lo falso, o más bien lo ausente, es el suceso generador de la emoción, no la emoción misma.

Se sigue objetando: pero lo realmente valioso es el camino, no únicamente el resultado. Respondemos: podemos ponderar lo que obtenemos en cada fase del camino y ver si compensa o no perderlo en virtud de conseguir, inmediatamente y sin esfuerzo, el bien final. En algunos ejemplos está claro: pensemos en las millones de personas que se están machacando en el gimnasio por lucir un bonito cuerpo cuando llegue el verano. Si yo les dijera que, puedo conseguirles ese cuerpo deseado sin el más mínimo coste, tomando una pastilla que no tiene efecto secundario alguno… ¿No la tomarían sin dudar? ¿No sería estúpido decir que no, que prefieren sufrir levantando pesas y comiendo brócoli?

Las pocas experiencias que he tenido con drogas duras (con las mal llamadas blandas, como el tabaco o el alcohol, he tenido muchísimas) fueron en mi época universitaria (juventud: bendita idiotez). Recuerdo una noche en la que probé una pastilla de MDMA. Cuando la ingerí estaba ya completamente borracho (si no, seguramente, mi superyó bien aleccionado me hubiera impedido tomarla) pero al cabo de unos treinta minutos mi estado etílico cambio radicalmente hacia algo muy diferente. Sentí una felicidad inmensa, una plenitud absoluta, una comunión total con el cosmos… Todo tenía sentido y todo era completamente maravilloso. Nunca antes había sentido un amor hacia la vida y hacia todos los seres humanos similar. Sinceramente, esas horas de efecto del MDMA han sido las más felices de mi vida (y no soy una persona especialmente desgraciada). Nunca he vuelto a sentir emociones tan agradables con esa intensidad. Y, paradójicamente, eso es lo que me aterró de las drogas y lo que consiguió que, finalmente, no terminará siendo un yonki en cualquier parque. Me dio mucho miedo saber que lo que había tomado era demasiado bueno y comprendí lo brutal que debería ser el reverso tenebroso de algo así. Entendí por qué un yonki de cualquier parque es plenamente consciente de su penosa situación y, aún así, prefiere seguir drogándose a tener una vida. No volví a probarlo.

Sin embargo, de lo que no quedé nada disuadido, es de aceptar el uso de drogas que no tengan efectos secundarios significativos. Sería la utopía del utilitarismo hedonista: una sociedad en la que todo el mundo tenga acceso a la mayor felicidad posible. Es más, lo que sería inmoral sería privar a la gente de unas sensaciones de bienestar semejantes. Y, siguiendo esa lógica, nada parece alejarnos de un futuro en el que el uso de psicotrópicos de diversa índole sea cada vez más usual (de hecho ya lo es). Pero quizá un futuro emocionalmente paradisíaco puede esconder algo, como mínimo, inquietante. Sabemos, desde experimentos realizados en la década de los cincuenta del siglo pasado, que ratas de laboratorio preferían tomar cocaína a comer o a beber, dejándose morir con tal de seguir consumiendo su droga. Y es que los sistemas de recompensa emocional del cerebro tienen un fin evolutivo claro: moverte a actuar para obtener placer o evitar el sufrimiento ¿Qué ocurre entonces cuando no hay sufrimiento y se vive en un estado de placer constante? Que el individuo ya no tiene nada que hacer, que no hay nada que pueda motivar su conducta.

Un futuro así sería como un colosal fumadero de opio en el que miles de sujetos vivirían enchufados a aparatos que les suministraran regularmente la dosis adecuada, quizá siempre durmiendo o, simplemente, ensimismados en hermosísimas ensoñaciones, quizá sin hablar con nadie más (¿para qué las relaciones sociales?) o no, pero, seguramente, sin hacer prácticamente nada: solo lo necesario para mantenerse vivos y drogados. Aquí, si que el tiempo histórico quedaría congelado. No se evolucionaría hacia nada más ya que, esta vez sí, estaríamos ante el auténtico fin de la historia de Fukuyama.

Este futuro utópico, o distópico según se mire, casaría perfectamente con el advenimiento de la singularidad tecnológica de la IA. Si construimos inteligencias artificiales que nos superen abrumadoramente, y si hemos sido lo suficientemente listos para conseguir que no nos exterminen, podría pasar algo así: las máquinas tomarían el mando de la historia y se dedicarían solo Skynet sabe a qué, mientras dejarían a sus venerables, aunque patéticamente inferiores creadores, viviendo en un inofensivo paraíso. Entonces, poseamos superdrogas o no, tendremos que enfrentarnos a algo a lo que nuestro frágil ego humano no está acostumbrado: la irrelevancia ¿Aceptará el hombre perder el protagonismo de su historia? ¿Aceptará perder el mando, aún a sabiendas de estar en mejores manos que en las suyas propias? Sería un caso de interesante dilema moral: ¿libertad o felicidad? La respuesta sería fácil para los drogados: seguir en su paraíso toda la eternidad y que gobiernen otros. La responsabilidad del gobierno trae demasiadas preocupaciones y dolores de cabeza.

O quizá, la historia podría continuar por otros derroteros: es posible que los seres humanos no nos quedásemos del todo quietos, sino que siguiéramos buscando formas de placer aún más poderosas. Quién sabe si pondríamos a la IA a nuestro servicio para conseguir placeres que ahora no alcanzamos ni a imaginar. Pensemos en diseño de cerebros a los que se aumenta su capacidad de sentir, con circuitos de placer hiperdesarrollados, que viven en un mundo de realidad virtual en el que todo está pensado para estimular cascadas de opioides, maravillosas tormentas cerebrales de una potencia inusitada. La historia de la humanidad se convertiría en la búsqueda de paraísos dentro de paraísos.

Pensemos en el mejor sueño que hayamos tenido y pongamos detrás de el a un asistente computerizado que sabe lo que nos gusta mucho mejor que nosotros. Recomiendo ver Más allá de los sueños (1998) de Vincent Ward. La película es mala pero sus efectos visuales (que ganaron un Óscar) pueden ilustrar muy bien a lo que nos referimos: imagina caminar de la mano con una bella mujer (quizá con esa chica que nos gustaba en el instituto y que ya no sabes nada de ella), por el cuadro más hermoso que se te ocurra, mientras escuchamos una increíble sinfonía (la Lacrimosa de Preisner o el Dúo de las flores de Delibes) , a la vez que nuestros centros cerebrales de placer se disparan como fuegos artificiales, haciéndonos sentir una especie de orgasmo infinito… Vivir eternamente en ese día de verano de cuando teníamos doce años y no había nada que hacer, ninguna preocupación, y todo era nuevo…

paisajes-naturales-pinturas-al-oleo-sobre-lienzo_21

Por si alguien no ha leído mi último artículo en Xátaka, va sobre otro posible futuro: precrimen.

Y feliz Navidad máquinas mías.

supercomputer-jpg-650x0_q70_crop-smart

Recomendaciones: Black Mirror: San Junípero (3×04). Este capítulo de la serie nos habla de un futuro no demasiado lejano en el que, al morir, puedes elegir entre fallecer sin más (y probar suerte a ver si existe el paraíso de las religiones) o pasar tu mente a un ordenador y vivir en un paraíso artificial llamado San Junípero (una realidad virtual que representa un bonito pueblo en una playa de California). El capítulo es sublime y quizá escriba un día una entrada dedicada plenamente a él porque la temática lo merece: la posibilidad de un Cielo para ateos, de una eternidad de verdad.

Pero hoy voy a hablar de un tema recurrente en el blog: el minduploading o los problemas filosóficos que hay detrás suyo. La cuestión crucial es: Si mueres y decides ir a San Junípero, ¿serás tú el que realmente estás allí o será una mera copia de ti mismo? Este era exactamente el mismo problema del teletransportador (lo tratamos aquí, aquí y aquí), que remite al viejísimo problema de la identidad personal: ¿qué es lo que realmente hace que yo sea yo mismo y que, por lo tanto, tengo que llevarme necesariamente a San Junípero aunque se me olvide todo lo demás?

El matemático sueco Olle Häggström plantea el asunto de forma original. Supongamos que tenemos una máquina de teletrasportación que me lleva desde mi casa a Nueva York porque tengo allí una importante reunión de trabajo el jueves. ¿Me fiaría de subirme al teletransportador? ¿Sobreviviré al viaje o moriré y una copia de mí mismo ocupará mi lugar? Häggström distingue dos tipos de supervivencia:

σupervivencia: yo σobrevivo hasta el jueves si ese día existe una persona que tiene los mismos rasgos de personalidad, los mismos recuerdos, etcétera, que tengo yo hoy (permitiendo ciertos cambios correspondientes a lo que se considera normal en el transcurso de varios días).

Σupervivencia: yo Σobrevivo hasta el jueves si (a) σobrevivo hasta el jueves, y (b) se mantiene cualquier propiedad necesaria para que el tipo que llega a Nueva York siga siendo realmente yo (en comparación con una copia mía).

Después se pregunta cuál será esa propiedad (la llamaremos Σ) que diferencia los dos tipos de supervivencia. Propone como candidata la CBTST (Continuity of my Body’s Trayectory though Space-Time): yo sigo siendo yo mismo si, en el caso de una teletransportación, mi cuerpo es trasportado de alguna manera del punto de origen al de destino (Téngase en cuenta de que esto sería imposible para San Junípero ya que nuestro cuerpo habría muerto). Supongamos que existe una especie de súpercable que puede transportar todos mis átomos desde mi casa a Nueva York y, allí, el teletransportador reconstruirá por completo mi cuerpo. El teletransporte sería solo “empequeñecerme” para meterme en un cable para luego volver a “agrandarme”.

Sin embargo, la CBTST no convence a Häggström: los átomos no tienen identidad. Si yo cojo ahora mismo y construyo átomo a átomo a otro Santiago absolútamente idéntico a mí: ¿qué hay en cualquiera de los dos que haga que uno sea yo y que otro sea una copia? Si somos materialistas no podemos aceptar nada, y Häggström propone recurrir a la práctica navaja de Ockham: si no encontramos Σ por ningún lado, lo más probable es que no exista Σ. Por lo tanto, σobrevivir es exactamente lo mismo que ∑obrevivir. La teletransportación es segura y San Junípero es posible.

No obstante, creo que Häggström resuelve el tema muy rápido y con demasiada superficialidad. Su solución no resuelve, para nada, el problema del teletransporte no destructivo (que él mismo plantea también unas páginas antes). Supongamos que yo me teletransporto a Nueva York de la siguiente forma: la máquina teletransportadora realiza un súperpreciso escáner de mi cuerpo, después lo destruye, manda la información a Nueva York y allí, siguiendo las instrucciones recibidas, construye un ser idéntico al que había al otro lado. Según Häggström aquí no habría problema alguno: el teletransporte habría sido un éxito y yo seguiría siendo yo mismo (σ es igual a Σ). Sin embargo, ese día ocurre un problema y la máquina encargada de destruir mi cuerpo en el punto de salida se avería, de modo que no lo destruye. Entonces se da el caso de que existen dos santiagos, uno aquí y otro en Nueva York ¿Cuál de ellos soy yo? ¡Los dos! ¡Pero eso es imposible!

Desde mi perspectiva, Σ es la sentience, es decir, la capacidad de sentir en primera persona lo que me pasa. Yo sigo siendo yo mismo si cuando me pellizcan, yo, y ninguna otra persona o copia mía, siente ese dolor.  Pero también creo que esa capacidad es un fenómeno natural tan físico-químico-biológico como la digestión o la circulación de la sangre. Pero entonces, ¿cómo es posible que si hacen una copia idéntica a mí, ésta no tenga también la misma sentience que yo? Mi respuesta es que Σ es físico-químico-biológico pero, es una función, propiedad o proceso que tiene la cualidad de ser personal e intransferible. Es, por así decirlo, de un solo uso. Si creamos una copia, aunque sea idéntica a mí, crearemos sentience, pero una sentience diferente a la mía.

Sería algo así como la ubicación espacial de cada uno. Dos objetos pueden ser exactamente iguales pero su ubicación espacial siempre ha de ser diferente. Igual pasa con Σ: dos personas pueden ser materialmente iguales pero su Σ siempre ha de ser diferente. Si me duelen las muelas solo me duelen a mí y a nadie más. Podríamos hacer que otra persona sintiera exactamente mi mismo dolor de muelas pero, aún así, cada uno sentiría el suyo. No atino a entender cómo podría ser una consciencia global en el que nos fusionásemos todos ya que, precisamente, consciencia y global son dos términos antagónicos. Si todos nos fusionásemos en una consciencia global lo único que ocurriría es que cada una de nuestras individualidades sería absorbida por una consciencia dominante que sería, a fin de cuentas, la única consciencia existente.

Otro ejemplo: pensemos en dos videocámaras materialmente iguales que se ponen a grabar diferentes paisajes. A pesar de ser materialmente idénticas la película que filman es diferente. Pues, sencillamente, ∑ es lo que están grabando. Si yo cojo y hago una copia exacta de una de ellas con toda la película grabada hasta entonces y la pongo de nuevo a grabar, al ser ya la película diferente habría creado un nuevo Σ.

Aunque no es una gran respuesta a nivel explicativo (ya que sigue sin explicar casi nada de lo que es Σ) creo que es esencialmente correcta: salva el naturalismo, sortea el problema del teletransporte no destructivo, y hace lo que toda respuesta filosófica ha de hacer: aportar algo de claridad aunque sea tenue. Eso sí, la conclusión no gustará mucho a los amigos de la AI: no te teletransportes si no quieres morir y San Junípero estará lleno de tristes copias de muertos.

Tal como sugirió Bacon con sus ídolos de la tribu, la maquinaria humana de reconocimiento de patrones tiende a dispararse en exceso, lo cual conlleva que creamos ver patrones en lo que en realidad es simple ruido. Hay un famoso experimento en el que este fenómeno produce el divertido resultado de que los sujetos humanos suelen rendir peor que las palomas y las ratas al afrontar la misma tarea. Al sujeto se le muestran dos lámparas, una roja y otra verde. A intervalos regulares, una de ellas se enciende y a los sujetos se les pide que predigan qué lámpara se encenderá a continuación. No se les informa sobre ningún mecanismo subyacente a la secuencia de encendidos de la lámpara roja y de la verde, pero lo cierto es que se encienden al azar, con un 0,8 de probabilidad para la roja frente a un 0,2 para la verde, independientemente de lo que haya sucedido antes. Los sujetos humanos observan la asimetría, intentan imitar el intrincado patrón de las luces, y predicen que la lámpara roja se enciende el 80% de las veces y la verde el 20% restante. De este modo acaban averiguando el correcto encendido aproximadamente 0,8 . 0,8 + 0,2 . 0,2 = 68% de las veces. Los animales más simples rápidamente averiguan cuál es la que se enciende con más frecuencia, con lo que aciertan un 80% de las veces. Ver, por ejemplo, Hinson y Staddon (1983), y Wolford, Miller y Gazzaniga (2000).

Häggström, Olle. Aquí hay dragones

Bacon tenía toda la razón del mundo: la metafísica tradicional tendió a ver en la realidad muchísimo más de lo que en ella había. La navaja de Ockham y el tenedor de Hume fueron una buena terapia aunque, parece ser que todavía no lo suficiente. Seamos humildes y aceptemos nuestro papel de intentar, al menos, ser unos buenos escépticos.

Véase, por supuesto, la superstición en las palomas de Skinner.

ramanujan

El caso de Ramanujan es milagroso. A parte de sobrevivir a la viruela, de no morir a los pocos meses de edad como su hermano, y de criarse en el sistema educativo indio de finales del siglo XIX, es decir, de ser prácticamente autodidacta, pudo realizar grandísimas aportaciones a las matemáticas. Eso sí, la tuberculosis lo mató a los 32 años de edad ¿Quién sabe qué hubiera llegado a descubrir con una vida sana y longeva? ¿Cuántos genios de este tipo se han perdido a lo largo de la historia de la humanidad?

Hemos trabajado siempre con un concepto de inteligencia individual. La inteligencia, sea una o sean muchas, siempre es algo propio de un solo individuo. Cuando alguien nos hablaba de inteligencia global o colectiva ya miramos con recelo, pensando en que pronto vendrá un “espíritu universal”, una “consciencia colectiva” o la, tanta veces mencionada, superinteligencia que emergerá de Internet. Cambiemos el chip.

Definimos inteligencia de un modo muy simple: capacidad de resolver problemas. Un individuo, organismo, máquina, sociedad, época, nación (en definitiva, un sistema), será más inteligente que otra si es capaz de resolver un mayor número de problemas, si lo hace en menos tiempo, o si los que resuelve son más complejos. Con esta definición ampliamos la inteligencia de lo individual a lo colectivo sin tener que hablar de una “mente” o “alma” colectiva. Hacerlo así nos puede servir como un parámetro de medida muy ilustrativo para elaborar estrategias políticas de amplio calado.

Empecemos hoy a nivel puramente cuantitativo: una sociedad con más individuos con un promedio de inteligencia similar, tiene más inteligencia colectiva que otra con menos. Otros factores como la capacidad de coordinación, sincronización o comunicación serían también fundamentales, pero ahora los pasaremos por alto (Pensemos que una sociedad con 1.000 individuos en la que cada uno va por su lado y no se comunica con los otros tendría la misma inteligencia colectiva que una sociedad formada por un solo individuo). Según ciertas estimaciones en el Paleolítico Inferior vivían en el planeta unos 125.000 seres humanos. Si en tiempos del Imperio Romano llegamos a los 150 millones, la población se había multiplicado por mil, por lo que su inteligencia colectiva sería tres órdenes de magnitud mayor. Si nos vamos a la actualidad, con unos 7.000 millones de habitantes, nuestra población es 52.000 veces la del Paleolítico y 47 veces la del Imperio Romano. A nivel, meramente cualitativo, para un hombre prehistórico que contemplara una de nuestras urbes todo sería radicalmente incomprensible, una verdadera singularidad.

Otro cálculo. Estimemos que la posibilidad de que surja un genio universal de la talla de Aristóteles o Newton es de una por cada diez millones de habitantes. Supongamos también que la presencia de estos hombres extraordinarios representa un gran pico en la gráfica de la progresión de la inteligencia, por lo que, igualmente, su mera presencia es un indicador del grado de inteligencia colectiva de una sociedad. Entonces en la actualidad puede haber unos setecientos genios entre nosotros mientras que en largas épocas del Paleolítico es posible que no viviera ninguno. Dos ideas:

  1. Esto advierte sobre la importancia de detectar y aprovechar la llegada de estos talentos. En nuestro sistema educativo no hay prácticamente nada al respecto y, en la actualidad (y casi desde siempre) nuestros mejores cerebros se van al extranjero. La pérdida de capital humano pasará factura. No sé cuánto hace falta para entender lo que se ha dicho tantas veces: no es que los países ricos inviertan en ciencia, es que, precisamente, son ricos porque invierten en ciencia.
  2. Uno de los problemas de salud pública más graves que sufre Tercer Mundo es la carencia de yodo (unos mil millones de personas afectadas a lo largo de unos ochenta países). Los suelos de estos países apenas tienen este mineral debido al arrastre de las últimas glaciaciones, por lo que agua, vegetales y animales (toda la cadena trófica) sufre la carencia. Esta falta produce cretinismo (aparte de bocio y enanismo), que conlleva, entre sus lamentables síntomas, una pérdida de entre diez y quince puntos de CI. La merma de inteligencia colectiva es brutal, cuando la fácil solución está en la barata sal común. Existen ya muchos programas para combatir el problema con bastante éxito, pero es muy triste que se haya tardado tanto y que todavía no se haya erradicado por completo.
  3. De los 7.000 millones de seres humanos, unos 1.300 son indios y otros casi 1.400 son chinos. Es decir, más de un tercio de la población mundial vive en esos dos países.  Si a India y China le sumamos África con más de 1.100 millones, ya tenemos más de la mitad de los habitantes del mundo. Europa (780 millones), Estados Unidos (320), Japón (127), suman 1.227 millones, menos de un 20% de la población total. Si suponemos que solo estos últimos países podrían sacar partido a los genios que en ellos nacieran, si tenemos setecientos genios, solo un 20% de ellos podría tener acceso a una educación (o, sencillamente, a tener una esperanza de vida razonable), es decir, solo ciento cuarenta… ¡Estamos perdiendo al 80% de los genios que nacen en la Tierra!
  4. Y estamos hablando de la actualidad, cuando el rápido ascenso de China e India terminará por dar oportunidades al talento, pero si nos vamos al pasado, cuando ni el Primer Mundo podía garantizar el aprovechamiento de la inteligencia… la pérdida sería mucho más acusada. Pensemos en que para que un alto intelecto pudiera hacer grandes aportaciones a la humanidad tenían que darse una serie de difíciles casualidades: sobrevivir hasta la edad adulta, recibir una educación (a falta de sistemas públicos, tener la inmensa suerte de nacer en una familia acomodada), o vivir en una cultura que premiara la innovación o, al menos, que no castigara las nuevas ideas (difícil, teniendo en cuenta que gran parte de las culturas han sido fuertemente tradicionales). Revisando nuestra historia no cabe duda de que hemos sido tremendamente ineficientes aprovechando nuestra inteligencia.

electroencefalograma

A día de hoy, la mejor teoría acerca de la naturaleza de la consciencia se la debemos al neurocientífico italiano Giulio Tononi, partiendo de la base de la teoría del núcleo dinámico (elaborada junto a Gerald Edelman en los años noventa) y teniendo continuadores y defensores en el norteamericano Christof Koch o en el matemático Adam Barrett. A priori, la teoría es simple: todo sistema lo suficientemente complejo para integrar información será consciente. La cantidad o cualidad de la experiencia consciente dependerá de la cantidad de información que el sistema sea capaz de integrar.

La teoría de la información integrada (TII) baila entre dos polos:

  1. La enorme riqueza informacional (cantidad y variedad) de la experiencia consciente. No solo percibimos en distintas modalidades sensoriales (vista, oído, tacto, interocepción…), sino que la cantidad de estímulos sensoriales de cualquier experiencia sensible es muy alta. Quite el lector la vista de la pantalla, mire a su alrededor y compruebe la maravillosa variedad de formas y tonalidades de color que puede percibir (y no solo las que percibe actualmente, sino las que potencialmente puede llegar a percibir). A nivel más técnico, Tononi define información como una propagación causal dentro de un sistema, capaz de reducir la incertidumbre (en el fondo, es la misma que la clásica de Shannon). Sin embargo la riqueza informacional es condición necesaria pero no suficiente para la experiencia consciente. En su famoso paper “Consciousness: Here, There but Not Everywhere”Koch y Tononi ponen el ejemplo de un electrodiodo que es capaz de capar la presencia o ausencia de luz. Tendría solo dos bits, dos estados informacionales. Aunque hiciéramos una enorme malla con miles de fotodiodos de modo que subiéramos mucho la cantidad de información recibida, esa malla seguiría siendo totalmente inconsciente. La TII pretende mejorar el antiintuitivo panpsiquismo (o pampsiquismo) quedándose solo con lo mejor de él. Hace falta algo más para la consciencia.
  2. Toda experiencia consciente se nos presenta como información integrada. Esta es la clave. Mi experiencia consciente sintetiza información, hace de ella un todo unificado y coherente, de modo que adquiere cierto grado de irreductibilidad, de no divisibilidad en partes. Según Koch, la consciencia emerge de esta integración, no siendo reductible a lo estrictamente material: el todo es mayor que la suma de las partes. Estamos ante el clásico emergentismo: la cantidad de información genera una sinergia que fortalece la experiencia consciente.

Además, la virtud de la TII es que va acompañada de su correspondiente teoría matemática. Aplicando la teoría de la información podemos calcular la cantidad de integración informacional de un sistema. Es lo que Tononi llama el número Φ (no confundir con el número áureo). Integración no equivale únicamente a conectividad. Pensemos, por ejemplo, en un montón de fibras musculares trabajando al unísono para contraer un músculo. El sistema muscular tendría un número phi bajo a pesar de estar muy interconectado porque sincronización no es igual a integración (esto explicaría porqué cuando alguien tiene un ataque epiléptico y sus neuronas se sincronizan masivamente no da lugar a un estado de hiperconsciencia). Integración consiste en un equilibrio entre síntesis y especialización, tal y como ocurre en nuestro cerebro: muchos módulos especializados que confluyen en una información integrada.

Y, mejor aún, ciertas evidencias científicas apuntan a que la TII puede ser correcta. Por ejemplo, ciertas observaciones en pacientes anestesiados parecen indicar que lo que causa el estado de inconsciencia no es que disminuya la actividad neuronal en ciertas partes del cerebro, sino que se corte la comunicación entre el tálamo y la corteza (se interrumpan o desintegren ciertos circuitos talamocorticales). Esto es lo que predice la TII: cuanto más fragmentes menos consciencia. En un famoso estudio de 2009, el equipo de Tononi estimuló magnéticamente ciertas áreas cerebrales de sujetos experimentales, de modo que activaban dichas áreas produciendo una reverberación que se propagaba, creando una reacción en cadena de activaciones en muchas otras neuronas. Después, sedó a los sujetos y volvió a estimularlos de manera similar. La reverberación fue mucho menor: alcanzó a menos áreas, propagó un patrón mucho menos complejo y su duración fue menor.

Crítica:

  1. Creo que no está suficientemente bien definido el concepto de integración sensorial ¿Qué es lo que realmente hay de indivisible en nuestra experiencia consciente? Aunque se me presente muy  unificada, sí que puedo dividirla. De hecho este fue el proyecto de la escuela psicológica estructuralista. Si bien es cierto que todo en la experiencia sensible no es reductible a la suma de sus partes (como bien sostuvo la Gestalt), sí que hay muchos elementos sensibles perfectamente divisibles: puedo dividir las modalidades sensoriales y, dentro de ellas, igualmente, puedo dividir y clasificar la multiplicidad de formas, colores, olores, sabores… Realmente no hay tanta irreductibilidad.
  2. La TII adolece de los mismos problemas que el emergentismo: explica bien poco. No hay ninguna explicación de cómo el cerebro integra esa información (binding problem) ni de los procesos biológicos-físico-químicos que generan la experiencia consciente. Claro que esto sería pedir mucho dado el estado actual del arte.
  3. No se explica por qué ni cómo integración es igual a experiencia consciente. No sé por qué si un sistema integra información ya es consciente y si no integra no lo es. Puedo aceptar que en muchas experiencias conscientes se integra información pero no entiendo por qué una información no integrada no pueda ser consciente. Pensemos que estamos en una cámara de privación sensorial en la que no percibimos prácticamente nada. De pronto escuchamos un simple sonido, un fonema o una simple nota musical. Tendríamos un único sonido no integrado y seríamos perfectamente conscientes de él. Lo que sabemos es que la integración suele acompañar a muchas experiencias conscientes, pero no tenemos claro si es condición necesaria para la consciencia.
  4. La dificultad de calcular Φ en sistemas tan complejos como el cerebro humano es, a día de hoy, misión imposible. La cantidad de variables es astronómica, incluso para la Caenorhabditis elegans, con apenas 302 células nerviosas. El grupo de Tononi ha propuesto como estimador (a la espera de algo mejor) el índice de complejidad perturbacional (PCI) que surge de estimular magnéticamente el cerebro (EMT) de un individuo y ver su respuesta en el encefalograma. Si el sujeto está haciendo una operación consciente, la respuesta es mucho más compleja a nivel informacional  que si el sujeto está dormido o anestesiado.

En general, y tal y como he comenzado el artículo, creo que la TII es la mejor teoría de la que disponemos a día de hoy sobre lo que puede ser la consciencia, lo cual no significa ni que sea correcta ni que carezca de serios problemas. Es buena en que parece encajar bien con la evidencia disponible (y en que es más o menos falsable) y en que apunta a solucionar viejos problemas con respecto al panpsiquismo (no todo va a ser consciente), se lleva bien con el emergentismo (aunque adolece de sus mismos problemas), y no tiene dilema alguno con la IA (en principio, no hay ningún problema en construir una máquina que sea capaz de integrar información). Es un intento muy loable en un campo de estudio muy difícil.