Archivos de la categoría ‘Filosofía de la mente’

El neurocientífico Mel Goodale realizó una serie de experimentos muy sugerentes. En la imagen vemos la famosa ilusión óptica de Ebbinghaus (también conocida con el nombre de ilusión de Titchener). Ambos círculos centrales son idénticos pero ante nuestra consciencia aparecen diferentes. Esto sirve para demostrar cómo el contexto influye drásticamente en nuestra forma de percibir cualquier objeto. En el experimento de Goodale se ponían unos discos de, aproximadamente, el tamaño de una ficha de poker como círculos centrales. Entonces, después de preguntar a los sujetos experimentales qué disco se veía más grande y comprobar que fallaban, cayendo en la ilusión de Ebbinghaus, se les pedía que cogieran ambos discos. Mediante un dispositivo optoelectrónico se medía la apertura entre el pulgar y el índice antes de coger la ficha. Sorprendentemente, se comprobó que la distancia era similar para ambos discos, es decir, que a pesar de que el sujeto consciente percibía los discos de diferente tamaño… ¡La mano actuaba como si fueran iguales! A pesar de que mi yo consciente era engañado, algo inconsciente dentro de mí no lo era.

Este experimento se suma a la perspectiva de los ya clásicos de visión ciega, o de cerebro escindido, que no hacen más que subrayar una idea: estamos repletos de mecanismos inconscientes que actúan, como mínimo, sin nuestro permiso. A mí me gusta decir que dentro de mí tengo otro yo, una especie de «perro fiel» o de «ángel de la guarda», un «dispuesto mayordomo» que hace las cosas por mí cuando yo no estoy pendiente. Es el que, con notable habilidad he de decir, sabe en qué posición está cada letra del teclado cuando estoy escribiendo estas líneas con cierta velocidad. Si paro de escribir y me pongo a pensar dónde está la «t» o la «v» o, al lado de que otras letras están, sencillamente, no lo sé, o, al menos, no lo sé con la suficiente exactitud como lo saben mis dedos al teclear. Es mi otro yo el que se quedó con la copla en mis pesadas clases de mecanografía a las que mi yo consciente odiaba ir, y ahora está rentabilizando aquella penosa inversión de mis padres. Pero no solo me ayuda a teclear, también es el que trae las palabras y, de alguna manera, las coloca. Cuando escribo no tengo que pensar la concordancia de género y número entre el sujeto y el adjetivo, ni pensar en el tiempo verbal adecuado… ¡No tengo que saber nada de gramática! Es mi otro yo el que se encarga de todo. Es como si fuera una secretaria a la que le estoy dictando una carta, pero no se la dicto literalmente, sino que le digo las ideas que quiero expresar y ella se encarga de transcribirlas a texto ¿No os ha pasado tantas veces que quieres decir algo pero no sabes como expresarlo? Tu yo consciente tiene una idea pero aquí tu otro yo no sabe cómo expresarla. Aquí tienes que ayudarle.

Aunque suene muy friki, llamaré a mi otro yo «Chuck».

Es psicológicamente reconfortante. Cuando estoy muy nervioso porque tengo que afrontar alguna adversidad, siento que no estoy solo, que tengo otro conmigo que, además, es bueno donde yo no lo soy. Chuck va a encargarse de las cosas pesadas para dejarme a mí libre. Parpadea cuando mis ojos se secan, respira, quita la mano cuando me quemo, me rasca, controla la dirección, los pedales y las marchas del coche mientras yo discuto con mi mujer, controla la posición de mi cuerpo y la tensión de mis músculos mientras camino, pone la lengua en los distintos lugares de mi boca para ejecutar los gráciles sonidos que emito al hablar… ¡Hace muchísimas cosas!

Podemos también entenderlo como nuestra intuición, esa corazonada que nos dice que no nos fiemos de tal persona aunque no existan razones objetivas para hacerlo. O lo contrario, Chuck es quien hace que nos guste estar con esa otra… ¿No será él quién nos dice de quién nos enamoramos? ¿No será él quién sabe hacer una lectura de la calidad genética de otra persona y lanza las flechas de Cupido en esa dirección?

En ocasiones, cuando estoy dando una clase que ya he impartido infinidad de veces, soy capaz de dejarle parcialmente el control. Mientras estoy explicando en la pizarra la metafísica cartesiana por quincuagésima vez, puedo pasarle a Chuck el micrófono mental y que sea él el que continúe con la clase mientras yo pienso en otras cosas. No obstante, he de reconocer que solo lo consigo durante breves lapsos de tiempo, y que tengo que volver al volante enseguida. Chuck puede decir cosas de memoria, pero cuando hay que hilar una argumentación se pierde enseguida.

En el capítulo cuarto de la sexta temporada de la maravillosa Rick y Morty (serie que recomiendo encarecidamente, tengas la edad que tengas comprobarás que es una obra de arte), Rick trae consigo un sonambulizador: un aparato en el que programas por el día a tu yo nocturno, a Chuck, para que «se despierte» mientras tú duermes y haga la tarea que tú le encomiendes. Rick lo programa para hacer abdominales y así, sin ningún tipo de esfuerzo consciente, Rick goza de una marcada tableta de chocolate. Así, el yo nocturno de Summer estudia inglés, el de Beth práctica la trompeta, y el de Jerry, idea genial donde las hubiere, se cartea con su yo diurno ¡Imaginad las posibilidades! ¡Se acabó el coñazo de salir a correr y de ir al gimnasio! ¡Se acabó estudiar para los exámenes! ¡Se acabó limpiar la casa, ordenar el cuarto, poner la lavadora! ¡Todo se lo encargamos a nuestros yo nocturnos! Lo maravilloso del capítulo es que los esclavos pronto dejarán de serlo…

Desgraciadamente no existe nada parecido y los intentos de hipnopedia, tan bien narrados por Huxley en su Mundo Feliz, han fracasado. Por mucho que, mientras duermes, te pongas los auriculares y te repitas en bucle una grabación del tema de historia que cae para el examen , ni tu Chuck ni tú os quedaréis con nada. No funciona. Pero imagina las posibilidades de investigación: ¿y si consiguiéramos encontrar la forma de comunicarnos con nuestros chucks? ¿Y si consiguiéramos hackear a nuestro yo consciente para acceder directamente a nuestro otro yo? Ya se ha hecho. Se llama publicidad (o si quieres ser más cool llámalo neuromarketing). Sí, qué le vamos a hacer, pero es Chuck quien tiene más peso a la hora de comprar en Amazon y, obviamente, Jeff Bezos lo sabe desde hace más de un siglo.

A veces pienso, ¿y si Chuck fuera consciente también? O, rizando el rizo un poco más, ¿y si yo soy el Chuck de otra consciencia? Quizá Chuck piensa que no hay nadie más, que él es el que en el fondo manda, y que yo soy solo el inconsciente que le ayuda. O quizá Chuck y yo somos solo dos de un montón más ¿Y si mi cuerpo fueran un montón de yoes conscientes que viven con la ilusión de ser los únicos?

Pensemos que el modus operandi de evolución darwiniana en el ser humano consiste en ir, poco a poco, automatizando las tareas que hacemos con suficiente eficacia. Por ejemplo, nuestra digestión o nuestro sistema inmunitario funcionan excelentemente bien sin ningún control consciente (Sería sugerente pensar en la posibilidad de que pudiésemos controlar nuestro sistema defensivo. Molaría mucho poder decir: ¡Linfocitos! ¡En sus posiciones! ¡Ahora!¡Al ataqueeeee!). Imaginemos que, poco a poco, vamos perdiendo más y más este control porque Chuck se va haciendo más sofisticado realizando más y más labores. Cada vez que aprende a realizar bien un cometido, éste se apaga para el consciente, desaparece. Entonces, pensemos en que, muy poco a poco, quizá durante miles y miles de años, van desapareciendo más y más cosas ¡Dios mío! ¿Se terminaría por apagar la luz de la consciencia del mundo y solo quedarían zombis chalmerianos? No, especulemos (salvajemente) con la idea de que nuestra esfera consciente no disminuye sino que permanece del mismo tamaño. Lo que ocurriría es que sus contenidos se alejarían cada vez más de la realidad cotidiana para centrarse más en sus propios contenidos. Se abandonaría el mundo físico para encerrarse (o abrirse según como se mire) a un mundo puramente mental, a una noosfera, a una región de lejanos ecos de lo que fue lo real que se han ido mezclando entre sí, generando ideas, representaciones, significados nuevos, que ya solo tendrían sentido dentro de ese espacio… de ese lugar que sería puro símbolo, puro sentido sin referencia. Y quizá llegaría un momento en que el hombre no recordara haber estado nunca en la realidad, y seguirá descubriendo y adentrándose cada vez más profundamente ese universo cuasi onírico… ¡Vaya viaje! Esto da para dos o tres relatos de ciencia ficción.

Me parece muy apropiado entender el cerebro como una caja de herramientas, una más o menos ordenada amalgama de recetas, atajos, heurísticas, fórmulas variadas, fruto tanto de eones de evolución como de una increíble capacidad de adaptación y aprendizaje cultural. Así, repetimos continuamente patrones conductuales en virtud de su eficacia: repetimos el chiste que vimos que hacía gracia, contamos la anécdota que sabemos que suele gustar, realizamos cualquier tarea laboral siguiendo la forma que pensamos más eficiente o que aprendimos de otro más experimentado, utilizamos recetas de cocina (definición de algoritmo par excelence), refranes o chascarrillos, modas de vestir; leemos índices, etiquetas, prospectos; y juzgamos mediante chismorreos, prejuicios, estereotipos, prototipos, ejemplos… y así vamos poblando el mundo de dispositivos cognitivos como si se tratara de una realidad extendida.

Cuando voy por el bosque y me encuentro con el tronco de un árbol caído no solo veo sus colores y formas, sino mucho más: veo un obstáculo que tengo que sortear en virtud de un recorrido a seguir, y recurro a diversos planes y posibilidades que ya han sido filtrados previamente: no pierdo el tiempo pensando en que podría quitar el tronco disparándole unos misiles o aplastarlo con una apisonadora, sino que solo pienso en posibilidades eficientes: puedo rodear el tronco o saltarlo. Como no es muy grande en comparación con mi cuerpo (tengo incorporado un mapa de mi anatomía y de sus proporciones que puedo comparar rápidamente con las de cualquier otro objeto), decido que puedo saltarlo y, al hacerlo, elijo una cierta ejecución de movimientos ya aprendida mucho tiempo atrás: apoyo mi mano izquierda en el tronco como punto de apoyo para saltar. Todo ha ocurrido de forma muy rápida, casi automática. No he necesitado ningún complejo proceso de deliberación consciente, es más, mientras saltaba mi atención consciente estaba centrada en que tengo que acabar la travesía rápido antes de que haga de noche y baje mucho la temperatura. La tarea era tan fácil debido a las herramientas con las que cuento, que podía hacerla pensando en otra cosa. ¿No puedo ir conduciendo, escuchando la radio y pensando en la guerra de Ucrania a la vez?

Si pasamos del marco de la vida práctica al de la teórica, igualmente me gusta considerar nuestros conocimientos y habilidades cognitivas como herramientas, como prótesis cognitivas (que decía Zamora Bonilla en su Sacando consecuencias) que te permiten pensar determinadas cosas o de una determinada manera tal que sin ellas no podrías. Así, uno va construyendo su mente como quien va equipando una navaja suiza con diferentes tipos de herramienta (navaja, destornillador, llave inglesa, sacacorchos…), y con ello va enriqueciendo la realidad. Es posible que tengas conocimientos de botánica y sepas el tipo de árbol al que pertenece el tronco, así como el de la vegetación de alrededor. Ya no ves solo «plantas», sino pinos, encinas, retamas, jaras, lavandas, tomillos… También podrías pensar en los diferentes niveles tróficos del bosque o en los distintos flujos y ciclos energéticos y químicos que lo atraviesan. Así, la realidad que te envuelve se enriquece notoriamente. Comenzarías a ver fotosíntesis, competencia darwiniana por la luz, transportes hidráulicos de savia, rutas metabólicas, ciclos de agua o carbono, hongos y bacterias degradando materia orgánica en los suelos, etc, etc.

También es posible que el tronco que saltastes te recuerde a uno dibujado en un cuadro de Caspar Friedrich y que ese recuerdo te haga comparar el bosque con los paisajes de la pintura romántica. Estarás usando otro artefacto para interpretar la realidad: una perspectiva estética. Y eso te podría llevar a pensar en el bosque como un ser vivo, como una totalidad orgánica en constante evolución… y quizá aquí vieras la voluntad de vivir de Schopenhauer o el espíritu absoluto de Hegel desplegándose. O todo lo contrario: quizá te fijes en el juego de palancas y planos, de fuerzas y contrafuerzas que ha hecho tu cuerpo al saltar el tronco y entiendas el mundo como una gran maquinaria física al estilo de Spinoza o Newton.

El bosque, en principio plano y anodino, se ha llenado de multitud de entidades, se ha poblado y enriquecido, ha sido habitado por una mente humana. Pensemos ahora en un pobre ignorante, alguien que no sabe nada de nada y que entra en una catedral. Las catedrales son uno de los lugares más enriquecibles que existen: están completamente llenos de disposiciones para pensar, de cerraduras para llaves cognitivas. Pero el ignorante no tiene ninguna llave, ningún dispositivo para utilizar aquí. Se aburre y se va, la catedral le ha sido completamente asignificativa, como un idioma escrito en extraños caracteres. Lamentable: el ignorante vive en un mundo muy pequeño y todo le es ajeno. Recuerdo, cuando estudiaba en la universidad de Salamanca, un amigo mío se echó una novia inglesa. Un día, su padre vino de la Pérfida Albión a visitarla. Mi amigo les organizó una visita turística por la ciudad. Curiosamente, al padre no le gustó mucho Salamanca y quedó muy poco impresionado por la fachada plateresca de la universidad o por el Art Noveau de la Casa Lis. Por lo visto, el hombre era ingeniero, y repetía constantemente que esas edificaciones eran fácilmente construibles con la tecnología actual. Una pena: vivía solo en una perspectiva, solo tenía una herramienta en su navaja suiza, y todo lo veía a través de esas lentes. Es la triste mirada única que tanto abunda.

Por eso, cuando algún imbécil, cuando algún ignorante que vive en un mundo minúsculo, afirma que aprender tal o cual dato, tal o cual idea, que se aleja de la inmediatez de la vida práctica, es solo culturilla general, se me parte el alma. Efectivamente, el ingeniero británico entendía que la grandiosidad cultural de Salamanca era tan solo culturilla general, información que solo vale para ganar al Trivial, pero poco más. Así vino y se fue sin nada. Estoy seguro que, años después, no recordaría prácticamente nada de su viaje. Y, aunque entiendo que esto sería prejuzgarlo demasiado, apostaría a que el día antes de su muerte, si hiciera recuento de su viaje por la vida, tampoco se llevaría demasiado al otro mundo. Maletas siempre muy vacías. Vidas lúgubres.

Voy aquí a inaugurar aquí una serie de entradas en el blog en la que expondré listas de dispositivos cognitivos, una serie de teorías, conceptos, ideas, expresiones, palabras que han enriquecido mi mundo, que me han resultado muy útiles para intentar describir o comprender muchos fenómenos o que, sencillamente, me parecen literariamente atractivos, ingeniosos o bellos. Obviamente, serán solo una infinitésima parte de los que he usado a lo largo de mi vida, principalmente porque son incontables (quizá porque lo son todo en nuestra vida mental), porque muchos otros son inconscientes y porque otros tantos los he olvidado.

Aquí vamos con diez:

Disonancia cognitiva de Leon Festinger: cuando una creencia es incoherente con nuestra forma de actuar, es más fácil cambiar la creencia que la conducta. El ejemplo clásico es el del fumador: cuando el médico le dice que fumar es muy malo para su salud, en vez de dejar de fumar, afirma cosas como «Mi abuelo fumó dos cajetillas diarias durante toda su vida y vivió más de noventa años. Fumar no será tan malo». Esta estrategia se combina muy bien con el sesgo de confirmación: el fumador intentará evitar toda información negativa con respecto al tabaco y hará mucho caso a la que sea positiva. La disonancia cognitiva es la versión cognitivista de la racionalización como mecanismo de defensa freudiano, y es nuestras sociedades creo que es causa de mucha infelicidad, llegando, en algunos casos, a lo que se ha denominado bovarismo.

Bovarismo de Jules de Gaultier: En la famosa novela de Flaubert, la bella Emma siente una profunda insatisfacción al llevar una vida que no coincide con lo que ella esperaba. Su marido le decepciona y la vida en el campo es aburrida, nada que ver con las excitantes y apasionadas novelas románticas que lee asiduamente. Emma intenta suplir esa insatisfacción a través de amantes y de consumismo, lo que, al final, causará su perdición. Gaultier define el «bovarismo» como esa insatisfacción crónica cuando uno compara lo que hubiese querido ser con lo que realmente es, cuando compara la realidad con los sueños, ilusiones o pretensiones que tenía para su vida. ¿Es ésta la enfermedad de nuestro tiempo?

Estímulo supernormal de Nikolaas Tinbergen: es un tipo de estímulo que simula a otro exagerando mucho una de sus calidades, de modo que el organismo que lo percibe responde con mucha más fuerza de lo normal. Tinbergen, un ornitólogo holandés, ha estudiado multitud de ejemplos de estímulos supernormales en aves. Con este concepto podría explicarse el éxito de cosas como la comida basura, el porno o los programas de cotilleo (¿la música, o algunos tipos de música quizá?). Es la forma de explicar lo excesivo, como un instinto básico, primitivo e innato que se amplifica y se explota.

Sistema 1 y sistema 2 de Kahneman y Tversky. Utilizamos dos sistemas para pensar: el 1 es rápido, automático, emocional, subconsciente, estereotipado, etc; y el 2 es lento, costoso, lógico, calculador, flexible, creativo, consciente, etc. Parece una distinción muy simple, casi de sentido común, pero tiene un gran poder explicativo. Si examinas tu conducta diaria a partir de estos dos sistemas, todo parece explicarse muy bien.

Términos  de narración cinematográfica: viviendo el los tiempos de la imagen en movimiento, conocerlos y ser capaz de extrapolarlos a otros contextos puede ser muy interesante (sobre todo si lo aplicamos al universo de los noticiarios, donde hay más cine que en Hollywood). Algunos que me gustan son: Mcguffin, flash-back (analepsis) y flashforward (prolepsis), efecto Rashomon, racconto, in media res, deus ex machina, voz en off

Non sequitur: escribí en un tweet que me encantaría ir por la calle persiguiendo a la gente gritando  ¡Non sequitur! ¡Non sequitur! Y es que siento un maligno, e infantil, placer cada vez que encuentro alguno. Es una falacia lógica que consiste en sacar una conclusión que no se implica de las premisas de las que parte. Aparece por doquier. En términos generales, disponer de un buen número de falacias informales en nuestra caja de herramientas es algo muy saludable.

Vaca esféricaEscuché esta idea en el magnífico podcast La filosofía no sirve para nada, el cual recomiendo encarecidamente. Surge de un chiste muy malo: tenemos una explotación bovina con una muy baja productividad. Entonces contratan a un equipo de físicos para que examine las causas del problema y busque una solución. Después de meses de investigación, el portavoz de los físicos reúne a los empresarios para explicarles los resultados. Entonces el físico comienza: «Supongamos una vaca esférica…». La moraleja está en que nuestros modelos físicos del mundo son, muchas veces, simplificaciones muy excesivas. Sin embargo, cabe otra lectura: tenemos que simplificar la realidad para quedarnos con lo relevante y eliminar lo accesorio. Nuestros modelos suponen un juego de quitar y poner elementos de la realidad en función de lo que queremos saber o probar. Si eliminamos demasiado tenemos vacas esféricas, pero si no eliminamos nada tenemos una amalgama ininteligible de elementos. Recuerde el lector el cuento Funes el memorioso de Borges, en el que un hombre tenía una memoria tan poderosa que captaba y retenía absolutamente todo, pero eso, lejos de ser algo afortunado, era una desgracia, ya que le impedía pensar.

Cadit Quaestio: como se ve, me encantan las expresiones latinas que se utilizan todavía en derecho. Ésta, que literalmente traducimos como «la cuestión cae», significa que un determinado problema o pregunta ya ha sido zanjada, que un determinado tema ya no está en cuestión, o que una disputa ya no está en liza. Es una expresión muy útil para terminar una discusión de besugos, esos bucles absurdos en los que quedamos encerrados al discutir ¡Parad ya! O la cuestión está resuelta y no os habéis dado cuenta, o no tiene solución tal y como la planteáis ¡Cadit Quaestio! O también es muy gustosa como medalla, como pequeño premio cuando uno resuelve un problema. Al igual que en matemáticas podemos usar Quod erat demostrandum al terminar una demostración, podemos poner Cadit Quaestio cuando resolvemos una determinada cuestión teórica.

Segundo principio de la termodinámica. Creo que es una de las ideas científicas de más profundo calado. Pensar que todo fluye hacia el desorden, hacia esa entropía total en un universo térmicamente muerto, es de una belleza trágica exquisita. El big RIP como final del cosmos es un golpe en la mesa brutal al orgullo humano, es el memento mori absoluto. Da igual todo lo que hagas en tu vida, toda la herencia que dejes, da igual que te recuerden o no, pues llegará un momento en que no quedará absolutamente nada.

Bucle: una de las cosas que más me gustaron cuando comencé a aprender programación fueron los bucles for, una estructura de control que, sencillamente, repite algo un número determinado de veces. Me parecieron una herramienta muy poderosa porque no solo permitía repetir, sino que al repetir podías introducir variaciones. Por ejemplo, podías hacer que en cada repetición se sumara un número a un valor, por lo que creabas un contador o un acumulador. También podías hacer que el programa corriera a lo largo de un texto en busca en una palabra determinada, creando un indicador.  Pero lo más flipante es que podías meter dentro del bucle cualquier otra instrucción que te permitiera tu lenguaje de programación… Y aquí las posibilidades llegan hasta el infinito. Podías meter incluso bucles dentro de bucles… ¿Y si esa fuera la auténtica estructura de la realidad? ¿Y si el tiempo en el que vivimos no fuera lineal sino cíclico tal y como pensaban griegos y orientales? ¿Y si mi vida no fuera más que repeticiones con variación, que ciclos dentro de ciclos dentro de ciclos…? ¿Y si toda la historia del pensamiento no fuera más que un circulus in demostrando?

  1. Allen Newell y Herbert Simon definieron computadora como un «manipulador simbólico», es decir, como un dispositivo en el que entran unos determinados símbolos que son «manipulados» para obtener unos determinados resultados (que serán nuevos «símbolos»).
  2. «Manipular» es un verbo de un significado tremendamente vago para hablar de lo que una computadora hace con los símbolos, ya que significa, prácticamente, hacer cualquier cosa con algo. Aunque me parece interesante que Newell y Simon no dijeran directamente que la computadora realiza computaciones, es decir, cálculos, con los símbolos, dando a entender que una computadora pretende ser más que una mera máquina de cálculos aritméticos.
  3. «Símbolo» es un término aún más complicado que el anterior, dando lugar a toda una rama de la lingüística a la que denominamos semiótica. Lo definiré de la forma más prosaica que he encontrado en la historia de la filosofía: símbolo es aquello que es capaz de estar en el lugar de otra cosa. Así, cuando yo veo la palabra «perro» escrita en un libro, en mi cerebro recreo la imagen de un perro sin la necesidad de tener un perro delante. La palabra «perro» como símbolo es capaz de ponerse en el lugar de un perro real (Esto no es más que la teoría de la supossitio de Guillermo de Ockham).
  4. ¿Qué «símbolos» manipula una computadora? Si nos vamos al nivel más bajo posible, al nivel más pequeño del hardware encontramos que las computadoras codifican («simbolizan») la información en bits utilizando flujos de corriente eléctrica. Una corriente de, aproximadamente, cinco voltios se va a simbolizar con un «1» y una corriente nula o con muy poquito voltaje se simbolizará con un «0». Nótese que aquí se da una traducción que, como tal, es una falsificación: se pasa de una corriente continua a una clasificación discreta. Digitalizar consiste precisamente en hacer eso, en interpretar lo continuo como si fuera discreto, falsear lo continuo. Ahora, siguiendo a Ockham, en vez de un flujo de voltaje tengo un «1».
  5. Importante ver que la relación entre el símbolo y su referencia no es del todo arbitraria, al contrario que lo que ocurre en nuestro lenguajes ordinarios. La palabra «perro» no se parece en nada a un perro real, pero, a pesar de que un flujo de electrones a un determinado voltaje no se parece en nada a un «1», la dualidad voltaje/no-voltaje tiene similitud con la dualidad 1/0, que pretende significar presencia o ausencia total. Habría, en mucho sentido, no una relación simbólica, sino una relación icónica entre las corrientes eléctricas y la paridad binaria. Esto vuelve más borrosa, si cabe, la distinción entre software y hardware.
  6. Téngase cuidado y piénsese que a nivel ontológico solo siguen existiendo los flujos eléctricos. Los ceros y los unos no existen en ningún lugar del computador más que en la mente del ingeniero. Siguiendo, de nuevo, a Ockham, no multipliquemos los entes sin necesidad. Creo que es muy recomendable intentar atenerse a una ontología materialista sensu stricto cuando se analizan las computadoras porque en este contexto surgen muchos espejismos ontológicos.
  7. Una fantasía muy evocadora consiste en pensar que si pudiésemos conseguir crear un ordenador con una memoria continua en vez de discreta, tendríamos una memoria infinita, ya que algo continuo es infinitamente divisible de forma que siempre podríamos dividirlo otra vez para crear un nuevo espacio de memoria.
  8. Tenemos entonces los símbolos primitivos, los átomos de la computadora ¿Qué tipo de «manipulaciones» hace con ellos el ordenador? Para hacerlo más fácil, pensemos en la versión simplificada par excellence de un ordenador: una máquina de Turing. Ésta solo hace cinco cosas: lee, escribe, borra, mueve la cinta a la derecha o mueve la cinta a la izquierda. Si nos ponemos exquisitos, una máquina de Turing solo cambia cosas de sitio (Véase que la instrucción Mov era una de las esenciales del lenguaje ensamblador). Y esto es lo verdaderamente alucinante: solo cambiando cosas de sitio conseguimos llegar hacer ingenios como ChatGTP o AlphaFold.
  9. Además, como lenguaje solo necesitamos dos tipos de símbolos (0 y 1), ya que podemos traducir todos los números y las letras, es decir, todo símbolo imaginable, a código binario. No hay nada que pueda hacerse con un conjunto de símbolos cualesquiera (pongamos el alfabeto chino) y que no pueda hacerse con código binario. Todo código es bi-reductible.
  10. Por eso, para fabricar un computador, lo único que necesitamos es encontrar, o fabricar, elementos biestables (flip-flop), es decir, cosas que puedan mantenerse de forma razonablemente estable en uno de dos estados posibles.
  11. Recapitulando: solo necesitamos un mecanismo capaz cambiar dos tipos de cosas de sitio para llegar hacer ingenios como ChatGTP o AlhaFold. Es completamente increíble el poder generativo de algo tan sencillo.
  12. En 2007 saltó la noticia de que la máquina de Turing (2,3) era universal, es decir, de que una máquina de Turing de dos estados y tres colores era capaz de realizar cualquier cálculo imaginable. Un chaval de veinte añitos, un tal Alex Smith, había sido el diseñador de la máquina (si bien todavía el asunto es controvertido y, hasta donde yo sé, no ha sido aclarado aún). Adjunto la tesis doctoral de Turlough Neary y un artículo de Yurii Rogozhin por si alguien quiere profundizar en las máquinas de Turing mínimas.
  13. Pero esto nos debe hacer desconfiar de las explicaciones reduccionistas. Reducir lo que es un ordenador a su mínima expresión puede tener cierto valor explicativo pero no es, para nada, toda la historia. Intentar explicar todo lo que es un programa como Windows por ejemplo, únicamente apelando a voltajes y tensiones, sería lo mismo que intentar explicar la literatura de Cervantes solo apelando a los átomos de un ejemplar del Quijote. La mejor explicación aparecerá en niveles intermedios y no en los inferiores.
  14. Los distintos lenguajes de programación que aparecieron progresivamente fueron echando capas simbólicas sobre el hardware. Lo que se pretendía era, sencillamente, hacer más fácil el uso del ordenador al programador. Programar directamente con código binario es un auténtico infierno, por lo que, muy pronto se crearon instrucciones que ejecutaban un conjuntos enteros de procesos y que resultaban más amigables para los pobres ingenieros. Así surgió el ensamblador y demás lenguajes que fueron subiendo más y más de nivel simbólico o de abstracción. Famoso fue COBOL, basado en las ideas de la simpar Grace Murray Hopper, que casi puede entenderse sabiendo inglés. Hoy en día lenguajes como Python son de altísimo nivel, edificios con muchísimas plantas de símbolos, de instrucciones que están en lugar de otras que, a su vez, están en lugar de otras, y así sucesivamente muchísimas veces. El último nivel sería el de la interfaz de usuario, en donde se intenta que una persona sin conocimientos informáticos sea capaz de manejar la computadora.
  15. Esto genera una sensación engañosa de simplicidad. Al usuario le parece que no hay nada entre que pulsa el icono en pantalla y el vídeo empieza a verse. Aquí viene al pelo la famosa frase de Clarke: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Y esto puede ser muy peligroso.
  16. En el famoso argumento de la habitación china, Searle critica que el comportamiento de la máquina siempre es sintáctico y nunca semántico, es decir, que la computadora trata los símbolos no como símbolos sino como «lugares», como cosas que cambia de sitio sin ningún tipo de comprensión de su significado. Eso es verdad y no lo es. Es cierto que la computadora solo cambia cosas de sitio, pero lo hace según unas reglas y esas reglas sí que son semánticas. Por ejemplo, si hacemos un circuito para conseguir una puerta lógica AND, es cierto que la máquina no comprende lo que hace ni sabe lo que es un AND, pero el circuito sí que crea una puerta AND que se comporta, con todas las de la ley, como tal y podrá ser utilizada para esa tarea. Me gusta utilizar la expresión «semántica prestada» para hacer referencia a que toda la semántica se la ha puesto el ingeniero. Ciertamente, tal como dice Searle, la computadora no comprende lo que hace, pero se comporta como si lo hiciera y sus resultados son completamente válidos: las inferencias a partir de la puerta lógica AND son correctas.
  17. ChatGTP no comprende nada de lo que hace y su forma de funcionar mediante modelos de lenguaje basados en semánticas distribuidas es muy estúpida. Sin embargo, su espectacular éxito se debe a lo bien que maneja la semántica que ya encontró en los millones de textos con los que fue entrenado. Si ChatGTP sabe que «Hoy hace un buen día porque…» encaja mejor con «…no llueve» que con «… hace una terrible ventisca», es porque alguien que sí comprendía semánticamente lo que escribía se lo dejó preparado.
  18. Lo interesante viene cuando cualquier programa de procesamiento de lenguaje se encuentra con que tiene que inferir nuevas semánticas a partir de las que ya tiene. Por ejemplo, si sabe que «parachoques» suele llevarse bien con «automóvil», ¿se llevará bien con «helicóptero» o con «barco»? ChatGTP, y sus modelos homólogos, buscan con su colosal fuerza bruta otros casos en los que «parachoques» aparezca junto a «helicóptero» o «barco» pero, ¿y si no aparecieran? Lo salvaje de estos modelos es que casi siempre aparecen de alguna forma, porque tienen en su memoria todo lo que jamás ha sido escrito y, hablando en esos órdenes de magnitud, es muy difícil sorprenderles. La fuerza bruta es mucho más poderosa de lo que hubiéramos pensado.
  19. Pero, si nos olvidamos de ella, lo interesante sigue siendo crear IA de la forma tradicional: enseñando a que piensen de verdad y no solo a que busquen correlatos estadísticos. Como defiende Judea Pearl, hay que enseñarles causalidad. ChatGTP relaciona «nubes» con «lluvia» pero no comprende qué relación causal hay entre ambas, solo sabe que las nubes causan lluvia porque lo ha leído mil veces así, pero aceptaría felizmente que la lluvia causara nubes si así lo hubiera leído. Eso además, hace a estos sistemas muy frágiles al engaño o al fallo absurdo.
  20. En esta línea estoy muy de acuerdo con Gary Marcus en que no podemos partir de un sistema que no sabe absolutamente nada y meterle millones de datos, sino que hay que introducirles mucho más conocimiento incorporado. Parece que hay que volver a la vieja IA simbólica y diseñar sistemas híbridos que aprovechen lo mejor de ambos mundos. Hay que volver a recuperar los viejos sistemas expertos.
  21. De igual forma hay que dar más importancia al diseño del hardware. Debido al error de creer en el argumento funcionalista de la independencia de substrato o realizabilidad múltiple, se ha pensado en que el hardware no tenía ni la más mínima importancia. Fatal confusión: la mente ha co-evolucionado biológicamente con el cuerpo durante eones. En este proceso evolutivo la mente ha ido determinando el diseño óptimo de su sustrato, mientras que el sustrato habrá impuesto limitaciones y posibilidades al desarrollo mental. La estructura y las propiedades físicas del material condicionan, sin duda, el pensamiento.
  22. Y no solo las propiedades físicas, sino las del entorno en el que la mente se ha desarrollado. El contexto, el ecosistema, las características del entorno quedan profundamente reflejadas en la naturaleza de nuestros pensamientos. De aquí las nuevas corrientes en ciencias cognitivas: la cognición corporeizada, embebida, situada o encarnada.

google-lamda-banner

Lo grave, lo verdaderamente grave, es que un ingeniero de Google, supuestamente de la gente más inteligente del planeta, crea que un sistema basado en una semántica distribuida, que lo único que hace es elegir estadísticamente entre secuencias de texto cuál secuencia sigue mejor a la que el interlocutor ha escrito, es consciente. Hay que ser muy, pero que muy, imbécil para pensar algo así.

En primer lugar, si conocemos el funcionamiento interno de LaMBDA (como debería conocerlo especialmente bien el señor Lemoine) que, seguramente, será muy parecido al de sus homólogos basados en BERT como GPT-3 o CYPHER, no encontramos en él más que diversas arquitecturas de deep learning combinadas, con el protagonismo puesto en las redes tipo Transformer (en este vídeo se explica muy bien su funcionamiento). Estas redes se han mostrado mucho más eficientes que sus antecesoras, utilizando mecanismos de atención que, básicamente hacen ponderaciones de la relevancia de cada palabra o token para el significado global de la frase. Son muy buenas y capaces de darnos textos tan coherentes como la conversación entre LaMBDA y Lemoine, pero en ellas no hay comprensión alguna de lo que escriben, solo relevancia estadística. LaMBDA, a pesar de lo que pueda parecer, es tremendamente estúpida. Pero es que la inteligencia, o la falta de ella, en un programa de ordenador no tiene absolutamente nada que ver con la consciencia. La aplicación de ajedrez que tengo instalada en mi móvil me masacra sin piedad cada vez que juego con ella. Jugando al ajedrez es mucho más inteligente que yo, pero eso no le da ni un ápice de consciencia. Hay mucha gente que cree que la consciencia será una consecuencia del aumento exponencial de inteligencia ¿Por qué? ¿Qué tiene que ver el tocino con la velocidad? ¿Qué va a ocurrir en una máquina muy inteligente para que emerja de ella la consciencia?  ¿A un programa que vaya aumentando su inteligencia le saldrían espontáneamente patas, antenas, alas…? No, ¿verdad? Entonces, ¿por qué consciencia sí?

Y, en segundo lugar, y más grave, si cabe, que lo anterior, es la absoluta ignorancia que Lemoine muestra acerca de lo que es la consciencia. Es curioso que se atreva a hablar de ella tan categóricamente sin un conocimiento mínimo de psicología o filosofía de la mente ¿Qué creerá Lemoine que es la consciencia? Es muy cierto que es, en gran parte, un misterio, y que no sabemos a ciencia cierta su naturaleza, pero eso no quiere decir que no sepamos nada o que cualquier idiotez vale. Vamos a dar un curso exprés sobre lo que sí sabemos de ella, además sin entrar en tecnicismos. Vamos a hablar de lo que todo el mundo, menos el señor Lemoine, sabe de la consciencia.

La consciencia tiene que ver con nuestra capacidad de sentir el mundo, de ser afectados por él. Así que un ser consciente, como mínimo, tiene que poseer algún tipo de sensor que le transmita información del mundo. LaMDA no lo tiene, solo es un conjunto de redes procesando datos según una serie de funciones matemáticas. En principio, si LaMDA es consciente no sé por qué Windows 11, o el Súper Mario Bros corriendo en una Game Boy,  no lo iban a ser. Pero la consciencia no es solo recibir información del mundo, sino sentirla. Yo no solo percibo que un puntiagudo clavo traspasa la piel de mi dedo, sino que siento dolor. La consciencia está llena de sensaciones, sentimientos… lo que los filósofos llamamos qualia. Bien, ¿qué le hace pensar al señor Lemoine que LaMDA alberga qualia? ¿Por qué un conjunto de funciones matemáticas que ponen una palabra detrás de otra pueden sentir el mundo? Para sentir el mundo hay que tener algo que se asemeje de alguna manera a un sistema nervioso… ¿Qué le hizo pensar al señor Lemoine que LaMDA alberga dentro de sí algo parecido a un sistema nervioso? Si ahora LaMDA nos dijera que siente que le late el corazón… ¿creeríamos que tiene un corazón físico? ¿Podríamos dejar inconsciente a LaMDA administrándole anestesia? No sé… ¿Quizá se la podríamos administrar poniendo la máscara de oxígeno en el ventilador de su CPU?

Desde que en 1921 Otto Loewi descubriera la acetilcolina, hemos ido demostrando que nuestras emociones están muy ligadas a un tipo de moléculas llamadas neurotransmisores. Así, cuando en mi cerebro se liberan altas cantidades de dopamina o serotonina, tiendo a sentirme bien… ¿Tiene LaMDA algún tipo de estructura que, al menos funcionalmente, se parezca a un neuropéptido? ¿Tiene LaMDA algo que se parezca, al menos en un mínimo, a lo que sabemos de neurociencia?

Pero es más, esa forma de sentir el mundo es, en parte innata, pero también aprendida. Durante nuestra biografía aprendemos a sentir, de forma que en nuestra historia psicológica quedarán grabadas situaciones que nos parecerán felices o desagradables, se configurarán nuestros gustos y preferencias, se forjará nuestra personalidad… ¿Tiene LaMBDA una biografía psicológica tal que le permita una forma particular de sentir la realidad? ¿Tiene traumas infantiles y recuerdos de su abuela? ¿Puede LaMDA deprimirse? En serio Blake Lemoine… ¿podemos darle a LaMBDA un poquito de fluoxetina para mejorar su estado de ánimo? No digo ya en pastillas físicas, sino su equivalente informático… ¿Habría un equivalente en código al Prozac? ¿Podríamos alterar sus estados conscientes con ácido lisérgico? ¿Podrá tener orgasmos? ¿Se excitará sexualmente contemplando el código fuente de otros programas?

Es muy escandaloso que gran parte de la comunidad ingenieril se haya tragado acríticamente una teoría computacional de la mente en versión hard. Una cosa son los algoritmos como herramientas para estudiar nuestra mente y otra cosa, muy diferente, es que nuestra mente sea un algoritmo. La metáfora del ordenador puede ser ilustrativa y evocadora, pero retorna absurda cuando se vuelve totalizalizadora. Me explico: es muy diferente decir que el cerebro procesa información, a decir que el cerebro es un procesador de información. Tengámoslo muy claro.

Comparativa modelos NLP

En el inacabable debate entre lo innato y lo adquirido, las redes neuronales artificiales parecían postularse como evidencia a favor del ambientalismo, ya que parecen capaces de «atrapar» ciertas estructuras lingüísticas solo a partir de su entrenamiento. Rumelhart y McCelland diseñaron una red para aprender los verbos en inglés que parecía hacerlo igual que los niños. De hecho, cometía exactamente igual que ellos, el clásico error de sobrerregulación (en vez de pasar de «volver» a «vuelto», lo hacía a «volvido») ¿Y qué decimos de los nuevos modelos de lenguaje desde BERT a Gopher? Su desempeño, al menos «externo», es sensacional. Estos días he estado jugando con GPT-3 y, a pesar de algunos errores, en general, funciona fantásticamente bien (luego subiré una entrada con extractos de mis conversaciones). Tengamos en cuenta que estos sistemas basados en semánticas distribuidas tienen cero conocimiento de semántica o sintaxis. No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.

En primer lugar, ya sabemos que el sistema de aprendizaje de estos algoritmos no parece tener nada que ver con el humano. Nosotros no necesitamos millones de ejemplos, ni en la neurología humana existe nada parecido a la backpropagation. Se ha argumentado que quizá computamos mal el número de ejemplos que necesitamos las personas en cada experiencia de aprendizaje. Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables. También se ha argumentado, y aquí está lo interesante, que la hoja de ruta de los ingenieros está en conseguir programas que necesiten cada vez menos ejemplos de entrenamiento (véase, por ejemplo, el trabajo de Li Fei-Fei). Podría llegar el momento en que el número de ejemplos necesarios para los algoritmos se aproxime en cifras aceptables al nuestro. No obstante, en el estado del arte actual, parece que estas arquitecturas no constituyen un buen modelo para la mente humana («Ni lo pretenden» responderían airados sus ingenieros. Podéis leer algo más de este tema en un TFM que hice). Pero veámoslo desde otro ángulo.

La estructura de los modelos de lenguaje desde BERT se basa en un sistema de aprendizaje en dos fases: primero tenemos el modelo base del programa, entrenado con miles de millones de ejemplos y requiriendo una enorme capacidad de cómputo. Gopher ha sido entrenado con 280 mil millones de parámetros o su rival de NVIDIA, Megatron-Turing NLG con 530 mil millones. En estos momentos estamos en una escalada de tamaños que, seguramente, está todavía lejos de terminarse. Hasta los chinos han presentado los suyos: Wu Dao 2.0 y M6, por supuesto, mucho más grandes que los occidentales. Seguidamente, al modelo base se le pueden añadir capas de ajuste fino (fine tunning), un entrenamiento específico para que la máquina sea especialmente buena en una tarea concreta (inferencias, equivalencia semántica, análisis de sentimientos, etc.). Después, el programa ya está completamente listo para funcionar. Lo importante es que ahora ya no necesita la enorme capacidad de cómputo de su entrenamiento. Todo ese gasto ya no tiene que volver a realizarse y  ahora el programa funciona como otro cualquiera en términos de gasto. De hecho, el camino parece ser incluso reducir aún su tamaño. DeepMind ha sacado RETRO, una versión de Gopher reducida en tamaño (unas 25 veces más pequeño que sus pares en desempeño). Tiene solo 7.000 millones de parámetros, pero lo compensa con la ayuda de una memoria externa a la que consulta cada vez. 

Supongamos ahora que somos una especie de extraterrestres que llegamos a la Tierra y analizamos a RETRO, sin saber absolutamente nada de su pasado de entrenamiento. Veríamos una arquitectura relativamente sencilla funcionando con una más que aceptable competencia llingüística. Podríamos entonces iniciar la investigación al estilo chomskyano: buscar unas estructuras profundas, unas gramáticas generativas a partir de las cuales RETRO produce todo ese lenguaje. Quizá fracasáramos y no encontráramos nada (debido quizá al black box problem). Entonces daríamos la razón a los ambientalistas y diríamos que todo lo que hay en RETRO ha de ser aprendido del entorno.  Sin embargo, en nuestro análisis no habríamos tenido en cuenta todo el costosísimo entrenamiento previo que RETRO lleva implícitamente dentro. RETRO nace con una enorme carga innata invisible al analizador. 

Hagamos ahora la analogía con el ser humano. Quizá nosotros traemos como innato invisible todo este gran modelo base entrenado por eones de años de evolución. Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos. El ajuste fino sería, sencillamente, el aprendizaje de los usos lingüísticos de nuestro idioma geográfico realizado por cada individuo particular durante su vida. En ese sentido, la carga innata sería enorme, infinitamente más grande que todo lo que aprendemos en vida, pero permanecería oculta al analista. Y es más, para nuestro fastidio, sería tremendamente difícil de investigar, ya que habría que conocer la historia evolutiva del lenguaje de millones de especies extintas, una tarea de ingeniería inversa imposible.  

Desde que descubrimos la teoría de la evolución, ese ha sido el gran problema: todo órgano ha pasado por una larguísima historia que desconocemos, ha pasado por innumerables adaptaciones, exaptaciones, funcionalidades cambiantes, e incluso quedar como órgano rudimentario durante un tiempo para luego volver a ser reutilizado. Si pensamos que la única forma de estudiar el pasado biológico es a través de los fósiles, siendo estos solo huesos… ¿cómo vamos a entender el cerebro si no se conserva en el registro fósil, si de nuestros parientes más cercanos solo podemos aspirar a encontrar trozos de cráneo? Algo podemos hacer estudiando el de otros seres vivos, pero todo es muy confuso: el cerebro de un chimpancé no es el de un ancestro, es de un primo, ya que no descendemos del chimpancé, sino que el chimpancé y nosotros descendemos de un ancestro común desconocido.  

Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022. 

He leído un montón variado de publicaciones y artículos en la red a los que no citaré para no darles publicidad, que hablan de que la mente no está en el cerebro, acusando a los que afirman lo contrario de cerebrocentristas o neurocentristas. El debate filosófico mente-cuerpo lleva siglos sin resolverse, pero parece que los últimos avances en la neurociencia dan clara ventaja a cerebrocentristas como yo. Voy a dar un listado de argumentos, muy viejos y manidos la mayoría de ellos, tanto a favor de que la mente está en el cerebro como de que la mente no sobrevive al cuerpo tras la muerte del cerebro.

Vamos al meollo:

  1. Si la mente no está en el cerebro, ¿dónde está? Se puede replicar, de forma cartesiana, que si la mente es, por definición, inextensa, no está en ningún lugar, siendo preguntarse por su ubicación lo que Ryle llamaría un error categorial . Sí, pero entonces tenemos que encontrar un punto de contacto en donde esa «inextensión» tome contacto con el mundo físico, ya que cuando yo decido mover un brazo, las fibras musculares obedecen mi mente. Descartes se sacó de la chistera la glándula pineal, y a día de hoy no existe nada en el cerebro que podamos entender con esa función ¿Cómo debería ser esa «wifi para lo inextenso»? ¿Estaría dentro de las leyes de la física clásica o habría que apelar a la cuántica?
  2. Si la mente no está en cerebro tenemos que explicar por qué cuando dañamos ciertas áreas del cerebro, la función mental queda dañada también. Si un paciente tiene un accidente cerebrovascular que le destruye el hipocampo, su memoria a corto plazo quedará igualmente destruida. Esta correlación se constituye como una evidencia muy fuerte a favor de la identidad entre cada función mental y su parte correspondiente.
  3. Si la mente no está en el cerebro, ¿para qué vale el cerebro? Seria muy curioso tener el órgano que más tasa metabólica consume del cuerpo (un 25% del gasto total con solo un 2% del peso) estuviera aquí de adorno o, en el mejor de los casos, que valiera para otras cosas que todos los investigadores del mundo hubieran pasado por alto.
  4. Podría objetarse que si bien la mente tiene que ver con el cerebro, el cerebro solo es un «interruptor», «disparador» o simple «receptor» de las funciones mentales, es decir, si bien el hipocampo «activa» la memoria a corto plazo, dicha memoria no se reduce al hipocampo. Dicho de otro modo: para funcionar, la mente debe estar encarnada, pero la mente no se reduce a su encarnación. Bien, pero entonces, por qué no aplicamos el mismo razonamiento a otro tipo de objetos. Por ejemplo, mi tostador enciende sus resistencias y tuesta el pan. Cuando una resistencia se quema, deja de funcionar ¿no podríamos argumentar que la resistencia solo ha perdido su parte corpórea pero que no se reduce a ella y que, de alguna manera, existe sin residir en el tostador? Obviamente, este argumento nos parece absurdo ¿Por qué entonces no nos lo parece al aplicarlo a las funciones mentales? ¿Por qué a la mente le damos un tratamiento epistemológico especial que nos parecería absurdo dar a cualquier otro objeto?
  5. Vamos a verlo aún más claro diciéndolo de otro modo: ¿Qué razones hay para sostener que estados mentales como mis recuerdos, emociones, consciencia, etc. vayan a seguir funcionando después de la muerte de mi cerebro? ¿Qué tienen de tan especial para que puedan seguir funcionando sin objeto material? Sería lo mismo que decir que el motor de mi viejo Seat Málaga, al que lleve al desguace después de 25 años de fiel servicio, sigue funcionando «en otro lugar»… ¿Por qué sostener eso de un coche es una locura pero hacerlo de la mente humana es una creencia respetable?
  6. Si la más pura y dura evidencia observacional nos dice que las funciones mentales dejan de funcionar con la muerte cerebral y, por mucho que la gente crea en fantasmas, no tenemos la más mínima prueba de que tales funciones mentales sigan funcionando post mortem ¿por qué sostener que siguen haciéndolo?
  7. Podría objetarse que no conocemos bien el funcionamiento del cerebro para asegurar con certeza que todas nuestras funciones mentales están allí. Estoy de acuerdo en que conocemos muy poco del cerebro, mucho menos de lo que suele creerse, pero la carga de la prueba reside en quien afirma. Cuando lo habitual es que un objeto pierda su función cuando es destruido, si alguien afirma que conoce una función que no se reduce a su objeto, debería demostrarlo y no pedir a los demás que demuestren lo contrario. Si sostenemos afirmaciones tan arriesgadas como que la mente es independiente y sobrevive al cuerpo en base a que no sabemos como funciona el cerebro estamos cayendo en la más pura y dura falacia ad ignorantiam.
  8. Otra objeción: es que la mente no es un objeto como una piedra o, en este caso, un cerebro. La mente es un conjunto de procesos y/o funciones que no pueden confundirse con el objeto donde se realizan. Así, los mismo procesos mentales que hoy funcionan en el cerebro, mañana podría funcionar en otra entidad material como podría ser el hardware de un computador. De acuerdo, pero que la mente pueda implementarse en otro entorno material diferente al cerebro (cosa, por cierto, nada evidente, pero vale, lo aceptamos por mor de la argumentación), no quiere decir que no ocurra en ningún lugar o que la mente pueda ser independiente de lo material. Pensemos, por ejemplo, en la digestión. No es un objeto, es un proceso que incluye multitud de subprocesos… ¿Alguien diría que la digestión no ocurre en el aparato digestivo, en el estómago y en los intestinos? O pensemos en la velocidad a la que va un automóvil. La velocidad no es un objeto, es el resultado de una gran cantidad de sucesos que ocurren, fundamentalmente, en el motor del coche… ¿Alguien diría que si yo voy por la autovía a 120 km/h no es en mi coche en donde se da esa velocidad? ¿Alguien diría, de verdad, que la velocidad no existe en el mundo físico sino en otra realidad? Reitero: que una función pueda darse en diferentes sustratos materiales no quiere decir que pueda existir con independencia de éstos. Windows es un software que funciona en innumerables hardwares diferentes ¿Existe Windows-en-sí, en el platónico mundo de las ideas?
  9. Nueva objeción: ¿En qué se parece la imagen mental que aparece en mi mente cuando pienso en mi abuela a lo que sabemos del funcionamiento del cerebro? La imagen de mi abuela y los sentimientos a ella asociados no se parecen en nada a descargas eléctricas en axones y a vesículas sinápticas soltando neurotransmisores… ¿Qué justificación tiene entonces decir que mis estados mentales equivalen a mi cerebro? A mi juicio, esta es la mejor objeción. Y la respuesta es que, a día de hoy, dado lo que sabemos del cerebro, es cierto que no se justifica la equivalencia. Mis estados mentales no son, para nada, equivalentes a lo que hoy sabemos de nuestros estados neuronales. Sin embargo, esto tampoco justifica dar el salto al dualismo, esencialmente, porque el dualismo presenta todavía muchos más problemas que seguir en el monismo materialista (todos los que estamos diciendo aquí). Lo lógico es, dadas las conexiones que sí conocemos entre estados neuronales y estados mentales, aceptar que todavía desconocemos mucho del funcionamiento del cerebro, pero que albergamos una muy razonable esperanza en que descubrimientos futuros vayan arrojando más luz hasta que se consiga identificar el mecanismo del que quepa justificar una equivalencia con los estados mentales. A esta idea la llamo la Teoría de la Identidad pero Todavía No.
  10. La Teoría de la Identidad pero Todavía No nos dice que existe un mecanismo causal que va desde que mis vesículas sinápticas liberan grande cantidades de serotonina hasta que yo tengo el quale de sentirme bien, pero que es totalmente desconocido a día de hoy, y no se identifica con ningún proceso neuronal de los conocidos en el estado del arte actual sobre el cerebro.

Acepto de muy buena gana contraargumentos. Change my mind.

En abril de 2019 el Allen Institute of Brain Science celebraba la culminación de un ambicioso proyecto de investigación: cartograficar cada una de las 100.000 neuronas y cada una de las 1.000 millones de sinapsis contenidas en un milímetro cúbico de la corteza cerebral de un ratón. Por el momento, se trata del conectoma (así se llama este tipo de «mapa») a nanoescala de mayores dimensiones, valga el oxímoron. Dentro de este granito de arena había unos cuatro kilómetros de fibras nerviosas. El equipo tomo imágenes de más de 25.000 secciones ultrafinas de tejido contenido en ese minúsculo volumen, generando un conjunto de datos (dataset) de dos petabytes, suficiente capacidad como para unos 50 millones de elepés en MP3: el faraón Mentuhotep III podría haberle dado al «play» en el año 2000 a. C. y todavía no se habría repetido ni una sola canción. Si quisiéramos mapear de forma análoga la corteza cerebral humana generaríamos un zetabyte: aproximadamente, la cantidad de información registrada en todo el mundo a día de hoy. Si a esos datos meramente morfológicos quisiéramos añadir datos más específicos, acerca de la tipología química de las sinapsis, pongamos por caso, necesitaríamos múltiplos de esa cifra. Si a esos datos quisiéramos añadir, adicionalmente, datos acerca de, por ejemplo, el citoesqueleto proteico que configura la estructura interna de la neurona – y no olvidemos que importantes especialistas sostienen que el mismo es crucial para la «vida mental del cerebro» – , generaríamos por cada neurona una cantidad de información similar a la requerida para mapear la anatomía neuronal del cerebro completo. Si a estas «fotos» quisiéramos añadir datos acerca de la actividad acaecida cada segunda en cualquiera de estos niveles de organización, necesitaríamos, sencillamente, elevar una cifra astronómica a otra absurda. Se trata de hechos que no debieran descuidar los que fantasean con «simulaciones computacionales del cerebro».

Arias, Asier. Introducción a la Ciencia de la conciencia. Catarata. Madrid, 2021. p. 223-224.

Desde luego, vienen bastante bien unas dosis de realismo acerca de las posibilidades de construir cerebros artificiales. Pero que no cunda el desánimo. No hace falta tener un mapa de grano tan sumamente fino para comprender el funcionamiento de nuestra mente. A fin de cuentas, podemos explicar bastante bien el funcionamiento del brazo, sin tener un mapa de todas y cada una de las fibras musculares y óseas que lo componen. Lo interesante entonces no es el realismo del mapa en sí, porque la explicación de su funcionamiento estará a otros niveles explicativos superiores. Por eso nunca me han impresionado demasiado todos estos proyectos titánicos de mapeo cerebral. Como se ha mencionado muchas veces, ya tenemos desde hace años todo el conectoma de la Caenorhabditis elegans, que solo tiene 302 neuronas y unas 8.000 conexiones sinápticas, y no somos capaces de predecir su conducta ¿por que íbamos a sacar algo en claro de cerebros exponencialmente más complicados? En el fondo, se trata de una miope obcecación reduccionista. Y es que el reduccionismo es una estrategia siempre saludable, menos cuando deja de serlo.

P.D.: puedes descargarte una aplicación del Allen Institute para ver mapas del cerebro en 3D aquí. Y también tienen un mapa muy chulo de la conectividad del cerebro del ratón aquí.

La verdad es que no esperaba demasiado. Me olía a que, dada la pobreza el estado del arte, no se podía presentar nada demasiado revolucionario, pero ¿quién sabe? Estamos hablando de Elon Musk, ese que consiguió hacer aterrizar cohetes y mandó un Tesla Roadster al espacio… Pero no, nada nuevo bajo el sol: el típico show grandilocuente al que los multimillonarios americanos nos tienen acostumbrados con la misma poca chicha que la mayoría de su cine.

Bien, ¿y qué nos presentaron? Lo único interesante ha sido  una mejora en la miniaturización del sistema: los electrodos que utiliza Neuralink v0.9  son diez veces más finos que un cabello humano, lo cual permite que cuando se implantan esquiven mejor venas y arterias, evitando el sangrado y la inflamación. Son menos invasivos que los modelos anteriores. Del mismo modo, su menor tamaño les hace ganar en precisión. Uno de los retos más importantes de las técnicas de monitorización cerebral es la precisión: conseguir captar la actividad de solo el grupo de neuronas que nos interesa, apagando el ruido de todo lo demás. Eso es muy difícil con técnicas no invasivas (sin meter electrodos en el cerebro) y con las técnicas invasivas disponibles la precisión todavía es muy baja. Además, los electrodos de Neuralink pueden captar 1024 canales de información, lo que es diez veces más que los cien que se venían manejando en los dispositivos comerciales al uso. Y hasta aquí da de sí la novedad. Todo lo demás ya se había hecho. Kevin Warwick, de la Universidad de Reading, ya se implantó bajo la piel un chip de radiofrecuencia que le permitía hacer cosas como encender y apagar luces, abrir puertas, etc. Esto fue en 1998, hace ya un poquito. O si queremos un ejemplo patrio, el neurocientífico Manuel Rodríguez Delgado implantó unos electrodos en el cerebro de un toro al que paraba en seco mediante un mando cuando éste se dirigía hacia él para embestirle. Tecnología inalámbrica de control mental en 1963. Hace ya 57 años de esto. Hoy hay miles de personas con implantes cocleares que mejoran la audición de pacientes sordos y también existen implantes electrónicos de retina que devuelven parcialmente la visión a personas ciegas.

¿Y dónde está la trampa? Musk dice que con este dispositivo se podrán tratar multitud de trastornos tales como la ansiedad, la depresión, la ansiedad, el insomnio, pérdidas de memoria… ¡Maravilloso! ¿Cómo? Y aquí se acaba la presentación. Es cierto que tenemos ciertos estudios que avalan que hay ciertas mejoras en pacientes a los que se electroestimula, por ejemplo, en el caso del Parkinson. También, hay multitud de experimentos en los que conseguimos ciertos cambios conductuales, simplemente, bombardeando eléctricamente tal o cual zona del cerebro, pero de ahí a curar la depresión… ¡va un universo! Y es que Musk parte de un terrible error demasiado común hoy en día: pensar que el cerebro es, por completo, un computador, en el sentido de pensar que dentro del cerebro solo hay una especie de larguísima maraña de cables. Nuestras neuronas funcionan eléctricamente sí, pero solo a un nivel. En ellas hay una infinidad de interacciones bioquímicas aparte de lanzar un pulso eléctrico por el axón. Y muchísimas de ellas las desconocemos. De hecho, la neurociencia está todavía en pañales. Nuestro conocimiento del cerebro es todavía terriblemente superficial. Entonces, ¿cómo justificar que solo mediante la estimulación eléctrica vamos a hacer tantas cosas? No se puede porque, seguramente, no se va a poder hacer así.

Musk nos está vendiendo que con su interfaz va a poder, literalmente, leer la mente. No colega, tus electrodos captarán ecos de la actividad mental, como yo escucho el ruido del motor del coche cuando voy conduciendo. Actualmente no sabemos cómo el cerebro genera emociones, pensamientos, recuerdos, consciencia… Tenemos algunas pistas sobre en qué zonas aproximadas puede ocurrir cada una de estas cosas, pero poco más. Obviamente, saber la localización de un suceso no es saber todavía demasiado del suceso. Si yo oigo el ruido del motor debajo del capó podré inferir que, seguramente, el motor está debajo del capó, pero eso no me dice casi nada de cómo funciona el motor. Por ejemplo, sabemos que en el hipocampo es donde se generan nuevos recuerdos pero, ¿cómo se generan? ¿Y dónde y cómo se guardan en la memoria? Silencio vergonzoso.

A mí, cuando en estas infructuosas discusiones en la red, alguien se me ha puesto chulito igualándome la actividad neuronal al pensamiento, suelo retarle a que me explique todo el proceso causal que va desde que yo, ahora mismo, decido pensar en mi abuela hasta que en mi mente aparece su imagen, únicamente mediante lo que sabemos de la neurona ¿Cómo diablos se genera una «imagen mental» mediante disparos eléctricos o vaciando vesículas sinápticas de neurotransmisores químicos? ¿Cómo consigue una molécula de acetilcolina que el recuerdo de mi abuela se quede fijado en mi mente? ¿Cómo hacen las moléculas de serotonina o de dopamina que yo tenga sensaciones agradables al pensar en ella? No tenemos ni remota idea. O le reto a qué me diga en qué se parece el paso de un pulso eléctrico por un conjunto de células mielinizadas al recuerdo fenoménico de mi abuela ¿En qué se asemejan los colores y rasgos de la cara de mi abuela en la imagen que parece proyectarse en mi mente a los procesos bioquímicos que ocurren en mi cerebro para que digamos que ambas cosas son lo mismo? Silencio vergonzoso. Con total certeza, el cerebro hace muchísimas más cosas que transmitir impulsos eléctricos entre células nerviosas y, por tanto, el cerebro no es un circuito electrónico tal y como piensa Musk, por lo que sus electrodos van a tener un alcance mucho más limitado de lo que nos ha hecho creer. Y en el mejor de los casos, suponiendo que al final, por un increíble golpe de suerte, Musk acertara y su Neuralink nos salvan de todos los males, su modus operandi no es éticamente correcto: no se pueden vender promesas, hay que vender hechos consumados.

Otra estrategia que suelen utilizar estos visionarios tecnológicos es con un error o sesgo que solemos cometer a la hora de analizar el desarrollo de cualquier tecnología o programa de investigación científica. Consiste en tender a pensar que una tecnología que en el presente va muy bien, seguirá progresando indefinidamente hacia el futuro. Por ejemplo, si ahora tenemos Neuralink versión 0.9, podríamos pensar: bueno, la 0.9 todavía no hace mucho pero espera a que llegue la 10.0 ¡Esa ya nos permitirá volcar Wikipedia entera en el cerebro! NO, de que una tecnología sea ahora puntera no podemos inferir, de ninguna manera, que seguirá siéndolo. De hecho, la historia de la ciencia y la tecnología nos ha mostrado multitud de investigaciones muy espectaculares en principio pero que no fueron a más. Por ejemplo, si pensamos que la inteligencia artificial es ahora una disciplina muy a la vanguardia, hay que ver que ha pasado por varios inviernos en los que quedó completamente olvidada. Es muy posible que el hoy tan alabado deep learning pase de moda en un tiempo y otras tecnologías ocupen su lugar ¿Por qué? Porque esas investigaciones o desarrollos se encuentran, de repente, con problemas que se enquistan y que quizá tardan diez, veinte, cincuenta años en resolverse o, sencillamente, no se resuelvan nunca. También tendemos a pensar que el progreso tecno-científico todo lo puede, que, al final, todo llegará y que solo es cuestión de tiempo. No, eso es un mito sacado de la más barata ciencia-ficción. No hay ninguna inferencia lógica que sostenga este progreso imparable hacia adelante. Verdaderamente, la ciencia y la tecnología son cosas mucho más humildes de lo suele pensarse.

No obstante, partiendo una lanza a favor de Musk, también hay que decir que el hombre, al menos, dedica su talento y fortuna a desarrollar tecnologías. Podría haberse comprado un equipo de fútbol o puesto a coleccionar yates, y en vez de eso emprende proyectos que, al menos a priori, tienen una finalidad pretendidamente positiva para la humanidad. En este sentido Musk está muy bien y ojalá todos los multimillonarios del mundo se parecieran un poquito más a él. Al menos, tal y como no se cansan de repetir su legión de seguidores en la red, él es valiente, se arriesga y emprende intentando llevar las cosas a cabo. El problema de Musk es que está en la onda del transhumanismo trasnochado de la Universidad de la Singularidad de Ray Kurzweil y cía. Esta gente defiende ideas muy discutibles tales como el el advenimiento de una inteligencia artificial fuerte en las próximas décadas, o la consecución de la inmortalidad, ya sea eliminando el envejecimiento mediante nuevas técnicas médicas, ya sea subiendo nuestra mente a un ordenador (mind uploading). Lo malo no está en que defiendan esas ideas (¡Yo quiero ser inmortal!), lo malo es que lo hacen a partir de una más que endeble base científica, y eso en mi pueblo se llama vender humo.

De este tema vamos a hablar este domingo a las 12:00 en Radio 3 en el célebre programa «Fallo de sistema». Estaré junto a personas del peso de Ramón López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial del CSIC; Juan Lerma, editor en jefe de Neuroscience; Manuel González Bedía, asesor en el Ministerio de Ciencia, Innovación y Universidades; Liset Menéndez, líder del Laboratorio de Circuitos Neuronales del Instituto Cajal; o el tecnohumanista Pedro Mujica,  impulsor de IANÉtica.  He de decir que nunca he estado sentado en una mesa  con personas de tanto nivel científico. Es la flor y nata de la ciencia española. Así que yo voy a estar bastante calladito escuchando y aprendiendo. No os lo perdáis.

Aquí tenéis la charla que he dado para el curso de verano de la SEMF. En ella hago un recorrido histórico por los principales hitos en el campo, desde los primeros modelos teóricos de McCulloch o Rosenblatt, hasta Alpha Zero o GPT-3. He intentado que sea lo más sencilla y sugerente posible, sin meterme demasiado en temas técnicos. Para quien quisiera profundizar he adjuntando el artículo académico principal de cada tema que trato. Espero que os resulte provechosa.

Perdonándome por mis continuas coletillas (mi perenne «vale») y mis malas vocalizaciones, las que hacen de mí un pésimo orador, no hay nada mejor que hacer en tiempos de cuarentena que ver la pequeña charla que dí para los AI Saturdays de Almería en el centro cultural La Oficina, allá por el 2018. Debo agradecer a los organizadores la invitación, el trato recibido y la elaboración de este vídeo. Me lo pasé muy bien y descubrí una ciudad bastante sorprendente.

Y recordad, las máquinas no piensan, ¡las máquinas kensan!