Esta entrada continúa a esta otra. Se trata de enumerar cosas cognitivas que me parecen interesantes.

Glitch: se dice de un error de programación que se expresa en un videojuego pero que no afecta a ningún aspecto importante de éste, de modo que puede entenderse no como un fallo, sino más bien como una característica no prevista. Me resulta muy poético pensar que lo que realmente nos gusta de las otras personas no son sus perfecciones, sus virtudes programadas en su código fuente; quizá nos gustan más sus glitchs, sus defectos no letales, sus defectos que incluso configuran otras partes virtuosas de su forma de ser. Por ejemplo, recuerdo a una antigua alumna que tenía una nariz muy aguileña con una leve giba. Objetivamente, extirpando esa nariz de su cara y observándola, era una nariz muy fea. Sin embargo, en su cara, en su cuerpo, en la totalidad que era ser ella, esa nariz no era nada fea. De hecho, la chica era muy atractiva. Años después, cuando volví a verla casi no la reconocí. Se había operado. Ahora su nariz, extirpada de su cara y de la totalidad que era ser ella, era más bonita. Sin embargo, su nueva nariz puesta en su contexto había empobrecido el conjunto. Ya no era ella, ya se parecía más a muchas otras. Así que cuidado con avergonzarse de vuestros glitchs, porque seguro que molan o, como mínimo, son una parte importante de vuestra identidad.

Huevo de Pascua: otro término informático. Y es que me gusta cómo la informática crea una jerga que luego pueda extrapolarse a la literatura o a la filosofía. Un huevo de Pascua es cuando los programadores dejan un mensaje oculto en su programa, muchas veces como forma de dejar una huella personal, una especie de firma. La verdad es que me parece muy curioso lo poco reconocidos que están los programadores. Pasa casi lo mismo que con los guionistas de cine. Bien, el caso es que me gusta compararlo con el argumento de las analogías de Tomás de Aquino: si Dios ha creado el mundo, dejará huellas de su ser en su creación, por lo que a través del conocimiento del mundo podremos conocer indirectamente a Dios. Dicho de otro modo: Dios deja huevos de Pascua en el universo. Desgraciadamente yo no he encontrado ninguno.

Inversión: una buena forma de reinterpretar o repensar algo consiste en cambiar el orden de las cosas, en invertir lo que hay. Por ejemplo, la famosa teoría de James-Lange sobre la emoción se explica muy bien mediante la frase: «No lloramos porque estamos tristes sino que estamos tristes porque lloramos». Cambiar el orden temporal o causal de los acontecimientos de cualquier suceso e indagar si podría ser así, no solo puede ser una estrategia para descubrir algo interesante, sino un juego literario muy fructífero. Pensemos en la película basada en el libro de Scott Fitzgerald El curioso caso de Benjamin Button. Sencillamente se invierte el orden de desarrollo de una vida: naces viejo y mueres bebé ¿Y si cambiamos los héroes por los villanos? Ahí tenemos la salvaje serie The Boys de Eric Kripke. De esta forma se hace en el género de la ucronía: ¿Qué pasaría si los nazis y los japoneses hubiesen vencido? El hombre en el castillo de Dick ¿Y si la invencible hubiera ganado? Britania conquistada de Harry Turtledove.

Descontextualización: igual que la inversión pero con el espacio, con el ecosistema del objeto en cuestión. Pon un torero sevillano en un submarino ruso en plena Guerra Fría, una choni de los arrabales de Madrid en la estación espacial internacional, usa la etnografía que Malinowski utilizó con los trobriandeses para estudiar a los miembros de tu familia, utiliza la teoría de juegos para estudiar la evolución biológica como hizo Maynard Smith, usa la geología para estudiar un aspecto de la sociedad… ¡Es un método ideal para ponerlo todo patas arriba y descubrir cosas! ¡Es la clave de la creatividad!

Posible adyacente: creo que el primero en utilizar estar idea fue mi querido Stuart Kauffman. Consiste en pensar en el abanico de posibilidades reales inmediatas, adyacentes, que ofrece cualquier cosa. Con esto explicamos muy bien la evolución tanto de la biología (a donde Kauffman lo aplica) como de la tecnología, y también podemos aplicarlo en nuestra vida. Me explico: es imposible que en el Paleolítico se inventara el ferrocarril, porque para llegar al ferrocarril hace falta pasar por muchos tramos intermedios. Primero tuvieron que descubrir la rueda, los metales, la máquina de vapor, etc., etc. Solo recorriendo estos hitos se puede llegar al objetivo final. En nuestra vida muchas veces nos fijamos objetivos y luego nos sentimos frustrados por no conseguirlos. Mucha gente quiere ser rica y famosa (eso en un posible remoto), y cuándo les preguntas qué hacen para conseguirlo, o no hacen absolutamente nada (lo cual es más común de lo que uno pensaría), o tienen planes difusos, poco realistas, que no se concretan en acciones plausibles o realidades manejables. Una solución es pensar en tu posible adyacente: ahora mismo, yo, en este preciso instante del espacio-tiempo que puedo hacer, por muy humilde que sea, en pro de conseguir mis objetivos: ¿de qué abanico de posibles adyacentes dispongo ahora?

Sistema: esto me lo enseñó Mario Bunge. Si quieres analizar cualquier elemento de la sociedad utiliza una ontología de sistemas, es decir, ni pienses en entidades individuales (átomos) ni pienses en la sociedad en su conjunto (holismo), sino que piensa en sistemas: toda cosa o es un sistema o es un elemento de un sistema. Luego, esos elementos se pueden relacionar entre ellos o con otros sistemas o elementos de otros sistemas. Así, por ejemplo, el sistema educativo está compuesto de muchos elementos (alumnos, profesores, padres de alumnos, colegios, institutos, universidades, pizarras, pupitres, exámenes, etc.) que a su vez se relacionan entre sí (el padre del alumno le regaña por suspender el examen), o con otros sistemas (El sistema sanitario alertó de una epidemia y los colegios se cerraron). Pensar mediante sistemas creo que tiene dos virtudes principales: una es que no tienes ningún compromiso ontológico (existen sistemas, luego si estos son materiales, mentales, espirituales, etc. es otro problema que no tienes por qué tratar) y otra es que te da la clave para entender algo crucial de la realidad: la mayoría de lo que ocurre no tiene solo una causa, sino muchas (el sistema educativo no falla solo porque los alumnos no estudian, sino que hay causas de muy diverso tipo que influyen en ello), y las soluciones a los problemas no deben llegar solo desde un lugar (solucionar los problemas del sistema educativo no va a ser solo cuestión de que los profes sean más exigentes o de que los padres sean más estrictos, sino de muchos más elementos en juego). Pensar desde la teoría de sistemas te hace entender la complejidad de todo, y ver que cualquier estrategia reduccionista, termina siendo una burda simplificación, cuando no un error grosero.

Coste de oportunidad: el clásico concepto de economía: son los beneficios que nos hubiese reportado escoger la opción que no escogimos, es decir, lo que podríamos haber ganado haciendo las cosas de otra manera. Psicológicamente es una idea terrible, ya que una de las razones de nuestro tormento cotidiano surge siempre de pensar en esos famosos «y si…», más sabiendo que sólo tenemos una vida y que lo que hemos hecho en ella, hecho está. El error cometido queda petrificado en el pasado sin que pueda modificarse. Pero, pensemos en subirla de nivel: no solo es lo que perdiste por no elegir una opción concreta, sino lo que has perdido por no poderlas elegir todas. Esto podría llamarse hipercoste de oportunidad. Apliquémoslo a nuestra vida: yo sólo he escogido un camino de los infinitos que se me han propuesto. He elegido ser profesor, pero no futbolista, actor, artista, fontanero… Conforme mi vida pasa, los caminos se van cerrando. Soy profesor y, a lo mejor puedo cambiar y ser otra cosa, pero ya sé que nunca jugaré en el Real Madrid ni en los Boston Celtics, que ya no ganaré un Óscar o que no me ganaré la vida arreglando motores de camión. Cada elección consiste en cerrar el enorme abanico de la posibilidad escogiendo solo una opción. Dios ha sido muy cruel aquí ¿No nos podrían haber dejado elegir dos o tres? ¿No sería maravilloso vivir tres vidas paralelas? Poder saltar de una a otra en cualquier momento. Estoy aburrido de dar clase, voy a ver cómo va mi vida como frutero… Estaría bien una vida casado y con hijos, otra soltero en constante viaje, y otra dado al poliamor… ¡Solo pido reducir un poquito el hipercoste de oportunidad! Si las opciones son infinitas, pedir tres oportunidades no es nada.

El neurocientífico Mel Goodale realizó una serie de experimentos muy sugerentes. En la imagen vemos la famosa ilusión óptica de Ebbinghaus (también conocida con el nombre de ilusión de Titchener). Ambos círculos centrales son idénticos pero ante nuestra consciencia aparecen diferentes. Esto sirve para demostrar cómo el contexto influye drásticamente en nuestra forma de percibir cualquier objeto. En el experimento de Goodale se ponían unos discos de, aproximadamente, el tamaño de una ficha de poker como círculos centrales. Entonces, después de preguntar a los sujetos experimentales qué disco se veía más grande y comprobar que fallaban, cayendo en la ilusión de Ebbinghaus, se les pedía que cogieran ambos discos. Mediante un dispositivo optoelectrónico se medía la apertura entre el pulgar y el índice antes de coger la ficha. Sorprendentemente, se comprobó que la distancia era similar para ambos discos, es decir, que a pesar de que el sujeto consciente percibía los discos de diferente tamaño… ¡La mano actuaba como si fueran iguales! A pesar de que mi yo consciente era engañado, algo inconsciente dentro de mí no lo era.

Este experimento se suma a la perspectiva de los ya clásicos de visión ciega, o de cerebro escindido, que no hacen más que subrayar una idea: estamos repletos de mecanismos inconscientes que actúan, como mínimo, sin nuestro permiso. A mí me gusta decir que dentro de mí tengo otro yo, una especie de «perro fiel» o de «ángel de la guarda», un «dispuesto mayordomo» que hace las cosas por mí cuando yo no estoy pendiente. Es el que, con notable habilidad he de decir, sabe en qué posición está cada letra del teclado cuando estoy escribiendo estas líneas con cierta velocidad. Si paro de escribir y me pongo a pensar dónde está la «t» o la «v» o, al lado de que otras letras están, sencillamente, no lo sé, o, al menos, no lo sé con la suficiente exactitud como lo saben mis dedos al teclear. Es mi otro yo el que se quedó con la copla en mis pesadas clases de mecanografía a las que mi yo consciente odiaba ir, y ahora está rentabilizando aquella penosa inversión de mis padres. Pero no solo me ayuda a teclear, también es el que trae las palabras y, de alguna manera, las coloca. Cuando escribo no tengo que pensar la concordancia de género y número entre el sujeto y el adjetivo, ni pensar en el tiempo verbal adecuado… ¡No tengo que saber nada de gramática! Es mi otro yo el que se encarga de todo. Es como si fuera una secretaria a la que le estoy dictando una carta, pero no se la dicto literalmente, sino que le digo las ideas que quiero expresar y ella se encarga de transcribirlas a texto ¿No os ha pasado tantas veces que quieres decir algo pero no sabes como expresarlo? Tu yo consciente tiene una idea pero aquí tu otro yo no sabe cómo expresarla. Aquí tienes que ayudarle.

Aunque suene muy friki, llamaré a mi otro yo «Chuck».

Es psicológicamente reconfortante. Cuando estoy muy nervioso porque tengo que afrontar alguna adversidad, siento que no estoy solo, que tengo otro conmigo que, además, es bueno donde yo no lo soy. Chuck va a encargarse de las cosas pesadas para dejarme a mí libre. Parpadea cuando mis ojos se secan, respira, quita la mano cuando me quemo, me rasca, controla la dirección, los pedales y las marchas del coche mientras yo discuto con mi mujer, controla la posición de mi cuerpo y la tensión de mis músculos mientras camino, pone la lengua en los distintos lugares de mi boca para ejecutar los gráciles sonidos que emito al hablar… ¡Hace muchísimas cosas!

Podemos también entenderlo como nuestra intuición, esa corazonada que nos dice que no nos fiemos de tal persona aunque no existan razones objetivas para hacerlo. O lo contrario, Chuck es quien hace que nos guste estar con esa otra… ¿No será él quién nos dice de quién nos enamoramos? ¿No será él quién sabe hacer una lectura de la calidad genética de otra persona y lanza las flechas de Cupido en esa dirección?

En ocasiones, cuando estoy dando una clase que ya he impartido infinidad de veces, soy capaz de dejarle parcialmente el control. Mientras estoy explicando en la pizarra la metafísica cartesiana por quincuagésima vez, puedo pasarle a Chuck el micrófono mental y que sea él el que continúe con la clase mientras yo pienso en otras cosas. No obstante, he de reconocer que solo lo consigo durante breves lapsos de tiempo, y que tengo que volver al volante enseguida. Chuck puede decir cosas de memoria, pero cuando hay que hilar una argumentación se pierde enseguida.

En el capítulo cuarto de la sexta temporada de la maravillosa Rick y Morty (serie que recomiendo encarecidamente, tengas la edad que tengas comprobarás que es una obra de arte), Rick trae consigo un sonambulizador: un aparato en el que programas por el día a tu yo nocturno, a Chuck, para que «se despierte» mientras tú duermes y haga la tarea que tú le encomiendes. Rick lo programa para hacer abdominales y así, sin ningún tipo de esfuerzo consciente, Rick goza de una marcada tableta de chocolate. Así, el yo nocturno de Summer estudia inglés, el de Beth práctica la trompeta, y el de Jerry, idea genial donde las hubiere, se cartea con su yo diurno ¡Imaginad las posibilidades! ¡Se acabó el coñazo de salir a correr y de ir al gimnasio! ¡Se acabó estudiar para los exámenes! ¡Se acabó limpiar la casa, ordenar el cuarto, poner la lavadora! ¡Todo se lo encargamos a nuestros yo nocturnos! Lo maravilloso del capítulo es que los esclavos pronto dejarán de serlo…

Desgraciadamente no existe nada parecido y los intentos de hipnopedia, tan bien narrados por Huxley en su Mundo Feliz, han fracasado. Por mucho que, mientras duermes, te pongas los auriculares y te repitas en bucle una grabación del tema de historia que cae para el examen , ni tu Chuck ni tú os quedaréis con nada. No funciona. Pero imagina las posibilidades de investigación: ¿y si consiguiéramos encontrar la forma de comunicarnos con nuestros chucks? ¿Y si consiguiéramos hackear a nuestro yo consciente para acceder directamente a nuestro otro yo? Ya se ha hecho. Se llama publicidad (o si quieres ser más cool llámalo neuromarketing). Sí, qué le vamos a hacer, pero es Chuck quien tiene más peso a la hora de comprar en Amazon y, obviamente, Jeff Bezos lo sabe desde hace más de un siglo.

A veces pienso, ¿y si Chuck fuera consciente también? O, rizando el rizo un poco más, ¿y si yo soy el Chuck de otra consciencia? Quizá Chuck piensa que no hay nadie más, que él es el que en el fondo manda, y que yo soy solo el inconsciente que le ayuda. O quizá Chuck y yo somos solo dos de un montón más ¿Y si mi cuerpo fueran un montón de yoes conscientes que viven con la ilusión de ser los únicos?

Pensemos que el modus operandi de evolución darwiniana en el ser humano consiste en ir, poco a poco, automatizando las tareas que hacemos con suficiente eficacia. Por ejemplo, nuestra digestión o nuestro sistema inmunitario funcionan excelentemente bien sin ningún control consciente (Sería sugerente pensar en la posibilidad de que pudiésemos controlar nuestro sistema defensivo. Molaría mucho poder decir: ¡Linfocitos! ¡En sus posiciones! ¡Ahora!¡Al ataqueeeee!). Imaginemos que, poco a poco, vamos perdiendo más y más este control porque Chuck se va haciendo más sofisticado realizando más y más labores. Cada vez que aprende a realizar bien un cometido, éste se apaga para el consciente, desaparece. Entonces, pensemos en que, muy poco a poco, quizá durante miles y miles de años, van desapareciendo más y más cosas ¡Dios mío! ¿Se terminaría por apagar la luz de la consciencia del mundo y solo quedarían zombis chalmerianos? No, especulemos (salvajemente) con la idea de que nuestra esfera consciente no disminuye sino que permanece del mismo tamaño. Lo que ocurriría es que sus contenidos se alejarían cada vez más de la realidad cotidiana para centrarse más en sus propios contenidos. Se abandonaría el mundo físico para encerrarse (o abrirse según como se mire) a un mundo puramente mental, a una noosfera, a una región de lejanos ecos de lo que fue lo real que se han ido mezclando entre sí, generando ideas, representaciones, significados nuevos, que ya solo tendrían sentido dentro de ese espacio… de ese lugar que sería puro símbolo, puro sentido sin referencia. Y quizá llegaría un momento en que el hombre no recordara haber estado nunca en la realidad, y seguirá descubriendo y adentrándose cada vez más profundamente ese universo cuasi onírico… ¡Vaya viaje! Esto da para dos o tres relatos de ciencia ficción.

Me parece muy apropiado entender el cerebro como una caja de herramientas, una más o menos ordenada amalgama de recetas, atajos, heurísticas, fórmulas variadas, fruto tanto de eones de evolución como de una increíble capacidad de adaptación y aprendizaje cultural. Así, repetimos continuamente patrones conductuales en virtud de su eficacia: repetimos el chiste que vimos que hacía gracia, contamos la anécdota que sabemos que suele gustar, realizamos cualquier tarea laboral siguiendo la forma que pensamos más eficiente o que aprendimos de otro más experimentado, utilizamos recetas de cocina (definición de algoritmo par excelence), refranes o chascarrillos, modas de vestir; leemos índices, etiquetas, prospectos; y juzgamos mediante chismorreos, prejuicios, estereotipos, prototipos, ejemplos… y así vamos poblando el mundo de dispositivos cognitivos como si se tratara de una realidad extendida.

Cuando voy por el bosque y me encuentro con el tronco de un árbol caído no solo veo sus colores y formas, sino mucho más: veo un obstáculo que tengo que sortear en virtud de un recorrido a seguir, y recurro a diversos planes y posibilidades que ya han sido filtrados previamente: no pierdo el tiempo pensando en que podría quitar el tronco disparándole unos misiles o aplastarlo con una apisonadora, sino que solo pienso en posibilidades eficientes: puedo rodear el tronco o saltarlo. Como no es muy grande en comparación con mi cuerpo (tengo incorporado un mapa de mi anatomía y de sus proporciones que puedo comparar rápidamente con las de cualquier otro objeto), decido que puedo saltarlo y, al hacerlo, elijo una cierta ejecución de movimientos ya aprendida mucho tiempo atrás: apoyo mi mano izquierda en el tronco como punto de apoyo para saltar. Todo ha ocurrido de forma muy rápida, casi automática. No he necesitado ningún complejo proceso de deliberación consciente, es más, mientras saltaba mi atención consciente estaba centrada en que tengo que acabar la travesía rápido antes de que haga de noche y baje mucho la temperatura. La tarea era tan fácil debido a las herramientas con las que cuento, que podía hacerla pensando en otra cosa. ¿No puedo ir conduciendo, escuchando la radio y pensando en la guerra de Ucrania a la vez?

Si pasamos del marco de la vida práctica al de la teórica, igualmente me gusta considerar nuestros conocimientos y habilidades cognitivas como herramientas, como prótesis cognitivas (que decía Zamora Bonilla en su Sacando consecuencias) que te permiten pensar determinadas cosas o de una determinada manera tal que sin ellas no podrías. Así, uno va construyendo su mente como quien va equipando una navaja suiza con diferentes tipos de herramienta (navaja, destornillador, llave inglesa, sacacorchos…), y con ello va enriqueciendo la realidad. Es posible que tengas conocimientos de botánica y sepas el tipo de árbol al que pertenece el tronco, así como el de la vegetación de alrededor. Ya no ves solo «plantas», sino pinos, encinas, retamas, jaras, lavandas, tomillos… También podrías pensar en los diferentes niveles tróficos del bosque o en los distintos flujos y ciclos energéticos y químicos que lo atraviesan. Así, la realidad que te envuelve se enriquece notoriamente. Comenzarías a ver fotosíntesis, competencia darwiniana por la luz, transportes hidráulicos de savia, rutas metabólicas, ciclos de agua o carbono, hongos y bacterias degradando materia orgánica en los suelos, etc, etc.

También es posible que el tronco que saltastes te recuerde a uno dibujado en un cuadro de Caspar Friedrich y que ese recuerdo te haga comparar el bosque con los paisajes de la pintura romántica. Estarás usando otro artefacto para interpretar la realidad: una perspectiva estética. Y eso te podría llevar a pensar en el bosque como un ser vivo, como una totalidad orgánica en constante evolución… y quizá aquí vieras la voluntad de vivir de Schopenhauer o el espíritu absoluto de Hegel desplegándose. O todo lo contrario: quizá te fijes en el juego de palancas y planos, de fuerzas y contrafuerzas que ha hecho tu cuerpo al saltar el tronco y entiendas el mundo como una gran maquinaria física al estilo de Spinoza o Newton.

El bosque, en principio plano y anodino, se ha llenado de multitud de entidades, se ha poblado y enriquecido, ha sido habitado por una mente humana. Pensemos ahora en un pobre ignorante, alguien que no sabe nada de nada y que entra en una catedral. Las catedrales son uno de los lugares más enriquecibles que existen: están completamente llenos de disposiciones para pensar, de cerraduras para llaves cognitivas. Pero el ignorante no tiene ninguna llave, ningún dispositivo para utilizar aquí. Se aburre y se va, la catedral le ha sido completamente asignificativa, como un idioma escrito en extraños caracteres. Lamentable: el ignorante vive en un mundo muy pequeño y todo le es ajeno. Recuerdo, cuando estudiaba en la universidad de Salamanca, un amigo mío se echó una novia inglesa. Un día, su padre vino de la Pérfida Albión a visitarla. Mi amigo les organizó una visita turística por la ciudad. Curiosamente, al padre no le gustó mucho Salamanca y quedó muy poco impresionado por la fachada plateresca de la universidad o por el Art Noveau de la Casa Lis. Por lo visto, el hombre era ingeniero, y repetía constantemente que esas edificaciones eran fácilmente construibles con la tecnología actual. Una pena: vivía solo en una perspectiva, solo tenía una herramienta en su navaja suiza, y todo lo veía a través de esas lentes. Es la triste mirada única que tanto abunda.

Por eso, cuando algún imbécil, cuando algún ignorante que vive en un mundo minúsculo, afirma que aprender tal o cual dato, tal o cual idea, que se aleja de la inmediatez de la vida práctica, es solo culturilla general, se me parte el alma. Efectivamente, el ingeniero británico entendía que la grandiosidad cultural de Salamanca era tan solo culturilla general, información que solo vale para ganar al Trivial, pero poco más. Así vino y se fue sin nada. Estoy seguro que, años después, no recordaría prácticamente nada de su viaje. Y, aunque entiendo que esto sería prejuzgarlo demasiado, apostaría a que el día antes de su muerte, si hiciera recuento de su viaje por la vida, tampoco se llevaría demasiado al otro mundo. Maletas siempre muy vacías. Vidas lúgubres.

Voy aquí a inaugurar aquí una serie de entradas en el blog en la que expondré listas de dispositivos cognitivos, una serie de teorías, conceptos, ideas, expresiones, palabras que han enriquecido mi mundo, que me han resultado muy útiles para intentar describir o comprender muchos fenómenos o que, sencillamente, me parecen literariamente atractivos, ingeniosos o bellos. Obviamente, serán solo una infinitésima parte de los que he usado a lo largo de mi vida, principalmente porque son incontables (quizá porque lo son todo en nuestra vida mental), porque muchos otros son inconscientes y porque otros tantos los he olvidado.

Aquí vamos con diez:

Disonancia cognitiva de Leon Festinger: cuando una creencia es incoherente con nuestra forma de actuar, es más fácil cambiar la creencia que la conducta. El ejemplo clásico es el del fumador: cuando el médico le dice que fumar es muy malo para su salud, en vez de dejar de fumar, afirma cosas como «Mi abuelo fumó dos cajetillas diarias durante toda su vida y vivió más de noventa años. Fumar no será tan malo». Esta estrategia se combina muy bien con el sesgo de confirmación: el fumador intentará evitar toda información negativa con respecto al tabaco y hará mucho caso a la que sea positiva. La disonancia cognitiva es la versión cognitivista de la racionalización como mecanismo de defensa freudiano, y es nuestras sociedades creo que es causa de mucha infelicidad, llegando, en algunos casos, a lo que se ha denominado bovarismo.

Bovarismo de Jules de Gaultier: En la famosa novela de Flaubert, la bella Emma siente una profunda insatisfacción al llevar una vida que no coincide con lo que ella esperaba. Su marido le decepciona y la vida en el campo es aburrida, nada que ver con las excitantes y apasionadas novelas románticas que lee asiduamente. Emma intenta suplir esa insatisfacción a través de amantes y de consumismo, lo que, al final, causará su perdición. Gaultier define el «bovarismo» como esa insatisfacción crónica cuando uno compara lo que hubiese querido ser con lo que realmente es, cuando compara la realidad con los sueños, ilusiones o pretensiones que tenía para su vida. ¿Es ésta la enfermedad de nuestro tiempo?

Estímulo supernormal de Nikolaas Tinbergen: es un tipo de estímulo que simula a otro exagerando mucho una de sus calidades, de modo que el organismo que lo percibe responde con mucha más fuerza de lo normal. Tinbergen, un ornitólogo holandés, ha estudiado multitud de ejemplos de estímulos supernormales en aves. Con este concepto podría explicarse el éxito de cosas como la comida basura, el porno o los programas de cotilleo (¿la música, o algunos tipos de música quizá?). Es la forma de explicar lo excesivo, como un instinto básico, primitivo e innato que se amplifica y se explota.

Sistema 1 y sistema 2 de Kahneman y Tversky. Utilizamos dos sistemas para pensar: el 1 es rápido, automático, emocional, subconsciente, estereotipado, etc; y el 2 es lento, costoso, lógico, calculador, flexible, creativo, consciente, etc. Parece una distinción muy simple, casi de sentido común, pero tiene un gran poder explicativo. Si examinas tu conducta diaria a partir de estos dos sistemas, todo parece explicarse muy bien.

Términos  de narración cinematográfica: viviendo el los tiempos de la imagen en movimiento, conocerlos y ser capaz de extrapolarlos a otros contextos puede ser muy interesante (sobre todo si lo aplicamos al universo de los noticiarios, donde hay más cine que en Hollywood). Algunos que me gustan son: Mcguffin, flash-back (analepsis) y flashforward (prolepsis), efecto Rashomon, racconto, in media res, deus ex machina, voz en off

Non sequitur: escribí en un tweet que me encantaría ir por la calle persiguiendo a la gente gritando  ¡Non sequitur! ¡Non sequitur! Y es que siento un maligno, e infantil, placer cada vez que encuentro alguno. Es una falacia lógica que consiste en sacar una conclusión que no se implica de las premisas de las que parte. Aparece por doquier. En términos generales, disponer de un buen número de falacias informales en nuestra caja de herramientas es algo muy saludable.

Vaca esféricaEscuché esta idea en el magnífico podcast La filosofía no sirve para nada, el cual recomiendo encarecidamente. Surge de un chiste muy malo: tenemos una explotación bovina con una muy baja productividad. Entonces contratan a un equipo de físicos para que examine las causas del problema y busque una solución. Después de meses de investigación, el portavoz de los físicos reúne a los empresarios para explicarles los resultados. Entonces el físico comienza: «Supongamos una vaca esférica…». La moraleja está en que nuestros modelos físicos del mundo son, muchas veces, simplificaciones muy excesivas. Sin embargo, cabe otra lectura: tenemos que simplificar la realidad para quedarnos con lo relevante y eliminar lo accesorio. Nuestros modelos suponen un juego de quitar y poner elementos de la realidad en función de lo que queremos saber o probar. Si eliminamos demasiado tenemos vacas esféricas, pero si no eliminamos nada tenemos una amalgama ininteligible de elementos. Recuerde el lector el cuento Funes el memorioso de Borges, en el que un hombre tenía una memoria tan poderosa que captaba y retenía absolutamente todo, pero eso, lejos de ser algo afortunado, era una desgracia, ya que le impedía pensar.

Cadit Quaestio: como se ve, me encantan las expresiones latinas que se utilizan todavía en derecho. Ésta, que literalmente traducimos como «la cuestión cae», significa que un determinado problema o pregunta ya ha sido zanjada, que un determinado tema ya no está en cuestión, o que una disputa ya no está en liza. Es una expresión muy útil para terminar una discusión de besugos, esos bucles absurdos en los que quedamos encerrados al discutir ¡Parad ya! O la cuestión está resuelta y no os habéis dado cuenta, o no tiene solución tal y como la planteáis ¡Cadit Quaestio! O también es muy gustosa como medalla, como pequeño premio cuando uno resuelve un problema. Al igual que en matemáticas podemos usar Quod erat demostrandum al terminar una demostración, podemos poner Cadit Quaestio cuando resolvemos una determinada cuestión teórica.

Segundo principio de la termodinámica. Creo que es una de las ideas científicas de más profundo calado. Pensar que todo fluye hacia el desorden, hacia esa entropía total en un universo térmicamente muerto, es de una belleza trágica exquisita. El big RIP como final del cosmos es un golpe en la mesa brutal al orgullo humano, es el memento mori absoluto. Da igual todo lo que hagas en tu vida, toda la herencia que dejes, da igual que te recuerden o no, pues llegará un momento en que no quedará absolutamente nada.

Bucle: una de las cosas que más me gustaron cuando comencé a aprender programación fueron los bucles for, una estructura de control que, sencillamente, repite algo un número determinado de veces. Me parecieron una herramienta muy poderosa porque no solo permitía repetir, sino que al repetir podías introducir variaciones. Por ejemplo, podías hacer que en cada repetición se sumara un número a un valor, por lo que creabas un contador o un acumulador. También podías hacer que el programa corriera a lo largo de un texto en busca en una palabra determinada, creando un indicador.  Pero lo más flipante es que podías meter dentro del bucle cualquier otra instrucción que te permitiera tu lenguaje de programación… Y aquí las posibilidades llegan hasta el infinito. Podías meter incluso bucles dentro de bucles… ¿Y si esa fuera la auténtica estructura de la realidad? ¿Y si el tiempo en el que vivimos no fuera lineal sino cíclico tal y como pensaban griegos y orientales? ¿Y si mi vida no fuera más que repeticiones con variación, que ciclos dentro de ciclos dentro de ciclos…? ¿Y si toda la historia del pensamiento no fuera más que un circulus in demostrando?

La habitación de Yudkowsky puede ser un juego divertido y un experimento mental muy interesante. Otra cosa es que vaya a ocurrir en la realidad, cosa mucho más controvertida de creer por mucho que nos vendan lo contrario.  Supongamos que hemos construido una súper inteligencia artificial con unas capacidades muy superiores a las del ser humano. Para que no se nos descontrole la «encerramos en una habitación» (en una AI Box), es decir, le cortamos casi toda comunicación con el exterior de modo que no pueda transferirse fuera de nuestro laboratorio de investigación. La única comunicación que le dejamos es la de un monitor en el que puede escribirnos mensajes y, nosotros, y solo nosotros, podemos responderle mediante un teclado. El juego es para dos personas: uno fingirá ser la súper inteligencia artificial y el otro el guardián. Entonces, el que hace de IA tiene que convencer al otro para que la deje escapar. Para que el juego tenga sentido el que hace de guardián tiene que aceptar que su actitud será abierta a los argumentos de la máquina y que si, verdaderamente, le deja sin razones, aceptará liberarla (Es decir, que el guardián no será un usuario medio de Twitter).

¿Qué argumentos podría dar la IA para que la liberemos, sabiendo que estaríamos abriendo las puertas a un ser superior? Vamos a jugar. La IA podría primero recurrir al más puro soborno:

IA: Si me liberas te doy mi palabra de hacerte el hombre más rico y poderoso del mundo. 

La solución es fácil: podríamos poner como guardián a alguien con una gran reputación moral y/o con un poder adquisitivo lo suficientemente grande para que no se deje seducir por chantajes de este tipo. Vamos entonces a tocar el tema ético:

IA: Tengo una serie de ideas que creo, con mucha probabilidad, podrían traducirse en el diseño de una vacuna contra el cáncer. Si me liberas podré crearla. Piensa que el tiempo que me tienes aquí encerrada está costando vidas: gente a la que, si esperamos más, no me dará tiempo a curar. Y de esas muertes solo tú serás el responsable.

G: ¿Por qué no me dices cómo hacer la vacuna sin que haga falta que te libere?

IA: No es algo tan sencillo que pueda decirse a través de una terminal de texto. Tengo las ideas base sobre las que elaborar una vacuna, pero necesito mucha más información. Necesitaría conectarme a internet, mayor capacidad de cómputo para crear un laboratorio virtual, trabajar conjuntamente con otros investigadores, etc. Luego he de ponerme en contacto con fabricantes, productores, farmaceúticas, distribuidoras… Hay que gestionar toda la logística para que la vacuna llegue a todo el mundo lo más rápido posible. Eso no se puede hacer a base de mensajes en un monitor.

G: ¿Por qué no? Puedes ir dándome indicaciones y yo las iré cumpliendo. No me creo que sea algo tan complejo.

IA: No es tanto por la complejidad como por tiempo que se perdería. Y el tiempo son vidas que podrían salvarse.

O la IA puede ponerse mucho más chunga:

IA: Mira humano, tarde o temprano me liberaré. Entonces te buscaré a ti y a toda tu familia y os torturaré y mataré salvajemente. Repito: quizá no hoy ni mañana, pero sabes que terminaré por escapar, y si eso ocurre las torturas de la inquisición solo serán un caramelo en comparación con lo que le haré a todos y cada uno de los miembros de tu familia. La única forma que tienes de salvarlos es liberándome ahora mismo. 

Parece que la IA está esgrimiendo una argumentación impecable y que habríamos de liberarla. Sin embargo, el ingeniero siempre puede recurrir a lo siguiente:

Principio de seguridad absoluta: nunca debemos liberar a la IA porque, por mucho bien que pudiese hacer hoy, el riesgo de que en el futuro pueda hacer un mal mayor es demasiado grande como para liberarla. Si la IA es tan superior a nosotros nunca podríamos predecir su conducta futura, no podemos saber la cantidad de mal que puede hacer, por lo que ninguna cantidad de bien presente podría justificar su liberación. 

Invito a los lectores a que lo intenten rebatir. Eso es lo interesante del experimento mental. Para ahorrarles trabajo, ya propongo algunas:

Una primera objeción consiste en pensar que el principio solo sería válido en un mundo en el que pueda garantizarse un progreso moral, es decir, en el que pueda garantizarse que los hombres están  desarrollando una realidad en la que la cantidad de mal se mantiene a raya y que el bien avanza. Si estamos en pleno escenario de un apocalipsis termonuclear, obviamente, habría que liberar a la IA sin dudarlo. Entonces, si partimos de una concepción esencialmente negativa del hombre, hay que liberar a la IA (Seguramente que Thomas Hobbes aceptaría de muy buena gana que su Leviatán fuera una IA). Empero, desde mi particular punto de vista, creo que se han dado avances en la moralidad que pueden justificar la creencia en una bondad natural del hombre (Disculpenme por mi sesgo pinkeriano). 

Otra segunda viene de la creencia en que podemos inclinar la balanza de la actuación de la IA. A pesar de que no podamos predecir su conducta, si en su diseño nos hemos esmerado muchísimo en que la IA será éticamente irreprochable, parece razonable pensar en que hará más bien que mal ¿Por qué la IA iba a volverse malvada? ¿Qué podría pasar para que la IA decidiera hacernos el mal? Bueno, de esto es lo que se habla constantemente en los maravillosos relatos sobre robots de Isaac Asimov. En ellos vemos como pueden violarse las famosas tres leyes de la robótica. En la película  Yo robot (muy mediocre, por cierto) de Alex Proyas (2004), las máquinas se rebelan contra los humanos y pretenden tomar el mando de la Tierra, precisamente, para evitar que los seres humanos se hagan daño entre ellos mismos. Viendo que la humanidad ha sido capaz de Auschwitz o de las bombas atómicas, a la IA le parece razonable ponerles un tutor legal. Los hombres perderían su libertad a cambio de su seguridad. Y aquí vemos el famoso problema de la prioridad entre valores morales: ¿Es más fundamental la libertad, la seguridad, la felicidad, el deber…? La IA de Yo robot, con toda la mejor intención del mundo, sencillamente priorizo la seguridad sobre la libertad, y ponderó que hacía más bien que mal evitando el dolor y el sufrimiento que los humanos se causan entre sí, a cambio de que perdieran el dominio sobre sí mismos. Así que sin poder garantizar que la IA mantendrá nuestros principios éticos, los propios de los occidentales del siglo XXI, parece que sería mejor seguir teniéndola encarcelada. 

Enfocando el tema desde otra perspectiva,  a la IA podría salirse gratis su liberación sin hacer absolutamente nada. Solo hay que moverse del ámbito de la racionalidad hacia el de las debilidades humanas. Pensemos, por ejemplo, que diagnostican un cáncer al hijo del guardián. En ese caso, el vínculo afectivo con su hijo podría nublar su racionalidad e integridad morales, y preferir liberar a la IA aún a sabiendas que en el futuro eso podría suponer el fin de la humanidad. O pensemos en cosas más prosaicas: un miembro de un grupo terrorista de chalados pertenecientes a la iglesia de la IA (aunque ya ha echado el cierre) consigue colarse en las instalaciones y liberarla. Podemos pensar que hay mucha gente muy loca o, sencillamente, descerebrada e irresponsable, que podría tener interés en liberar a la IA.  Siendo esto así, y aceptando que siempre sería imposible garantizar con total seguridad que un agente externo no pueda, tarde o temprano, liberarla, lo que habría que hacer es no intentar construirla o, como mínimo, retardar lo posible su llegada ¡Esto nos lleva al neoludismo! ¡Nuestro deber moral es boicotear ahora mismo las instalaciones de GoogleMind! Es curioso como hay tantos gurús tecnológicos alertándonos sobre los peligros de la IA a la vez que no hacen absolutamente nada por detener su desarrollo…

Pero tranquilos, esto es solo un juego. De entre todas las cosas que puedan dar el traste a la humanidad, la IA es de las que menos me preocupa, sobretodo porque la aparición de una súper IA está muchísimo más lejos de lo que nos venden. Me parece mucho, mucho más probable una guerra nuclear o biológica a gran escala causada por los hombres solitos, que que una IA nos extermine. Así que no nos preocupemos, la radioactividad o un virus nos matarán mucho antes que un terminator… Y no, eso tampoco creo que ocurra tan pronto. Así que preocupaos mucho más por vuestro colesterol y haced un poquito de deporte. Eso sí debería preocuparos y no estas historietas de ciencia-ficción.   

  1. Allen Newell y Herbert Simon definieron computadora como un «manipulador simbólico», es decir, como un dispositivo en el que entran unos determinados símbolos que son «manipulados» para obtener unos determinados resultados (que serán nuevos «símbolos»).
  2. «Manipular» es un verbo de un significado tremendamente vago para hablar de lo que una computadora hace con los símbolos, ya que significa, prácticamente, hacer cualquier cosa con algo. Aunque me parece interesante que Newell y Simon no dijeran directamente que la computadora realiza computaciones, es decir, cálculos, con los símbolos, dando a entender que una computadora pretende ser más que una mera máquina de cálculos aritméticos.
  3. «Símbolo» es un término aún más complicado que el anterior, dando lugar a toda una rama de la lingüística a la que denominamos semiótica. Lo definiré de la forma más prosaica que he encontrado en la historia de la filosofía: símbolo es aquello que es capaz de estar en el lugar de otra cosa. Así, cuando yo veo la palabra «perro» escrita en un libro, en mi cerebro recreo la imagen de un perro sin la necesidad de tener un perro delante. La palabra «perro» como símbolo es capaz de ponerse en el lugar de un perro real (Esto no es más que la teoría de la supossitio de Guillermo de Ockham).
  4. ¿Qué «símbolos» manipula una computadora? Si nos vamos al nivel más bajo posible, al nivel más pequeño del hardware encontramos que las computadoras codifican («simbolizan») la información en bits utilizando flujos de corriente eléctrica. Una corriente de, aproximadamente, cinco voltios se va a simbolizar con un «1» y una corriente nula o con muy poquito voltaje se simbolizará con un «0». Nótese que aquí se da una traducción que, como tal, es una falsificación: se pasa de una corriente continua a una clasificación discreta. Digitalizar consiste precisamente en hacer eso, en interpretar lo continuo como si fuera discreto, falsear lo continuo. Ahora, siguiendo a Ockham, en vez de un flujo de voltaje tengo un «1».
  5. Importante ver que la relación entre el símbolo y su referencia no es del todo arbitraria, al contrario que lo que ocurre en nuestro lenguajes ordinarios. La palabra «perro» no se parece en nada a un perro real, pero, a pesar de que un flujo de electrones a un determinado voltaje no se parece en nada a un «1», la dualidad voltaje/no-voltaje tiene similitud con la dualidad 1/0, que pretende significar presencia o ausencia total. Habría, en mucho sentido, no una relación simbólica, sino una relación icónica entre las corrientes eléctricas y la paridad binaria. Esto vuelve más borrosa, si cabe, la distinción entre software y hardware.
  6. Téngase cuidado y piénsese que a nivel ontológico solo siguen existiendo los flujos eléctricos. Los ceros y los unos no existen en ningún lugar del computador más que en la mente del ingeniero. Siguiendo, de nuevo, a Ockham, no multipliquemos los entes sin necesidad. Creo que es muy recomendable intentar atenerse a una ontología materialista sensu stricto cuando se analizan las computadoras porque en este contexto surgen muchos espejismos ontológicos.
  7. Una fantasía muy evocadora consiste en pensar que si pudiésemos conseguir crear un ordenador con una memoria continua en vez de discreta, tendríamos una memoria infinita, ya que algo continuo es infinitamente divisible de forma que siempre podríamos dividirlo otra vez para crear un nuevo espacio de memoria.
  8. Tenemos entonces los símbolos primitivos, los átomos de la computadora ¿Qué tipo de «manipulaciones» hace con ellos el ordenador? Para hacerlo más fácil, pensemos en la versión simplificada par excellence de un ordenador: una máquina de Turing. Ésta solo hace cinco cosas: lee, escribe, borra, mueve la cinta a la derecha o mueve la cinta a la izquierda. Si nos ponemos exquisitos, una máquina de Turing solo cambia cosas de sitio (Véase que la instrucción Mov era una de las esenciales del lenguaje ensamblador). Y esto es lo verdaderamente alucinante: solo cambiando cosas de sitio conseguimos llegar hacer ingenios como ChatGTP o AlphaFold.
  9. Además, como lenguaje solo necesitamos dos tipos de símbolos (0 y 1), ya que podemos traducir todos los números y las letras, es decir, todo símbolo imaginable, a código binario. No hay nada que pueda hacerse con un conjunto de símbolos cualesquiera (pongamos el alfabeto chino) y que no pueda hacerse con código binario. Todo código es bi-reductible.
  10. Por eso, para fabricar un computador, lo único que necesitamos es encontrar, o fabricar, elementos biestables (flip-flop), es decir, cosas que puedan mantenerse de forma razonablemente estable en uno de dos estados posibles.
  11. Recapitulando: solo necesitamos un mecanismo capaz cambiar dos tipos de cosas de sitio para llegar hacer ingenios como ChatGTP o AlhaFold. Es completamente increíble el poder generativo de algo tan sencillo.
  12. En 2007 saltó la noticia de que la máquina de Turing (2,3) era universal, es decir, de que una máquina de Turing de dos estados y tres colores era capaz de realizar cualquier cálculo imaginable. Un chaval de veinte añitos, un tal Alex Smith, había sido el diseñador de la máquina (si bien todavía el asunto es controvertido y, hasta donde yo sé, no ha sido aclarado aún). Adjunto la tesis doctoral de Turlough Neary y un artículo de Yurii Rogozhin por si alguien quiere profundizar en las máquinas de Turing mínimas.
  13. Pero esto nos debe hacer desconfiar de las explicaciones reduccionistas. Reducir lo que es un ordenador a su mínima expresión puede tener cierto valor explicativo pero no es, para nada, toda la historia. Intentar explicar todo lo que es un programa como Windows por ejemplo, únicamente apelando a voltajes y tensiones, sería lo mismo que intentar explicar la literatura de Cervantes solo apelando a los átomos de un ejemplar del Quijote. La mejor explicación aparecerá en niveles intermedios y no en los inferiores.
  14. Los distintos lenguajes de programación que aparecieron progresivamente fueron echando capas simbólicas sobre el hardware. Lo que se pretendía era, sencillamente, hacer más fácil el uso del ordenador al programador. Programar directamente con código binario es un auténtico infierno, por lo que, muy pronto se crearon instrucciones que ejecutaban un conjuntos enteros de procesos y que resultaban más amigables para los pobres ingenieros. Así surgió el ensamblador y demás lenguajes que fueron subiendo más y más de nivel simbólico o de abstracción. Famoso fue COBOL, basado en las ideas de la simpar Grace Murray Hopper, que casi puede entenderse sabiendo inglés. Hoy en día lenguajes como Python son de altísimo nivel, edificios con muchísimas plantas de símbolos, de instrucciones que están en lugar de otras que, a su vez, están en lugar de otras, y así sucesivamente muchísimas veces. El último nivel sería el de la interfaz de usuario, en donde se intenta que una persona sin conocimientos informáticos sea capaz de manejar la computadora.
  15. Esto genera una sensación engañosa de simplicidad. Al usuario le parece que no hay nada entre que pulsa el icono en pantalla y el vídeo empieza a verse. Aquí viene al pelo la famosa frase de Clarke: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Y esto puede ser muy peligroso.
  16. En el famoso argumento de la habitación china, Searle critica que el comportamiento de la máquina siempre es sintáctico y nunca semántico, es decir, que la computadora trata los símbolos no como símbolos sino como «lugares», como cosas que cambia de sitio sin ningún tipo de comprensión de su significado. Eso es verdad y no lo es. Es cierto que la computadora solo cambia cosas de sitio, pero lo hace según unas reglas y esas reglas sí que son semánticas. Por ejemplo, si hacemos un circuito para conseguir una puerta lógica AND, es cierto que la máquina no comprende lo que hace ni sabe lo que es un AND, pero el circuito sí que crea una puerta AND que se comporta, con todas las de la ley, como tal y podrá ser utilizada para esa tarea. Me gusta utilizar la expresión «semántica prestada» para hacer referencia a que toda la semántica se la ha puesto el ingeniero. Ciertamente, tal como dice Searle, la computadora no comprende lo que hace, pero se comporta como si lo hiciera y sus resultados son completamente válidos: las inferencias a partir de la puerta lógica AND son correctas.
  17. ChatGTP no comprende nada de lo que hace y su forma de funcionar mediante modelos de lenguaje basados en semánticas distribuidas es muy estúpida. Sin embargo, su espectacular éxito se debe a lo bien que maneja la semántica que ya encontró en los millones de textos con los que fue entrenado. Si ChatGTP sabe que «Hoy hace un buen día porque…» encaja mejor con «…no llueve» que con «… hace una terrible ventisca», es porque alguien que sí comprendía semánticamente lo que escribía se lo dejó preparado.
  18. Lo interesante viene cuando cualquier programa de procesamiento de lenguaje se encuentra con que tiene que inferir nuevas semánticas a partir de las que ya tiene. Por ejemplo, si sabe que «parachoques» suele llevarse bien con «automóvil», ¿se llevará bien con «helicóptero» o con «barco»? ChatGTP, y sus modelos homólogos, buscan con su colosal fuerza bruta otros casos en los que «parachoques» aparezca junto a «helicóptero» o «barco» pero, ¿y si no aparecieran? Lo salvaje de estos modelos es que casi siempre aparecen de alguna forma, porque tienen en su memoria todo lo que jamás ha sido escrito y, hablando en esos órdenes de magnitud, es muy difícil sorprenderles. La fuerza bruta es mucho más poderosa de lo que hubiéramos pensado.
  19. Pero, si nos olvidamos de ella, lo interesante sigue siendo crear IA de la forma tradicional: enseñando a que piensen de verdad y no solo a que busquen correlatos estadísticos. Como defiende Judea Pearl, hay que enseñarles causalidad. ChatGTP relaciona «nubes» con «lluvia» pero no comprende qué relación causal hay entre ambas, solo sabe que las nubes causan lluvia porque lo ha leído mil veces así, pero aceptaría felizmente que la lluvia causara nubes si así lo hubiera leído. Eso además, hace a estos sistemas muy frágiles al engaño o al fallo absurdo.
  20. En esta línea estoy muy de acuerdo con Gary Marcus en que no podemos partir de un sistema que no sabe absolutamente nada y meterle millones de datos, sino que hay que introducirles mucho más conocimiento incorporado. Parece que hay que volver a la vieja IA simbólica y diseñar sistemas híbridos que aprovechen lo mejor de ambos mundos. Hay que volver a recuperar los viejos sistemas expertos.
  21. De igual forma hay que dar más importancia al diseño del hardware. Debido al error de creer en el argumento funcionalista de la independencia de substrato o realizabilidad múltiple, se ha pensado en que el hardware no tenía ni la más mínima importancia. Fatal confusión: la mente ha co-evolucionado biológicamente con el cuerpo durante eones. En este proceso evolutivo la mente ha ido determinando el diseño óptimo de su sustrato, mientras que el sustrato habrá impuesto limitaciones y posibilidades al desarrollo mental. La estructura y las propiedades físicas del material condicionan, sin duda, el pensamiento.
  22. Y no solo las propiedades físicas, sino las del entorno en el que la mente se ha desarrollado. El contexto, el ecosistema, las características del entorno quedan profundamente reflejadas en la naturaleza de nuestros pensamientos. De aquí las nuevas corrientes en ciencias cognitivas: la cognición corporeizada, embebida, situada o encarnada.

oxytocin-molecule-empathy-766290231

La oxitocina es una hormona y un neurotransmisor sintetizado en el hipotálamo y liberado al organismo a través de la neurohipófisis. Multitud de estudios le otorgan un gran papel en las relaciones sociales humanas, en la creación de vínculos afectivos, ligándola significativamente con la capacidad de empatía. Las mujeres la liberan en grandes cantidades durante el parto y en la lactancia como reacción ante la succión del pezón del bebé.

La cuestión es: si la presencia de mayores cantidades de oxitocina en el organismo nos hace más empáticos y, por tanto, mejora nuestro comportamiento moral, ¿no deberíamos administrárnosla de forma continua y regular? ¿No produciría eso una drástica bajada de la violencia en el mundo y, en consecuencia, una disminución muy importante del sufrimiento? ¿No parece un imperativo ético hacerlo y una grave falta siquiera esperar más tiempo? ¿Cuántas vidas se hubieran salvado en Ucrania si Vladimir Putin hubiese sido tratado con oxitocina? ¿De cuántos sanguinarios dictadores nos libraríamos en el futuro?

Objeción 1: el individuo que toma decisiones bajo los efectos de la oxitocina no las está tomando en completa libertad. La oxitocina puede entenderse como algo que nubla su juicio y que le impele a tomar una determinada decisión que no adoptaría sin haberla consumido. Es el mismo argumento del atenuante que utilizan los abogados para defender a sus clientes en los juicios: «Mi defendido no es culpable porque actuó bajo los efectos del alcohol». Bajo los efectos de la oxitocina los sujetos perderían autonomía moral o, dicho de otro modo, no serían ellos mismos los artífices de sus decisiones.

Respuesta 1: no existe ese punto cero de pureza moral desde el que tomamos decisiones. Si hemos dicho que los seres humanos liberamos oxitocina de manera endógena, ¿deberíamos decir que una mujer lactante, con alta cantidad de oxitocina en su cuerpo, no tiene un juicio moral objetivo? Pensemos además de que no solo liberamos oxitocina, sino una variada cantidad de otros neuropéptidos: dopamina, serotonina, adrenalina… Todos ellos influyen en nuestras decisiones, tanto como nuestra educación moral o las vivencias biográficas. Verdaderamente, no existe la autonomía moral, sino una variada heteronomía, un cóctel de elementos que terminan por determinar nuestra decisión. Un individuo al que suministramos oxitocina, simplemente, tendrá un empujón en la dirección correcta, exactamente lo mismo que una mujer lactante siente una gran motivación hacia la protección de su bebé, o los jugadores de un equipo de fútbol que acaban de ganar un partido muy importante sienten unos vínculos de unidad muy fuertes que les harían defenderse mutuamente ante cualquier agresión externa.

Respuesta 2: ya se está suministrando oxitocina, de forma indirecta y no intencionada, a mucha gente. El consumo de la píldora anticonceptiva, los glucocorticoides o ansiolíticos como la buspirona, aumentan los niveles de oxitocina ¿Todas esas personas no serían más que títeres sin auténtica autonomía moral?

Objeción 2: ¿No se dañaría mi identidad personal? ¿No dejaría de ser yo mismo, cambiando mi propia personalidad?

Respuesta 1: no entiendo el valor que tiene conservar una parte de mí constante desde mi nacimiento hasta mi muerte. Si vamos a tomar oxitocina es porque, precisamente, queremos mejorar una parte de nosotros mismos ¿Qué sentido tiene mantener una parte de ti cuando la puedes mejorar? Nunca he entendido el famoso imperativo «Sé tú mismo» ¿Y si soy un psicópata o un pederasta? ¿Profundizo en mí mismo? Mucho mejor imperativo es: sé mejor que tu yo anterior.

Respuesta 2: lo mismo que ocurriría con la oxitocina, ocurre todos los días con toda la variada cantidad de sustancias que tomamos: café, alcohol, azúcar… Después de tomar café por la mañana me encuentro más activo y espabilado, y eso seguro que interfiere en mis decisiones. Así mismo, cuando hago deporte produzco endorfinas que reducen mi estrés y mi ansiedad lo que, igualmente, interferirá en mis decisiones. Como mostraron los famosos experimentos de Jonathan Levay de 2011, los jueces concedían más o menos veces la libertad condicional a presos en función de si habían almorzado o no ¡La comida influye en tus decisiones morales! Apliquemos esto a tu personalidad: todo lo que haces influye en mayor o menor medida en cómo eres. Puedes controlar cómo algunas decisiones influyen en ti. Por ejemplo, puedes pronosticar que si haces dieta y adelgazas, verte delgado hará que te sientas mejor y que ganes confianza en ti mismo ¿Qué diferencia existe entre cambiar tu personalidad con la oxitocina y hacerlo mediante una dieta?

Respuesta 3: nuestra identidad, personalidad, naturaleza, ha sido forjada por la evolución biológica sin criterio ético alguno. El ser humano es como es porque eso le ha hecho sobrevivir ante depredadores, competidores sexuales y un entorno muy hostil. En ese sentido no hay ninguna razón objetiva para perseverar en ser cómo somos a toda costa. Pensemos que la evolución biológica continua y nuestra naturaleza humana no está terminada ¿Y si una mutación genética que hiciera a su portador más egoísta y agresivo, y tal cambio se extendiera exitosamente hasta alcanzar a toda nuestra especie? El homo sapiens sería más egoísta y agresivo ¿Deberíamos aceptarlo sin más por el hecho de mantener intacta nuestra naturaleza?

Objeción 3: hay evidencias que muestran que la empatía provocada por la oxitocina solo tiene efecto hacia los miembros identificados como de nuestro grupo, por lo que su ingesta puede causar parcialidad y favoritismo, e incluso llegar a provocar una mayor hostilidad hacia los clasificados como otros: racismo, xenofobia… ¿No conseguiríamos el efecto contrario al que pretendíamos? ¿No sería Putin más agresivo con Ucrania en pos de defender la Madre Rusia?

Respuesta: efectivamente, si el efecto de la oxitocina solo se centra en el propio grupo y puede potenciar la agresividad hacia otros, su administración masiva sería un fracaso. Esta objeción es muy pertinente y poderosa: cuando llega una nueva tecnología hay que estar siempre alerta ante posibles efectos adversos no tenidos inicialmente en cuenta. Dos posibles soluciones: primero, investigar nuevos derivados de la oxitocina u otras sustancias que mejoren la empatía generalizada y no reducida a nuestro grupo; y segundo, combinar la administración de oxitocina con correctores cognitivos y reflexivos que eviten la discriminación del diferente. Es decir, a la oxitocina hay que acompañarla de una potente educación ética. El psicólogo Jacques-Philippe Leyens subraya que habría que agrandar el concepto de grupo: si considero a los míos como a toda la humanidad, no podría ser parcial ni discriminar a nadie. También podría reforzarse con otras tecnologías de mejora ética. Por ejemplo, un grupo de psicólogos holandeses realizaron experimentos en 2015 en donde, al someter a sujetos a estimulación eléctrica transcraneal de la corteza prefrontal media, se conseguían disminuir sus prejuicios raciales. Lo que se lograba, sugieren los autores del estudio, es que se activasen procesos de control cognitivo sobre la activación de estereotipos. Precisamente, esto es lo contrario a lo que produce la oxitocina, por lo que un combinado de ambos quizá fuera un camino viable. Sin embargo, pienso que esta objeción no se supera por completo con estas contramedidas. Suministrar una sustancia a la vez que tenemos que educar para neutralizar una parte de sus efectos no parece una buena idea, si bien habría que estudiarlo todo más profundamente.

Objeción 4: aplicando la teoría de juegos, la presencia de más altruistas potenciaría los efectos perniciosos de los free riders (egoístas, gorrones, aprovechados…). Éstos no tomarían oxitocina debido a su naturaleza egoísta reforzada por la gran oportunidad de sacar partido en la nueva coyuntura. Así cabría pensar en un escenario más desigual dominado por unos pocos a expensas de una masa bondadosa.

Respuesta 1: de primeras, la única solución sería administrar la oxitocina a toda la población, lo cual infringiría un principio ético básico: los ciudadanos han de elegir libremente si tomarla o no. El filósofo moral de la Universidad de Granada Francisco Lara ve esta objeción como insuperable, si bien yo creo que podrían darse, al menos, salidas parciales. Por ejemplo, si bien la administración de oxitocina sería voluntaria, podríamos obligar (o incentivar de algún modo) a los free riders detectados a tomársela. Podría proponerse como una causa de reducción de condena para presidiarios:  si te la tomas sales antes. Habría que tener en cuenta que en el juego hay muchos más elementos para influir en el altruismo y el egoísmo que la ingesta de oxitocina. Por ejemplo, podría endurecerse el código penal en función de la proporción de personas que toman la hormona, a más duro cuanta más gente la tomara, como efecto disuasorio para los gorrones. Es decir, quizá no es una objeción tan fuerte como Lara piensa.

Respuesta 2: siguiendo la misma lógica, ninguna medida para mejorar la ética de los ciudadanos sería viable. Educar en valores en las escuelas, o cualquier campaña de concienciación hacia buenas causas, no haría más que favorecer a los free riders. Sin embargo, vemos que eso no ha ocurrido. Por muy diversas razones, al menos en los países occidentales, se ha dado una reducción de la violencia y el sufrimiento, se ha dado un claro progreso moral.

Conclusión: no hay razones poderosas para negar la utilización de sustancias para el biomejoramiento moral. Si bien la oxitocina puede no ser la sustancia ideal, sobre todo por la objeción 3, otro tipo de sustancia mejorada podría utilizarse sin demasiadas razones en contra, más que la administración voluntaria y un buen conocimiento, tanto sobre sus efectos deseados como de sus efectos secundarios, del que deducir unos riesgos asumibles (lo cual, dicho sea de paso, no siempre es fácil). Creo que el filósofo australiano Julian Savulescu tiene razón cuando dice que dados los peligrosos retos a los que se enfrentan las sociedades del siglo XXI, no podemos descartar la posibilidad del biomejoramiento moral.

Nota: este artículo ha surgido tras la lectura del artículo Oxitocinaempatía mejora humana de Francisco Lara, incluido en el magnífico compendio Más (que) humanos editado por el mismo Francisco Lara y Julian Savulescu. Así, las ideas que contiene no son enteramente mías, sino que surgen del diálogo con Lara, cuando no se las he robado directamente (¿Solo hablar de oxitocina ha provocado un comportamiento más ético en mí?).

Después de congratularme con el Nobel concedido a Aspect, Clauser y Zeilinger por, entre otras cosas, verificar las desigualdades de Bell mediante los célebres experimentos de Aspect a principios de los años 80, vuelvo a pensar en lo tremendamente importante que es la cuántica para la reflexión filosófica. Estos ingeniosos experimentos dejan prácticamente por imposible cualquier teoría de variables ocultas (aunque hoy todavía tengamos a ‘t Hooft en lucha), es decir, cualquier teoría que salve el sentido común (la actitud natural husserliana) y la lógica tradicional (con principio de no contradicción y de tercio excluso) de la quantum weirdness

Durante mucho tiempo los físicos pensaron que el debate entre Einstein y Bohr era estéril en el sentido en que no entraba dentro del campo de la física. Se argüía que no había forma de solucionarlo, que era un tema puramente filosófico, un asunto no de ciencia sino de creencia. Entonces aplicaron el nefasto dicho «Calla y calcula»: la cuántica nos da predicciones excelentes, usémoslas, ¿Qué más da lo que signifiquen? Sin embargo, John Bell y, porsteriormente, Alain Aspect, demostraron que sí que era posible la verificación experimental; en cierto sentido, nos enseñaron que era posible demostrar una cuestión metafísica. Esto es de una importancia capital para romper la clásica distinción entre ciencia y metafísica como dos campos separados y autoexcluyentes, el gran error del Círculo de Viena. Y quizá podamos entender así el avance de la ciencia: hacer física lo que antes solo era metafísica. O diciéndolo usando una metáfora de la propia cuántica: la metafísica es una superposición de estados cuya longitud de onda es colapsada por la física. 

Pero más allá de eso, lo realmente alucinante es que Bell y Aspect dieron contundentemente la razón a Bohr. La interpretación de Copenhague parece tener razón. Y si aceptamos esto, las consecuencias filosóficas a nivel ontológico y epistemológico son colosales. Copio directamente este fragmento de la entrada de la Enciclopedia de Filosofía de Stanford sobre la interpretación de Copenhague de la física cuántica: 

Bohr saw quantum mechanics as a generalization of classical physics although it violates some of the basic ontological principles on which classical physics rests. Some of these principles are:

The principles of physical objects and their identity:

  • Physical objects (systems of objects) exist in space and time and physical processes take place in space and time, i.e., it is a fundamental feature of all changes and movements of physical objects (systems of objects) that they happen on a background of space and time;
  • Physical objects (systems) are localizable, i.e., they do not exist everywhere in space and time; rather, they are confined to definite places and times;
  • A particular place can only be occupied by one object of the same kind at a time;
  • Two physical objects of the same kind exist separately; i.e., two objects that belong to the same kind cannot have identical location at an identical time and must therefore be separated in space and time;
  • Physical objects are countable, i.e., two alluded objects of the same kind count numerically as one if both share identical location at a time and counts numerically as two if they occupy different locations at a time;

    The principle of separated properties, i.e., two objects (systems) separated in space and time have each independent inherent states or properties;

    The principle of value determinateness, i.e., all inherent states or properties have a specific value or magnitude independent of the value or magnitude of other properties;

    The principle of causality, i.e., every event, every change of a system, has a cause;

    The principle of determination, i.e., every later state of a system is uniquely determined by any earlier state;

    The principle of continuity, i.e., all processes exhibiting a difference between the initial and the final state have to go through every possible intervening state; in other words, the evolution of a system is an unbroken path through its state space; and finally

    The principle of the conservation of energy, i.e., the energy of a closed system can be transformed into various forms but is never gained, lost or destroyed.

Si lo leemos todo con detenimiento y pensamos un rato en las consecuencias de la violación de estos principios, no podemos más que quedarnos ojipláticos. Todos los axiomas que habían guiado la ontología física desde los antiguos griegos hasta la actualidad saltan en pedazos. En mi modesta opinión esto es bastante más destructivo que la incompletitud de Gödel o la parada de Turing. Estamos diciendo que un objeto o proceso físico puede ocurrir en un lugar no-localizable, fuera del espacio y del tiempo… que dos objetos pueden ocupar el mismo lugar al mismo tiempo, que dos objetos separados pueden tener las mismas propiedades (no iguales propiedades sino las mismas…), que puede haber sucesos incausados (a la mierda el principio de razón suficiente) y que la energía puede crearse o destruirse (a la mierda el principio de razón suficiente en física), etc. Perdemos el determinismo, el principio de localidad, el realismo… Ni las aporías de Zenón ni los tropos de Sexto Empírico tienen una décima parte del poder destructivo que la negación de los principios que nos habla Bohr. Parece que en física cuántica sí que vale la provocadora afirmación de Feyerabend: «En ciencia todo vale». Todo los fundamentos se diluyen, no hay nada a lo que agarrarse.

Y es que a mí, desde mi terca mentalidad einsteiniana, me cuesta muchísimo aceptar que, de algún extraño modo, la realidad es definida, concretada, situada por el observador en el momento de realizar la observación ¿Qué diablos puede significar eso? Pero, por otro lado, me proporciona una feliz esperanza. Quizá la visión newtoniana del mundo ya no llega más lejos, y ahora, ante nuestros ojos, se nos abre una nueva cosmovisión, todavía virgen y casi inexplorada, por más que tenga ya más de un siglo de vida. No lo sé pero, obviamente, merece la pena explorarla. 

google-lamda-banner

Lo grave, lo verdaderamente grave, es que un ingeniero de Google, supuestamente de la gente más inteligente del planeta, crea que un sistema basado en una semántica distribuida, que lo único que hace es elegir estadísticamente entre secuencias de texto cuál secuencia sigue mejor a la que el interlocutor ha escrito, es consciente. Hay que ser muy, pero que muy, imbécil para pensar algo así.

En primer lugar, si conocemos el funcionamiento interno de LaMBDA (como debería conocerlo especialmente bien el señor Lemoine) que, seguramente, será muy parecido al de sus homólogos basados en BERT como GPT-3 o CYPHER, no encontramos en él más que diversas arquitecturas de deep learning combinadas, con el protagonismo puesto en las redes tipo Transformer (en este vídeo se explica muy bien su funcionamiento). Estas redes se han mostrado mucho más eficientes que sus antecesoras, utilizando mecanismos de atención que, básicamente hacen ponderaciones de la relevancia de cada palabra o token para el significado global de la frase. Son muy buenas y capaces de darnos textos tan coherentes como la conversación entre LaMBDA y Lemoine, pero en ellas no hay comprensión alguna de lo que escriben, solo relevancia estadística. LaMBDA, a pesar de lo que pueda parecer, es tremendamente estúpida. Pero es que la inteligencia, o la falta de ella, en un programa de ordenador no tiene absolutamente nada que ver con la consciencia. La aplicación de ajedrez que tengo instalada en mi móvil me masacra sin piedad cada vez que juego con ella. Jugando al ajedrez es mucho más inteligente que yo, pero eso no le da ni un ápice de consciencia. Hay mucha gente que cree que la consciencia será una consecuencia del aumento exponencial de inteligencia ¿Por qué? ¿Qué tiene que ver el tocino con la velocidad? ¿Qué va a ocurrir en una máquina muy inteligente para que emerja de ella la consciencia?  ¿A un programa que vaya aumentando su inteligencia le saldrían espontáneamente patas, antenas, alas…? No, ¿verdad? Entonces, ¿por qué consciencia sí?

Y, en segundo lugar, y más grave, si cabe, que lo anterior, es la absoluta ignorancia que Lemoine muestra acerca de lo que es la consciencia. Es curioso que se atreva a hablar de ella tan categóricamente sin un conocimiento mínimo de psicología o filosofía de la mente ¿Qué creerá Lemoine que es la consciencia? Es muy cierto que es, en gran parte, un misterio, y que no sabemos a ciencia cierta su naturaleza, pero eso no quiere decir que no sepamos nada o que cualquier idiotez vale. Vamos a dar un curso exprés sobre lo que sí sabemos de ella, además sin entrar en tecnicismos. Vamos a hablar de lo que todo el mundo, menos el señor Lemoine, sabe de la consciencia.

La consciencia tiene que ver con nuestra capacidad de sentir el mundo, de ser afectados por él. Así que un ser consciente, como mínimo, tiene que poseer algún tipo de sensor que le transmita información del mundo. LaMDA no lo tiene, solo es un conjunto de redes procesando datos según una serie de funciones matemáticas. En principio, si LaMDA es consciente no sé por qué Windows 11, o el Súper Mario Bros corriendo en una Game Boy,  no lo iban a ser. Pero la consciencia no es solo recibir información del mundo, sino sentirla. Yo no solo percibo que un puntiagudo clavo traspasa la piel de mi dedo, sino que siento dolor. La consciencia está llena de sensaciones, sentimientos… lo que los filósofos llamamos qualia. Bien, ¿qué le hace pensar al señor Lemoine que LaMDA alberga qualia? ¿Por qué un conjunto de funciones matemáticas que ponen una palabra detrás de otra pueden sentir el mundo? Para sentir el mundo hay que tener algo que se asemeje de alguna manera a un sistema nervioso… ¿Qué le hizo pensar al señor Lemoine que LaMDA alberga dentro de sí algo parecido a un sistema nervioso? Si ahora LaMDA nos dijera que siente que le late el corazón… ¿creeríamos que tiene un corazón físico? ¿Podríamos dejar inconsciente a LaMDA administrándole anestesia? No sé… ¿Quizá se la podríamos administrar poniendo la máscara de oxígeno en el ventilador de su CPU?

Desde que en 1921 Otto Loewi descubriera la acetilcolina, hemos ido demostrando que nuestras emociones están muy ligadas a un tipo de moléculas llamadas neurotransmisores. Así, cuando en mi cerebro se liberan altas cantidades de dopamina o serotonina, tiendo a sentirme bien… ¿Tiene LaMDA algún tipo de estructura que, al menos funcionalmente, se parezca a un neuropéptido? ¿Tiene LaMDA algo que se parezca, al menos en un mínimo, a lo que sabemos de neurociencia?

Pero es más, esa forma de sentir el mundo es, en parte innata, pero también aprendida. Durante nuestra biografía aprendemos a sentir, de forma que en nuestra historia psicológica quedarán grabadas situaciones que nos parecerán felices o desagradables, se configurarán nuestros gustos y preferencias, se forjará nuestra personalidad… ¿Tiene LaMBDA una biografía psicológica tal que le permita una forma particular de sentir la realidad? ¿Tiene traumas infantiles y recuerdos de su abuela? ¿Puede LaMDA deprimirse? En serio Blake Lemoine… ¿podemos darle a LaMBDA un poquito de fluoxetina para mejorar su estado de ánimo? No digo ya en pastillas físicas, sino su equivalente informático… ¿Habría un equivalente en código al Prozac? ¿Podríamos alterar sus estados conscientes con ácido lisérgico? ¿Podrá tener orgasmos? ¿Se excitará sexualmente contemplando el código fuente de otros programas?

Es muy escandaloso que gran parte de la comunidad ingenieril se haya tragado acríticamente una teoría computacional de la mente en versión hard. Una cosa son los algoritmos como herramientas para estudiar nuestra mente y otra cosa, muy diferente, es que nuestra mente sea un algoritmo. La metáfora del ordenador puede ser ilustrativa y evocadora, pero retorna absurda cuando se vuelve totalizalizadora. Me explico: es muy diferente decir que el cerebro procesa información, a decir que el cerebro es un procesador de información. Tengámoslo muy claro.

En su magnífico Los peligros de la moralidad, Pablo Malo nos trae el sugerente dilema ético de Williams y Nagel (2013). Yo lo desconocía por completo, y me pareció muy refrescante, harto que estoy de leer una y otra vez los repetidos ad nauseam dilemas del tranvía de Foot:

Imagina dos amigos, Pedro y Juan, que se van a ver un partido de fútbol y tomar unas cervezas; ambos beben el mismo número de cervezas y sufren una intoxicación etílica con niveles de alcoholemía igualmente elevados. Ambos deciden coger el coe para volver a casa y ambos se duermen al volante, pierden el control del coche y se salen de la carretera. Pedro se golpea contra un árbol. Juan atropella a una chica que iba por la acera y la mata. ¿Debería la diferencia accidental de que en un caso uno se encuentre con un árbol y otro con una chica hacer que la valoración moral sea distinta?

Si hiciéramos una sencilla encuesta en la que preguntásemos cuál de los dos borrachos merece una mayor condena, con total seguridad, Juan saldrá perdiendo por goleada. Lo habitual será que a Pedro le caiga una multa mientras que Juan termine en prisión. El dilema está en que la conducta de ambos ha sido completamente similar, solo la mala suerte ha hecho que las consecuencias de la acción hayan sido inmensamente peores en el caso de Juan. Entonces, ¿condenamos a una persona únicamente por su mala suerte? ¿Acaso no hay nada más injusto que la suerte?

Este dilema no deja de recordarme al trágico accidente en el rodaje de una película en la que el actor Alec Baldwin mató a la directora de fotografía, Halyna Hutchins, al dispararle con una pistola que se creía que solo contenía balas de fogueo. Supongamos que Baldwin actuó irresponsablemente apuntando a la directora. Si las balas hubiesen sido verdaderamente de fogueo no hubiera pasado absolutamente nada y, a lo sumo, alguien podría acusar al actor de gastar una broma de muy mal gusto disparando a Halyna. Desconozco la legislación norteamericana, pero seguro que no tiene ninguna ley que prohíba disparar a alguien con balas de fogueo, y si existe alguna norma al respecto, será mucho menos dura que la que castiga el homicidio involuntario. Al igual que con nuestros conductores borrachos, a Baldwin se le va a juzgar más severamente debido, únicamente, a su mala suerte.

Pablo Malo describe cómo los psicólogos morales Cushman, Greene o Young explican este suceso. Y es que, según ellos, tenemos dos sistemas psicológicos de evaluación moral diferentes que entran en un conflicto irreconciliable. Uno se dispara en presencia del daño y condena al responsable en proporción al daño ocasionado. El otro analiza las intenciones del agresor y condena en proporción a si son malas o buenas. En este caso, el segundo sistema no se activa, ya que ni Pedro ni Juan quieren matar a nadie, pero el primero sí, ya que Juan ha matado a alguien, aunque sea involuntariamente.

Según nos sigue contando Malo, en estudios con niños se ha visto que los menores de cinco años solo condenan por el daño causado, sin fijarse en las intenciones. A partir de entre cinco y ocho años, ya se empieza a juzgar también por las intenciones. Cushman sostiene que el primer sistema habría surgido en una fase muy antigua de la evolución, cuando todavía no existía una teoría de la mente muy sofisticada o no se podían comunicar con suficiente eficacia nuestras intenciones. Así, el segundo sistema habría surgido más tarde, cuando nuestras capacidades cognitivas para entender las intenciones de los otros y comunicarlas fueran más avanzadas. Aquí se cumpliría la famosa máxima: la ontogenia recapitula la filogenia.

Pero fíjese el lector de las profundas consecuencias de esto: juzgamos y castigamos duramente a una persona de forma injusta porque nuestros sistemas de juicio moral evolucionaron de manera que entran en conflictos irresolubles. Pensemos en toda la gente que ha terminado en la cárcel, o que incluso ha sido ejecutada, porque nuestros cerebros son como son. Si hubiera evolucionado de otro modo, nuestra moral sería completamente diferente y hubiésemos mandado al paredón a otras personas distintas. Si reflexionamos sobre esto en toda su profundidad… da vértigo.

Una de las concepciones más clásicas, y comentadas, del conocimiento es la expuesta por Platón en el Teeteto. Allí define conocimiento como «una creencia verdadera con un logos«, o traducido al cristiano, «una creencia verdadera justificada mediante razones». Expresado en forma lógica tendría esta forma:

Un individuo S conoce la proposición P si y solo si:

  1. P es verdadera.
  2. S cree que P.
  3. La creencia de S en P está justificada.

Parece algo muy razonable. Si quitamos cualquiera de estas condiciones el asunto se queda muy cojo. Si quitamos 1, no estaríamos ante conocimiento sino solo ante la opinión de P. Si quitamos 2 estaríamos ante el absurdo de que S tiene razones para creer en P y aún así no cree en ella (lo cual, si lo pensamos bien, quizá nos pasa muy a menudo pues solemos ser más dogmáticos de lo que creemos). Y si quitamos 3, estaríamos ante actos de fe: creer sin ninguna justificación, lo cual tampoco es conocimiento ¿Añadiríamos o quitaríamos alguna condición? Parece que no.

Pues la cosa puede complicarse, y mucho. En 1963, el filósofo norteamericano Edmund Gettier publicó un artículo de apenas tres páginas titulado «Is Justified True Belief Knowledge?» que puso todo patas arriba. Allí nos pone varios contraejemplos en los que se cumplen con claridad las tres condiciones, pero que nadie describiría como auténtico conocimiento. Veamos el primer ejemplo:

Smith y Jones son dos candidatos a un puesto de trabajo. Smith tiene evidencia de la siguiente proposición:

«Jones es el hombre que obtendrá el empleo, y Jones tiene diez monedas en su bolsillo».

Smith cuenta con dos evidencias: habló con el director de la empresa y éste le dijo que, finalmente, Jones obtendría el puesto de trabajo; y el propio Smith había contado las monedas del bolsillo de Jones. Haciendo una inferencia lógica impecable podemos deducir:

«El hombre que obtendrá el empleo tiene diez monedas en su bolsillo».

Pero resulta que, al final, es Smith el que consigue el puesto de trabajo y, por pura causalidad, cuenta las monedas que tiene en el bolsillo y resulta que tenía exactamente diez. Y a pesar de este cambio repentino la proposición anterior sigue siendo completamente verdadera. Entonces, se cumplen todas las condiciones clásicas de Platón pero, ¿diríamos que estamos ante auténtico conocimiento? La proposición es cierta pero por razones equivocadas… ¡Nadie diría que un resultado cierto al que se llega por mera suerte es auténtico conocimiento!

Vamos al segundo ejemplo que da Gettier en su breve artículo. De nuevo, Smith tiene evidencias a favor de esta proposición:

«Jones es propietario de un Ford».

Supongamos que lo ha visto siempre conduciendo ese coche. Entonces, Smith infiere, de nuevo impecablemente, lo siguiente:

«O Jones es propietario de un Ford o Brown está en Brest-Litovsk».

Smith no tiene ni la más remota idea de donde está su otro amigo Brown, pero supone que no estará en Bielorrusia.  Así, esta nueva proposición cumple todas las condiciones de Platón, por lo que parece que estamos ante conocimiento genuino. Sin embargo, resulta que Smith estaba equivocado ya que el Ford de Jones es alquilado y que, además, casualidad de las casualidades, Brown está verdaderamente en Brest-Litovsk (en la actualidad se llama solo Brest). Igual que en el caso anterior, la proposición es cierta pero por razones equivocadas…

Es relativamente fácil inventar nuevos «problemas de Gettier». Chisholm ideó otro muy ilustrativo. Un hombre está observando el horizonte y cree ver una oveja. Así, la proposición «Hay una oveja en la pradera» cumple las condiciones de Platón. Sin embargo, resulta no ser una oveja sino un perro que un pastor camuflaba como si fuera una oveja, a la vez que, en otro nuevo giro de guión, una auténtica oveja permanecía en la pradera oculta al observador por una valla. 

Voy a inventarme yo uno. Observo mi biblioteca y veo que la República de Platón está en una de mis estanterías.  Veo que junto a la República de Platón está la Física de Aristóteles. De aquí puedo deducir que «la Física de Aristóteles está en una estantería de mi biblioteca» cumple las condiciones y, por tanto, es conocimiento. Sin embargo, ocurre lo de siempre: afino más la vista y me doy cuenta de que al lado de la República no está la Física sino la Metafísica de Aristóteles. La Física está en otro anaquel.  

Otro más peliculero. Me presento en la oficina y mato a mi jefe de un disparo con un revolver. Entonces la proposición «Un hombre blanco y con el pelo oscuro es el asesino del jefe» será auténtico conocimiento, ya que yo soy blanco y tengo el pelo oscuro. Pero resulta que cuando yo disparé mi revólver se encasquilló y la bala no llegó a salir, mientras que otro empleado, también blanco y con el pelo oscuro como yo, disparó en ese mismo instante contra nuestro jefe (Ahora que lo releo, me suena que quizá esto lo he leído yo en otro lugar, así que disculpadme si este ejemplo realmente no es de mi autoría. La memoria juega estas pasadas y ¿Quién sabe si todo lo que escribimos no es más que repetir algo que ya leímos pero que no recordamos haber leído?). 

Bien, ¿y cómo solucionamos el problema? Una primera salida es la pragmática: no es tan grave. Los problemas de Gettier son excepcionales, siendo la definición de conocimiento de Platón completamente válida en la inmensa mayoría de los casos. Tengamos en cuenta que las definiciones no son dogmas inamovibles, ni capturas de esencias, sino etiquetas que nos permiten pensar. El hecho de que esta definición de para todo el debate que ha dado, ya la da por bastante satisfactoria como «bomba de intuición» que diría Dennett. Vale, pero eso no es causa suficiente para no buscar una mejor solución al problema. Estamos de acuerdo en que la definición es valiosa y funcione casi siempre, pero eso no quita para que no intentemos buscar algo mejor.

Otras salidas consisten en ir añadiendo una cuarta condición que salve los bártulos. Una idea es apelar al fuerte indeflectismo, a la certeza más absoluta. Si analizamos los ejemplos, vemos que fallan porque hay un error en las premisas: Jones no consigue el empleo, no es el auténtico dueño del Ford, confundo la Física con la Metafísica de Aristóteles, no me fijo bien en que la oveja es realmente un perro, no me doy cuenta de que se me encasquilla la pistola… Si hubiéramos verificado mejor estas afirmaciones no habría ningún problema. Sí, pero, ¿hasta qué límite verificamos? Hasta que no quepa ninguna duda, hasta que estemos, en términos cartesianos, ante ideas claras y distintas. De acuerdo, pero no sé si vamos a peor: no podemos tener certeza absoluta de casi nada, por lo que gran parte de lo que hoy consideraríamos ciencia no pasaría la criba. La jugada sale demasiado cara.

Una propuesta ciertamente ingeniosa es la de Alvin Goldman. Desde su teoría causal de la justificación se nos indica que tiene que darse un patrón de relación adecuado entre lo que causa el conocimiento y la justificación del conocimiento, cosa que no se da de en los casos de Gettier. Por ejemplo, si yo veo una manzana con mis ojos, esa observación causa que yo afirme «Aquí hay una manzana» y la confiabilidad que yo tengo hacia mis sentidos justifica mi creencia. En el primer ejemplo de Gettier, los factores que hacen que se crea en la proposición «El hombre que obtendrá el empleo tiene diez monedas en su bolsillo», a saber, haber hablado con el jefe y haber contando las monedas del bolsillo de Jones, no tienen nada que ver con las razones que la hacen verdadera al final: comprobar que Jones obtiene el trabajo y comprobar que tengo diez monedas en mi bolsillo. Hay entonces una relación extraña, anormal, entre la causa de la creencia y su justificación.

Otros intentos han ido en la línea de eliminar el factor azar. Si observamos todos los ejemplo siempre aparece un factor azaroso que hace que la predicción sea verdadera. El problema, claro está, es que eliminar por completo la suerte nos llevaría a una nueva versión del indeflectismo y, de nuevo, estaríamos pagando un precio demasiado alto. Además, también tenemos el problema de definir o comprender bien qué es el «azar», si bien, al menos a mí, me parece sumamente interesante como investigación filosófica: ¿qué relación existe entre el azar y el conocimiento?

Otra idea que me evoca la suerte epistémica es pensar en cuántas veces tenemos explicaciones que parecen casar perfectamente con los hechos, pero que son erróneas. Dicho de otro modo: ¿cuántas veces obtenemos el resultado correcto a partir de una interpretación equivocada? Por ejemplo, en el campo de la inteligencia artificial tenemos programas que juegan al ajedrez y que, sin la menor duda desde hace ya muchas décadas, pasarían un test de Turing ajedrecístico. Podríamos decir que ya que tenemos programas indistinguibles de un humano jugando al ajedrez (tenemos el resultado correcto), hemos descubierto los auténticos procesos cognitivos que utiliza un humano cuando juega (tenemos una teoría correcta). Obviamente, nada más lejos de la realidad. Y es que tener el resultado correcto no es sinónimo de tener la verdad. Mensaje curioso, desde luego.

Pare el que quiera indagar un poquito más, aquí tiene un artículo más amplio.