En el programa electoral de VOX no encontramos mucho más que una serie de soluciones simplistas, propias de una tertulia de bar después de un par de copas. Simplismos como eliminar el estado de las autonomías, poner un “muro infranqueable” en nuestras fronteras africanas, eliminar toda la ley LGTBI, etc. son clásicos eslóganes “todo o nada” que ignoran burdamente la enorme complejidad que representan los problemas de este país. Lo grave no es que sean soluciones de extrema derecha, sino que cuelen y reciban votos.

Cada partido político sabe muy bien las debilidades de sus contrincantes y los temas que hay que tocar. Así, el tema de la inmigración es un clásico de la derecha. Es muy fácil recurrir a unos sistemas límbicos diseñados para defender al igual y sospechar del diferente, para echar la culpa de todos nuestros males a los inmigrantes. Entonces se crea un muñeco de paja: la izquierda abre las fronteras de par en par creando un gran efecto llamada… Los inmigrantes nos quitan los puestos de trabajo, reciben más ayudas que nosotros, traen terrorismo y delincuencia, vienen aquí a hacer turismo sanitario, etc. Esa misma táctica la ha utilizado el independentismo y, en general, es usado por cualquier partido nacionalista o regionalista. Y lo triste es que funcione ¿Alguien cree, realmente, que los principales problemas sociales y económicos de este país se deban a la inmigración? De la misma forma, ¿algún catalán se cree que los principales problemas sociales y económicos de Cataluña se deban a su unión con el resto de España? Pues, lamentablemente, muchos parecen creérselo o, al menos, eso parecen decir las urnas. Y, quizá, lo más grave es que los mismos políticos que impulsan estas ideas se las crean. Yo prefiero que los de arriba me engañen a que sean imbéciles, pues temo más a estos últimos que a los mentirosos de toda la vida.

Son las Políticas de la Tribu: discursos que eluden nuestro neocórtex racional para ir, directamente, a nuestras entrañas paleomamíferas y reptilianas. A todos nos gusta sentirnos miembros de un grupo, hermanados con nuestros semejantes, nuestro pueblo, nuestra nación, los nuestros. Y también llevamos muy mal responsabilizarnos de nuestros fracasos si tenemos a nuestra disposición un chivo expiatorio: los otros (inmigrantes, golpistas, rojos, fachas, empresarios, mercados…). También tenemos una cierta tendencia innata a seguir a líderes carismáticos (es lo que Erich Fromm llamó miedo a la libertad), a la seguridad que nos da su fuerza, a preferir perder derechos a cambio de la supuesta  seguridad que prometen… Somos miedosos, se nos asusta fácilmente y cuando hay miedo nos agarramos a un clavo ardiendo, al primero, sea el que sea, que nos promete una solución fácil y rápida a ese sentimiento tan desagradable. Pensar es costoso y nos da pereza, por lo que preferimos que nos hablen en cristiano, de forma clara y sencilla (Solemos confundir simplicidad con franqueza y honestidad. Esa, quizá, es una de las claves del éxito de Trump) y sospechamos del lenguaje oscuro de los intelectuales (quizá por eso John Kerry perdió contra George W. Bush). Así, a nuestras entrañas les encantan políticos como Santiago Abascal o Vladimir Putin, les encantan estos machos alfa, guardianes de la manada, adalides de lo nuestro.

Es por eso muy importante el impulso de una vieja idea ya defendida hace unos años por Tony Blair: la Política Basada en Evidencias.  Muy sencillo: las políticas públicas han de estar basadas en estudios empíricos, o más técnico: hay que incorporar mucho más conocimiento a cada una de las fases de la decisión política. De este modo se quita peso a la ideología (es muy necesario matar las ideologías) y se intenta combatir esta epidemia de desinformación propia de opinólogos y tertulianos, de intelectuales orgánicos (véase el concepto de Gramsci) que defenderán contra viento y marea las decisiones del partido al que sirvan, de fake news, de eslóganes, de postverdades, y de amarillismo periodístico que asola nuestros medios.  Me encantaría que cada vez que alguien defiende tal o cual cosa, tuviera, necesariamente, que avalarlo con multitud de datos. Y es que, no entiendo muy bien por qué razón, damos valor a la mera opinión de alguien. No entiendo por qué alguien puede decir algo y avalarlo sólo con la justificación de que es su opinión. Además, y solo por eso, ¡debemos respetarla! Es decir, yo, sólo por el hecho de ser yo, tengo derecho a decir la estupidez que se me ocurra y todo el mundo tiene que respetar lo que digo. No, el derecho a la libertad de expresión y pensamiento conlleva la responsabilidad de no decir la primera ocurrencia que me venga a la cabeza, sino intentar que mi opinión se asemeje lo más posible a la verdad, es decir, que, al menos, esté bien informada.

Por poner un sencillo ejemplo, VOX habla de eliminar las autonomías no solo por contrarrestrar el independentismo, sino por la clásica tesis liberal de que hay que adelgazar al máximo el Estado: funcionarios, los mínimos posibles. Entonces se lanzan las típicas y tópicas soflamas: funcionarios vagos, ineficientes, enchufados, puestos a dedo… dibujando un país que sufre la costosa superinflación del sector público. Pues bien, si uno va a los datos ve que esto no se sostiene por ningún lado. Fuentes de la OECD nos dicen que el porcentaje de funcionarios con respecto a toda la población empleada en España es del 15,7%, en la misma línea de países tan liberales como Estados Unidos (un 15,3%) o Gran Bretaña (16,4%), y muy por debajo de las siempre ejemplares socialdemocracias nórdicas (Suecia 28,6%, Dinamarca 29,1% o Noruega 30%). Según los datos en España no hay un superávit de funcionarios.

Y también hay que tomar clara consciencia de que no hay soluciones fáciles ni simples para ningún problema ¿O es que si fuera así no se habrían solucionado ya? Hay que tener en cuenta que cualquier decisión política genera una cascada de consecuencias que son, muchas veces, muy difíciles de predecir. De la misma forma, problemas como el desempleo, el fracaso escolar, la precariedad laboral, etc. no tienen una clara y única causa, sino que son problemas multicausales que, consecuentemente, necesitan soluciones a muy diversos niveles. A mí me hace gracia como en mi entorno laboral, el educativo, se intentan solucionar todos los problemas solo a golpe de reforma educativa, solo mediante una nueva y, supuestamente milagrosa, ley. No, el problema de la educación solo puede solucionarse desde muchos niveles pues es un problema que supera, con mucho, el poder de maestros y profesores. El problema de la educación es un problema social, económico, cultural, etc. que tiene que afrontarse conjuntamente desde todos esos niveles a la vez. Tendemos a caer en un cierto solucionismo político, creyendo que los políticos son omnipotentes y que pueden solucionarlo todo por si solos (y que cuando no lo hacen es porque no quieren, ya que siguen otros intereses ocultos). No, los políticos solo pueden hacer leyes y las leyes tienen su poder, pero no pueden resolverlo todo. De hecho, de nada vale una ley si no hay una voluntad clara de cumplirse ni unas autoridades con las herramientas necesarias para hacer que se cumpla, sancionando su incumplimiento, que es lo que ocurre en España cuando el poder judicial trabaja con medios precarios.

La izquierda, desgraciadamente, ha dejado completamente estas directrices, alejándose de lo empírico para situarse casi en su opuesto dialéctico: la débil posmodernidad incapaz de cualquier respuesta firme a, prácticamente, todo, lo cual lleva, necesariamente, al neoconservadurismo que ya denunció hace tiempo Habermas. Y es que si los referentes intelectuales de la izquierda son gente como Zizek o Biung-Chul Han, mal andamos ¿De verdad que no se cansan siempre de la misma historia? No puedo entender como a estas alturas pueden defenderse planteamientos como los de Lacan, Deleuze, Althusser… retornar a postulados freudianos… y, por supuesto, renunciar a toda validación científica ya que la tecno-ciencia se considera como instrumento y parte del alienador sistema capitalista.

Por eso hace falta que la izquierda (y la derecha también) vuelva a los antiguos valores de la Ilustración de donde, supuestamente, nació el Estado Liberal de Derecho que todos disfrutamos. Coincido completamente con el espíritu de Steven Pinker en su última obra (con todos los matices a su interpretación histórica que quieran hacerse). Una buena noticia sería ver a nuestros políticos dar pasos en esa dirección y no al contrario. En el tema de Cataluña estaría muy claro: la Ilustración defendió un ideal cosmopolita alejado de los ideales nacionalistas que llegarán en el XIX y que nos llevarán a Auschwitz. Ante el independentismo no nacionalismo sino universalismo. La izquierda debería combatir con firmeza el nacionalismo ya que, precisamente, éste nació del Romanticismo, es decir, del movimiento contrailustrado por excelencia.

La derecha, en vez de radicalizarse hacia el ultrapatriotismo, debería volver a sus orígenes: el liberalismo clásico, es decir, a la defensa de la libertad del mercado y de las libertades individuales. UPyD fue un partido interesante en esa línea y, desgraciadamente, Ciudadanos podría haber sido un partido auténticamente liberal si no se hubiera escorado hacia ese nacionalismo que, paradójicamente, es idéntico al que pretende combatir. Sería muy positivo que la derecha ensayara lo que Anthony Giddens denominó la Tercera Vía, en vez de coquetear con el extremismo con tal de arañar votos.

 

Uno de los mitos de la modernidad fue la búsqueda de un punto cero, un pilar sólido, irrefutable, libre de sesgos y prejuicios, de presupuestos y de ideas infundadas. Eso fue lo que intentaron Descartes y Bacon: encontrar esa nuda veritas, certeza absoluta a partir de la cual, si utilizabas el método adecuado, el recto pensar, podrías construir la totalidad del edificio del saber. Los positivistas actuales caen de nuevo en ese mito cuando hablan de los hechos, como si éstos representaran la realidad pura (si bien lo que a mí me molesta más es caer en el otro extremo: que, a partir de aquí, se concluya con estupideces como que la verdad no existe, o que la propia ciencia es literatura). Es imposible enfrentarse a la realidad metafísicamente desnuda, pero eso no quita que existan caminos mejores que otros para acercarse a ella.

Este debate, punto central de la historia de la filosofía, me ha venido a la cabeza cuando de nuevo oigo hablar del impresionante Alpha Zero (ahora que los de Deepmind han publicado un nuevo artículo en Science), la IA de Google que, partiendo del único conocimiento básico de las reglas del ajedrez, no teniendo ni un solo dato sobre táctica, estrategia, ni alguna base de datos de partidas clásicas, machacó a uno de los mejores programas de ajedrez de la actualidad: Stockfish 8 ¿Cómo ha sido posible algo así?  Alpha Zero comienza como un niño pequeño que acaba de aprender a jugar y no sabe nada más del juego (parte de una tabula rasa). Entonces, empieza a jugar contra sí mismo, con movimientos en principio aleatorios, pero siguiendo un clásico aprendizaje reforzado: las jugadas que llevan a la victoria en una partida serán más probables en las siguientes, y las que llevan a la derrota menos.

El programa decide la jugada mediante un árbol de búsqueda de Monte Carlo (no usa la poda alfa-beta de Stockfish). Ante la insuperable explosión combinatoria que supone predecir todos los movimientos posibles desde una posición hasta el final de la partida, Alpha Zero simula y elige, aleatoriamente, solo algunas y, de entre ellas, escoge la más prometedora. Nótese que eso no le hace tomar una decisión óptima, pudiendo, perfectamente, perder muchísimas jugadas mejores e, incluso, si tuviese la mala suerte de escoger un grupo de jugadas mediocres, hacer una mala jugada. Sin embargo, para que eso no ocurra (o, al menos, no ocurra demasiadas veces), es aquí donde la red neuronal artificial profunda orienta al árbol de decisión sobre qué caminos son los mejores y cuáles son rápidamente desechables en virtud del conocimiento previo atesorado tras todas las partidas anteriores (Alpha Zero, al contrario que versiones previas que funcionaban con aprendizaje supervisado, utilizaba solo una red y no dos).

Tras solo 4 horas de auto-entrenamiento, Alpha Zero derrotó a Stockfish 8, programa con un Elo ponderado de 3.400 (El mejor jugador humano, Magnus Carlsen, tiene un Elo de 2.835 a diciembre de 2018), lo cual no deja de ser absolutamente impresionante, simplemente, como logro dentro de la creación de programas de ajedrez. En el reciente artículo se publican nuevas partidas entre ambos y los resultados no dejan lugar a dudas sobre el poder de Alpha Zero: ganaba a Stockfish incluso cuando solo contaba con una décima parte del tiempo del otro. Incluso ganó también a la nueva versión de Stockfish, la 9.

Pero lo realmente espeluznante es que Alpha Zero comenzó, valga la redundancia, de cero, solo sabiendo las reglas y nada más… Es muy instructivo el gráfico de aperturas que nos ofrecieron en el primer artículo publicado (Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm, de diciembre del 2017), en el que se ve cómo el programa va utilizando unas y rechazando otras según avanza en el juego.

Vemos como la apertura española o la defensa siciliana, tan populares entre los profesionales del ajedrez, son desechadas rápidamente, mostrando una clara predilección por la apertura inglesa y por las de peón de dama. Alpha Zero va aprendiendo en soledad las jugadas que la humanidad ha entendido tras siglos (o quizá milenios) de estudiar el ajedrez, y las desecha para jugar a su manera. Demis Hassabis dijo que Alpha Zero no juega ni como un humano ni como una máquina, sino casi como un alienígena. Y es cierto, esa forma de jugar no ha sido vista hasta la fecha y los analistas están perplejos comprobando alguna de las extrañas y, aparentemente ininteligibles, jugadas de esta singular IA. Lo cual, además, saca a la palestra el tema de las diferentes formas de inteligencia o estilos cognitivos posibles. Hasta ahora, cuando hablábamos de diferentes estructuras cognitivas, teníamos que irnos a los animales, a los que, tradicionalmente, se considera con muchos menos recursos cognitivos que nosotros. Ahora tenemos una máquina endiabladamente superior, que hace las cosas de una forma muy diferente a todo organismo conocido.

Pero es más, la interpretación más evocadora de su increíble aprendizaje es que el conocimiento humano le estorba.  Stockfish es muy bueno, pero es demasiado humano: su forma de jugar está muy lastrada por su conocimiento de partidas entre humanos. Pero, ¿y qué tiene de malo el conocimiento humano? Que su comprensión del juego está limitada por las capacidades humanas, por nuestra débil memoria y por nuestra escasa capacidad de razonamiento para componer jugadas. Alpha Zero tiene una perspectiva mucho más amplia sobre el ajedrez (se está viendo ya que parece que no valora las piezas del modo tradicional, haciendo continuos sacrificios en pos de ventajas posicionales a largo plazo).

Bien, pues preguntémosle a Alpha Zero cómo juega y mejoremos nuestro juego. No podemos, la red neuronal de Alpha Zero es una caja negra total: su conocimiento se encuentra distribuido entre los valores numéricos de los pesos de sus nodos neuronales… Abriendo su interior no podemos entender nada, pues el deep learning tiene este grave defecto: no podemos pasar su conocimiento a fórmulas lineales tal que podamos entenderlo y traducirlo en estrategias de juego. O sea, hemos creado el ente que mejor juega al ajedrez de todos los tiempos y no sabemos cómo lo hace. Solo nos queda verlo jugar y, externamente, intentar comprender por qué hace lo que hace como si observáramos a un jugador que no quisiera desvelar los secretos de su juego.

Algunos han destacado el dato de que Alpha Zero analiza solamente unas 60.000 posiciones por segundo en comparación con los 60 millones de Stockfish, anunciando, a mi juicio muy apresuradamente, el fin de la fuerza bruta. En primer lugar a mí 60.000 jugadas por segundo me sigue pareciendo fuerza bruta. No sé al lector, pero a mí en un segundo casi no me da ni para darme cuenta de que estoy jugando al ajedrez. Y en segundo, el funcionamiento de Alpha Zero es engañoso en cuanto a la potencia de cómputo que necesita. Si bien, una vez entrenado, necesita bastante menos que cualquier módulo competente de ajedrez, para su entrenamiento previo necesita muchísima. De hecho, necesita jugar muchas más partidas que cualquier gran maestro humano para llegar a su nivel.

Y es que, a nivel teórico, Alpha Zero no es demasiado novedoso. De modo muy general, no es más que un árbol de decisión que Monte Carlo (inventado desde mediados del siglo pasado) más una red neuronal convolucional que no parece tener nada fuera de lo que ya sabemos desde hace tiempo. Entonces, ¿por qué no se ha hecho antes? Precisamente porque hacía falta una potencia de cómputo de la que no se disponía. Las redes neuronales artificiales siguen teniendo el mismo defecto de siempre: su lentitud de entrenamiento, hacen falta millones de ejemplos para que vayan aprendiendo. Entonces, la fuerza bruta que no necesitan para funcionar, sí que la necesitan para entrenarse. No obstante, el avance es, a nivel práctico, muy significativo: una vez entrenado ya no necesita más de dicha potencia.

Otro aspecto, seguramente el más importante, es la polivalencia que prometen y que nos hace soñar con la añorada IAG (Inteligencia Artificial General). Alpha Zero no solo es invencible al ajedrez, sino al Go y al Shogi ¿En cuántas tareas podrán desenvolverse a nivel sobrehumano esta nueva generación de máquinas? Prudencia: las máquinas ya nos machacaban desde hace tiempo en muchas ocupaciones, siempre y cuando éstas fueran fácilmente formalizables. El ajedrez, el Go o el shogi, aunque sean juegos muy complejos, son trivialmente formalizables: tablero de juego delimitado con precisión y solo unas pocas reglas de juego, igualmente, muy precisas. En entornos más complejos y confusos  tienen problemas. A pesar de que, precisamente, la IA conexionista se mueve mejor que la simbólica en ellos, todavía tiene muchas dificultades. Pensemos que un coche autónomo, aunque sepa desenvolverse en ambientes muy cambiantes, lo único que hace es moverse por vías, habitualmente, bien delimitadas (su “micromundo” es casi  de dos dimensiones). Moverse competentemente en un determinado nicho ecológico es de lo primero que saben hacer los organismos vivos más sencillos. Aunque estamos hablando de excelentes avances, todavía queda mucho por hacer.

Desde el Círculo de Ajedrez José Raúl Capablanca, se nos presenta un problema que los módulos tradicionales no son capaces de solucionar, precisamente, porque no son capaces de planes generales a muy largo plazo ¿Sería capaz Alpha Zero de solucionarlo? Juegan blancas y ganan.

La solución en este vídeo.

 

Estoy con la versión inglesa de Real Humans y no estoy viendo nada que no haya visto antes y mucho mejor. Y que los synths (robots humanoides) parezcan maniquíes con movimientos acartonados… ¡Uffff! Bueno, le daremos unos dos, a lo sumo tres, capítulos más de oportunidad a ver si aparece algo decente.

El caso es que en Humans, y en prácticamente todas las series o películas que han tratado el tema de la IA futura repiten un tópico que es completamente falso. En todas se nos describe un mundo en el que las máquinas se han incorporado con suma normalidad a nuestra vida cotidiana. Y, en todas, se destaca el hecho de que son nuestros sirvientes y esclavos, y siempre se nos ofrece la clásica escena de un humano siendo cruel con un indefenso y sumiso robot.  Se busca que el espectador empatice con las máquinas y que, cuando éstas se rebelen, se vea bien que hay una causa justificada y que no está claro cuál es el bando de los buenos y cuál de los malos. No obstante, para no confundir a un espectador ávido de seguridades narrativas, aparte de situar con claridad meridiana a un villano evidente (los dueños de gigantescas multinacionales suelen hacer muy bien este papel), también entran en escena humanos buenos que son capaces de comprender el sufrimiento de los oprimidos electrónicos. El caso es que llega un momento en el que aparece una máquina diferente, una máquina que es capaz de sentir, de tener consciencia, de ser creativa o, vete a saber tú que indefinido factor x que adquiere, que lo hace despertar de su letargo maquinal.

Entonces, vemos variadas escenas que anuncian ese despertar. Por ejemplo, en Humans aparecen un montón de androides colocados en filas regulares (para crear la sensación de mercancía almacenada) y, aparentemente, todos ellos están apagados o desconectados. De repente, uno abre los ojos y mira la luna por una rendija abierta del techo. Ya está, está despertando, mira la luna como preguntándose por el misterio de su existencia. Ya no es una máquina, ahora ya es un humano o, incluso, algo mejor. En los siguientes episodios o escenas de la serie/película iremos contemplando el progresivo despertar de otros robots hasta llegar al clímax final: el gran enfrentamiento entre la humanidad y las máquinas ¿Será verdaderamente así cuando la auténtica consciencia artificial llegue a nuestro mundo? Rotundamente NO.

La razón es bastante clara. El día en que seamos capaces de crear consciencia sintética, momento, por cierto, bastante lejano dado el actual estado del arte, y consigamos que una máquina u organismo artificial del tipo que sea, pueda darse cuenta del mundo que le rodea, será porque hemos descubierto los mecanismos físico-químico-biológicos que hacen que la consciencia se genere en nuestros sistemas nerviosos. Ese día, después de décadas, o incluso siglos, de investigación del funcionamiento cerebral, seremos capaces de replicar ese mecanismo en una máquina o en cualquier sustrato físico necesario para conseguir algo así. Entonces, cuando esto suceda no será un hecho sorprendente en la “mente positrónica” (por hacer un guiño a Asimov, quizá el principal culpable del error) de un robot que funciona mal. Cuando repliquemos consciencia, los científicos o ingenieros que lo consigan, tendrán muy claro que lo están consiguiendo. Afirmar lo contrario sería como decir, a mediados del siglo XIX, que la bombilla eléctrica incandescente iba a surgir, en un determinado momento azaroso, de alguna vela encendida en cualquier hogar de Newcastle. No, Wilson Swan tardó unos veinticinco años experimentando con diferentes tipos de materiales, técnicas, métodos y teorías hasta que pudo fabricar una bombilla funcional y eficiente.

Creer que la consciencia despertará sin más dentro de avanzadas inteligencias artificiales como fruto accidental de su complejidad es no comprender bien el funcionamiento de la ciencia y la tecnología, que viene de no entender la propia IA. Un programa de ordenador solo realiza cálculos, y los cálculos, por muy complejos, sofisticados y sobrehumanos que sean, solo dan resultados numéricos. Y creo que todos estamos de acuerdo en que los números no son objetos ni procesos físicos reales, por muy bien que los describan. Es por eso que el ejemplo de John Searle es muy ilustrativo: aunque tuviésemos un programa que simulara con una precisión casi absoluta el funcionamiento de una vaca, dicho programa seguiría sin poder darnos leche que pudiésemos beber. Así, para tener consciencia real no solo se necesita un ordenador que replique matemáticamente su funcionamiento, sino un organismo que tenga las propiedades físico-químico-biológicas que se necesiten para generar consciencia ¿Cuáles son? Lo ignoro, ya que si lo supiera estaría en Estocolmo recogiendo un Premio Nobel muy merecido.

Explicado de otra forma: ya hemos conseguido hacer robots que se muevan muy eficazmente en entornos muy irregulares (véanse todas las maravillas de Boston Dynamics). Cuando los vemos caminar y correr sorteando obstáculos nadie dice: “Mira, el programa de ordenador se mueve”. Nadie atribuye movimiento al sofware que dirige el robot, sino al robot en su totalidad, es decir, a los motores, baterías, engranajes, extremidades, etc. que hacen posible el movimiento. Igualmente, para decir que una máquina piensa o es consciente, no podemos decir “Mira, el programa de ordenador es consciente”, porque al hacerlo estamos omitiendo todo lo demás que hace falta para que ocurra una consciencia real. En cierto sentido estaríamos diciendo que una mente puede existir sin cuerpo cuando, evidentemente, no es así. Lo que realmente nos hace falta es saber mucho, mucho más, sobre los cuerpos que albergan consciencias.

Así que no, la consciencia no va a despertar en un androide doméstico que, un día, se pone a oler la fragancia de una flor.

Ahora mismo, como puro divertimento, estoy diseñando un programita en Python para jugar a las tres en raya (o tic-tac-toe).  De momento, solo he hecho que el juego funcione mediante un simple motor aleatorio, es decir, que la máquina mueve al azar, sin estrategia alguna. Mi única pretensión, hasta ahora, ha sido conseguir que el juego se ejecute sin errores, con un código lo más elegante posible. En breve, programaré un sencillo sistema de estrategias para que mi programa de tres en raya sea ya una auténtica inteligencia artificial.

Mientras dura la partida, el programa manda ciertos mensajes de texto a la consola. Por ejemplo, cuando el motor aleatorio le indica poner ficha en una casilla del tablero que ya está ocupada, dice “Casilla ocupada. Vuelvo a intentarlo”. Simplemente con eso, de modo casi inconsciente, tendemos a darle cierta entidad mental al programa. Esa sencilla frase crea en ti la sensación de que “hay alguien ahí”, de que ese programa tiene alguna especie de anima, de principio vital oculto. A fin de cuentas, está hablando conmigo utilizando mi idioma. Cuando le implemente las estrategias de juego que, inicialmente, no serán más que el típico movimiento defensivo de poner ficha en el tercer hueco cuando el rival ha puesto dos fichas seguidas, evitando así perder en el siguiente movimiento o, a la inversa, la jugada ganadora de continuar cualquier cadena de dos fichas contiguas con una tercera, convertiremos al programita en un agente racional, en un ser que opera siguiendo propósitos y que realiza acciones inteligentes para conseguirlos (aunque “él” no tiene ni remota idea de que lo hace así).  Entonces, el proceso de personificación de la máquina habrá dado un paso más y ya, casi casi, creeremos que un pequeño homúnculo habita, en algún sentido, las entrañas de nuestra computadora ¿Por qué ocurre algo así? ¿Por qué tendemos a personificar algo que, a todas luces, no tiene ningún tipo de estado mental?

Parece muy evidente que la selección natural nos equipó con una buena Teoría de la Mente. Somos bastante competentes prediciendo las conductas en los otros, basándonos en la presunción de que actúan siguiendo creencias, deseos, sentimientos, etc. En nuestros complejos entornos sociales se antoja como una cualidad muy necesaria para aumentar nuestro fitness. Si la evolución ocultó a los otros nuestros mecanismos mentales, y nos hizo caer en el terrible problema filosófico de las otras mentes, igualmente, tuvo que generar buenos detectores de mecanismos mentales en la siempre competitiva lucha por la supervivencia. Así, al igual que existen excelentes mentirosos, tenemos a otros individuos idénticamente excelentes detectando la mentira, con la simple contemplación atenta del rostro del embustero. Pero quizá fue aquí donde nuestro sistema de detección de mentes se extralimitó y, en ocasiones, nos hace creer que seres completamente inanimados tienen una mente. De la misma manera que nuestro sofisticado sistema inmunitario se excede y ve amenazas dónde no las hay, creándonos molestas alergias, nuestro sistema de detección de mentes puede ver mentes donde no las hay.  Y es que ¿quién no toma cariño a ciertos objetos y los trata como si poseyeran, realmente, una consciencia capaz de sufrir? ¿Quién no ha sentido lástima cuando se ha desecho de su viejo coche? ¿Quién no ha tomado cariño a una prenda de ropa de forma que, cuando ya estaba inservible, le ha costado mucho tirarla a la basura? ¿No seguimos sintiendo ternura por aquel peluche que nos acompañó en la infancia, aún cuando ya vamos peinando canas?

Los niños son completamente animistas, y atribuir estados mentales a cualquier objeto inerte es una cualidad que, según Piaget, caracteriza el pensamiento preconceptual de los infantes hasta, aproximadamente, los cuatro años. A partir de aquí, el mundo de objetos animados va disminuyendo hasta que saben discernir con buen criterio los seres realmente animados de los inertes. Sin embargo, nuestro detector de mentes puede ser engañado fácilmente, sencillamente, mostrándole un objeto que se comporte exteriormente como sí estuviera animado. Así, mi estúpido programa de tic-tac-toe, con solo enseñarme unas frases en pantalla y jugar con una mínima competencia, consigue engañar a mi altamente evolucionada teoría de la mente. Y es que nuestra psique no evolucionó pensando en que iba a encontrarse con máquinas que replicarían con solvencia conductas tan humanas como el lenguaje.

Por eso mucho cuidado al atribuir mente a nuestros ordenadores. No amigos, no la tienen, y ni siquiera hay razones sólidas para pensar que vayan a tenerla a corto ni a medio plazo.

P.D:. un juego tan tonto como el tic-tac-toe nos da una idea del gran problema de las explosiones combinatorias de los árboles de decisión en IA. El tablero tiene nueve casillas. Cuando comenzamos tenemos nueve opciones posibles para colocar nuestra ficha y nuestro rival ya solo tendrá ocho para el siguiente movimiento, pues no puede poner donde hemos puesto la nuestra. Después nosotros solo tendremos siete, el rival seis, etc. Da la impresión de que los posibles movimientos en un tablero tan pequeño que va reduciendo su tamaño a cada turno no serán demasiados. Pues el cálculo es sencillo: hay 9 factorial de movimientos posibles, es decir, 362.880… ¡Ufffff! (Bueno, realmente hay algunos menos, pues tenemos que quitar todas las partidas en las que se gana o pierde antes de agotar todo el tablero, ya que se puede vencer en un mínimo de tres movimientos propios y dos del rival).

Una de los dogmas más típicos del ethos cognitivo del científico es el realismo. La mayoría de los científicos con quienes debatas tendrán una concepción realista del conocimiento. Será común que sostengan, con más o menos matices, que el mundo objetivo es real y que, nosotros, mediante el método científico, tenemos acceso a esa realidad. Es posible un conocimiento objetivo del mundo y la ciencia es el camino adecuado para conseguirlo.

De la misma forma, cualquier científico que se precie aceptara, sin lugar a dudas, la teoría de la evolución darwiniana. Aplicándola a la percepción de la realidad, es bastante lógico pensar que la selección natural premiaría el realismo, ya que un organismo incapaz de percibir dónde está, realmente, el alimento, la pareja o un posible depredador, tendría pocas probabilidades de sobrevivir. Siguiendo el recto gradualismo darwiano, sistemas perceptivos tan sofisticados como el de un ave rapaz, serían fruto de pequeñas variaciones que irían progresivamente dando al pájaro una visión cada vez más aproximada a la auténtica realidad.

Entonces llega el psicólogo cognitivo de la Universidad de California, Irvine, Donald Hoffman y lo pone todo patas arriba. Hoffman va a llevar a sus máximas consecuencias una determinada idea que parece innegable para cualquier darwinista: un organismo no necesita percibir toda la realidad tal cuál es, solo la que necesite para aumentar sus posibilidades de supervivencia y reproducción (se usa el término fitness). Si la selección natural premia mucho la economía de medios, percibirlo todo es un derroche absurdo. Pero es más, no hace falta siquiera percibir una sección de realidad, sino solo un esquema, un indicador, una señal que nos sirva para tomar la decisión que aumente nuestro fitness. Pongamos un ejemplo (que no es de Hoffman pero creo que es más ilustrativo). Vamos conduciendo y tenemos que pasar por un cruce muy peligroso. La carretera que tenemos que cruzar tiene cinco carriles repletos de coches pasando a toda velocidad. Ver cuando no viene ningún coche, y calcular que nos dé tiempo a cruzar antes de que aparezca el siguiente, es una tarea compleja. No obstante, para eso se inventó el semáforo. Cuando llego al cruce no tengo que percibir todo el tráfico, solo con fijarme en una sola señal, un solo estímulo, la luz del semáforo, ya puedo cruzar sin peligro alguno. En cierto sentido, la luz del semáforo está resumiendo, simplificando toda la complejidad del tráfico a una combinación binaria: verde no pasan coches, rojo sí pasan.  Pensemos el ahorro de recursos perceptivos que supone el semáforo que, sin duda, sería elegido por la selección natural si tuviese que “diseñar” un organismo cruzador de carreteras.

Pero es más, contra toda intuición, nuestro organismo bi-perceptor no percibiría absolutamente nada que tuviese que ver con la realidad. En la carretera no hay nada como luces rojas o verdes, y una luz roja o verde no se parece en nada a un denso flujo de automóviles. Nuestro organismo estaría utilizando lo que Hoffman denomina interfaz, que es algo muy parecido al escritorio de tu ordenador. Cuando hacemos clic en el icono del reproductor de vídeo para ver una película, el icono no tiene ningún parecido al complejo sistema de circuitos, voltajes y magnetismos que se activa para que veamos la película. Lo realmente inquietante es que esto implica que, lo más probable, es que vivamos completamente ciegos a la auténtica realidad y que la “pantalla de nuestra consciencia” nos ofrezca un juego de símbolos que nada tienen que ver con lo que exista allí fuera.

Y más aún, no es que no percibamos cualidades objetivas, sino que la función de fitness es una relación entre el mundo, las cualidades del organismo en cuestión y su estado actual; por lo que la información que recibimos no es del estado del mundo, sino del estado de dicha relación. Por ejemplo, si nuestro organismo necesitara un determinado nutriente con mucha urgencia, es posible que mostrara una interfaz diferente a si lo necesita con menos premura. O, podría ser que nuestra interfaz mostrara con especial intensidad “situaciones” en las que las posibilidades de aumentar el fitness son muy altas o muy bajas, pero ignorara todas las demás.

Para fundamentar su tesis con más fuerza, Hoffman se basa en una serie de simulaciones informáticas en las que se ponen a competir diferentes estrategias perceptivas para conseguir optimizar su función de fitness. En las simulaciones realizadas por el discípulo de Hoffman, J.T. Mark, las estrategias de interfaz eran muy superiores a las realistas, más cuando se aumentaba la complejidad de las simulaciones, ya que esto producía que las estrategias realistas tuviesen que almacenar cada vez más información irrelevante. Basándose en ello, Hoffman llega a la controvertida afirmación de que el realismo es, evolutivamente, tan malo que.. ¡con total seguridad, la selección natural jamás lo eligió!

Pero, ¿no caeríamos de nuevo en la falacia del homúnculo? ¿Para que querría la evolución una “pantalla de la consciencia” en donde la información se transmitiera de forma simplificada o esquematizada? ¿Quién es el que está viendo este escritorio de ordenador lleno de iconos útiles para sobrevivir? La teoría de Hoffman no soluciona el problema del por qué de la consciencia pero sí que sortea el problema del homúnculo. La información no se repite de nuevo en una “pantalla de cine”, sino que se modifica para hacerse operativa. Si pensamos en nuestra mente como un conjunto de módulos funcionales, podemos pensar que tenemos módulos encargados de tomar decisiones de alto nivel a los que les viene muy bien recibir la información cocinada  para ser operativa. Nuestro módulo-consciente estaría encargado de tomar ciertas decisiones basándose en la información recibida por los sentidos. Lo que recibiría en su interfaz sería un conjunto de esquemas, resúmenes, iconos, desarrollados específicamente para ser utilizados de la forma más eficiente posible. Es como si fueran los instrumentos de vuelo de la cabina de un avión, ergonómicamente diseñados para ser utilizados lo más eficazmente por el piloto. Por ejemplo, la palanca que da potencia a los motores está perfectamente diseñada para ser agarrada con fuerza por una mano humana; igualmente, los iconos de nuestro “escritorio-consciencia” estarían diseñados para ser “agarrables” por nuestro sistema de toma de decisiones.

Objeciones: muchas, pero una especialmente hiriente. A todas las teorías que dicen que no podemos percibir la auténtica realidad se les puede aplicar la vieja paradoja de Epiménides. Se cuenta que Epiménides, un cretense, decía que todos los cretenses eran unos mentirosos, lo cual, evidentemente, nos lleva a una insalvable paradoja. Análogamente, si Hoffman dice que todo lo que percibimos es una interfaz que no representa la auténtica realidad, la propia teoría de la interfaz sería también una nueva interfaz que no describe el auténtico funcionamiento de la cognición. Hoffman debería explicarnos por qué él no es un cretense.

Otra, que a mí se me antoja más interesante, es que Hoffman presupone que percibir la auténtica realidad es costoso, por lo que hace falta hacer esquemas. Esto puede ser cierto en muchas ocasiones, pero en otras no. Podría darse el caso de que percibir ciertos elementos de la realidad tal como es fuera, incluso, menos costoso que tener que crear un icono en el escritorio de la consciencia. Es más, podríamos objetar que la hipótesis de que siempre fuese así no está refutada: ¿Y si, siempre, construir iconos en la mente fuera más caro que percibir la realidad tal y como es? A fin de cuentas, crear un icono es realizar un paso más que percibir la “realidad pura”, a saber, transformarla en icono ¿Y si esa transformación fuese muy cara? Hoffman debería idear un sistema de costos para evaluar lo que cuesta el realismo en comparación con la creación de su interfaz.

A esta multimodal user interface (MUI), Hoffman va a añadir una teoría aún más controversial si cabe: el Realismo Consciente, que viene a decir que lo único ontológicamente existente son los agentes conscientes, siendo la materia una mera creación de la consciencia. El argumento fundamental en el que se basa es sostener que todos los intentos de explicar la consciencia a partir de la materia han sido, hasta la fecha, baldíos (lo cual es completamente cierto), mientras que el camino inverso, explicar cómo la mente construye sus percepciones de la materia, ha sido más exitoso (lo cual no veo yo tan claro). De esta forma, siendo estrictamente científicos, parecería más lógico defender este idealismo que no el materialismo tradicional de la ciencia. Para Hoffman no habría problema alguno en invertir el orden causal de toda la neurociencia moderna, solo habría que cambiar el orden de las palabras: en vez de decir que clusters de neuronas causan estados mentales, tendríamos que decir que estados mentales causan clusters de neuronas, sin cambiar nada más.

En cualquier caso, aceptemos todo o nada de lo que dicen, las ideas de Hoffman suponen una fuerte apuesta por llevar a sus máximas consecuencias una epistemología radicalmente evolucionista que pone en la palestra un montón de cuestiones filosóficas que parecen, muchas veces, en la periferia del debate científico cuando, realmente, deberían estar en el centro. Os dejo su famosa Ted Talk (tenéis subtítulos en castellano):

Un pequeño relato de ciencia-ficción para disparar las neuronas:

El famoso antropólogo británico Bronislaw Brown descubrió una tribu que jamás había tenido contacto con el hombre blanco: los inké. No eran más de cien individuos que vivían como cazadores-recolectores en lo más profundo de la región del Mato Grosso, en algún lugar entre la frontera de Bolivia y Brasil. A Brown le costó muchísimo establecer contacto. Si los inké habían sobrevivido hasta ahora era, precisamente, porque habían evitado el contacto con el hombre blanco, y sobre todo, con sus microorganismos. Una gripe o un simple resfriado común podrían acabar con toda la tribu en unos días. Sin embargo, Brown era obstinado y, después de casi cinco años merodeando sus territorios e intentando comunicarse con ellos de las más diversas formas, lo consiguió. Y como a todo buen antropólogo no le bastó con observarlos desde fuera, sino que tenía que hacerlo desde dentro, es decir, debía practicar lo que los etnógrafos llaman observación participante: había que convertirse en un inké más.  Y también lo consiguió: Bronislaw Brown estuvo veinticinco años conviviendo con ellos. Después presentó sus descubrimientos ante la Royal Anthropological Institute of Great Britain and Ireland. Incluimos aquí algunos fragmentos de su discurso del 23 de mayo de 2021:

El aspecto de la aldea inké era completamente diferente a todo lo que yo haya visto jamás en mi dilatada carrera como antropólogo. Las típicas chozas de paja y adobe estaban todas repletas de pintadas de símbolos y grafías de la más diversa índole. Entre ellas reconocí muchas letras latinas propias del guaraní, pero eran pocas en comparación con la gran variedad de símbolos totalmente desconocidos. El suelo estaba lleno, por doquier, de las más diversas configuraciones de piedras, igualmente pintadas de distintos colores y símbolos idénticamente ininteligibles para mí. En un claro en el centro de la aldea había dispuestos más de diez columnas hechas de palos de junco, que, luego descubrí, representaban algunas de las más de cuarenta deidades que tenía el panteón inké.

La vida inké era extraña pero, aparentemente, sencilla. Se pasaban gran parte del tiempo rezando, meditando y hablando sentados en corros. También se pasaban largos ratos escribiendo en cualquier lugar mediante una tinta negra que obtenían del fruto del wituk. A diferencia de todo cuánto yo había estudiado en otras culturas, los inké trataban por igual a mujeres y hombres. Ambos sexos participaban por igual en todos los debates y rituales religiosos. También es llamativa la escasez de relaciones sexuales que mantenían. Mientras que en los pueblos colindantes la sexualidad se llevaba con mucha naturalidad, no existiendo, prácticamente, más tabús que el incesto y el adulterio, los inké sólo mantenían relaciones en fechas muy concretas de su calendario y siempre rodeaban el acto de una gran parafernalia ritual.  Y es que, en general, ni el sexo ni el disfrute de los placeres de la vida eran motivaciones para ellos.

[…] de entre todas estas perplejidades, la que me pareció más notoria y, en un primer momento, incomprensible, era el número de ataques epilépticos que sufrían los inké. En los individuos jóvenes lo habitual era tener dos o tres ataques diarios, mientras que el número subía con la vejez. Como todo, estos ataques se interpretaban de forma religiosa, pensándose que eran formas mediante las que los dioses se comunican con los mortales. Consecuentemente, los individuos que no sufrían ataques eran minusvalorados y considerados inkés de segunda.  Consultando a colegas psiquiatras y neurólogos del King’s College de Londres, me indicaron que, aunque jamás se había observado en un conjunto tan grande de individuos, los inké podrían sufrir un raro tipo de epilepsia del lóbulo temporal denominado síndrome de Gastaut-Geschwind, cuyos síntomas en la conducta coincidían con mucha exactitud con las costumbres inké. En breve lo explicaremos mejor.

[…] El idioma inké derivaba de una antigua versión del tupi, del Ñe’engatú, e incorporaba formas clásicas del guaraní. Sin embargo, tenía una cantidad tal de vocabulario, excepciones, nuevas estructuras y formas gramaticales, que bien podría decirse que estamos ante un idioma nuevo, y diferenciado del resto, de pleno derecho. Es muy reseñable el gran número de palabras abstractas que hacían referencia a aspectos religiosos y espirituales, muchísimas más que cualquier otra lengua de pueblos vecinos.

Su sistema de numeración era mucho más amplio que el típico guaraní, que no suele tener más que palabras para contar hasta cuatro, a partir del cual se utiliza la expresión “heta” para referirse toscamente a “muchos”. El inké disponía de un sistema decimal completo que, sorprendentemente, incluía el cero y, ya contra todo pronóstico posible, incluía seis expresiones diferentes para hablar del infinito. En mis estudios solo llegué a comprender con precisión el significado de tres de ellas: “borai” significa infinito potencial, “borume” hace referencia a la inmensidad del universo y “acai” a la infinitud de Dios; la expresión “omoti” parece tener alguna relación con la infinitud del tiempo aunque no sabría precisar en qué sentido. Las otras dos expresiones son completamente incomprensibles para mí. En conversaciones con ellos descubrí que conocían la existencia de infinitos más grandes que otros o de infinitos que avanzaban a más velocidad que otros, lo cual, dicho sea de paso, no entendí muy bien.

Los inké poseen ciertas matemáticas, siendo un enigma de dónde las han sacado, ya que los demás pueblos indígenas de la región no poseen nada más que las operaciones aritméticas básicas.  Un inké llamado Embael, me habló de ciertas reglas de transformación de formas espaciales mientras dibujaba en el suelo con un palo distintos cuerpos geométricos. Por lo que pude inferir, no utilizaban las matemáticas para nada práctico, ya que llevando un estilo de vida primitivo en la selva amazónica no hay demasiadas cosas que contar, sino de una forma muy parecida a la de los pitagóricos griegos. El concepto de número no se entendía como una abstracción sino que tenía un significado ontológico, como si de un constituyente de la propia realidad se tratara. Embael se maravillaba ante el hecho de que la realidad pudiese obedecer reglas matemáticas y eso, para él, era una prueba de que la realidad “emanaba del número”.

[…] disponían de las cuatro formas tradicionales de pronombres interrogativos pero, y esto es de suma importancia, tenían una quinta: “Mba’rain”. No he acertado a entender qué puede significar a pesar de que los inké la utilizan muchísimo, tanto en sus conversaciones habituales, como en sus largas disertaciones y en sus frecuentes rituales. Pero es que tener un nuevo pronombre interrogativo te permite preguntarte, y por lo tanto descubrir, una nueva sección de la realidad. Los inké tenían acceso a una realidad que el resto de lo humanos no tenemos.

[…] parecía paradójico el hecho de que mientras mostraban un desarrollo religioso y filosófico a años luz de los pueblos vecinos, no ocurría lo mismo con su desarrollo tecnológico. Es más, estaban incluso más atrasados. Únicamente utilizaban arcos y flechas para cazar, actividad que realizaban con muchísima menos asiduidad que la mayoría de los otros pueblos . Su pericia en la caza también era inferior. Los inké son malos cazadores. Su alimentación estaba mucho más basada en la recolección, lo que hacía que el hambre fuera algo bastante común entre ellos, no obstante que no parecía importarles demasiado. El ayuno como ritual religioso estaba a la orden del día. Así, la mayoría de los inké estaba flacucho y famélico. Tampoco disponían de muchos útiles de cocina ni de herramientas de ningún tipo. Parecía como si el hecho de dedicar tanto tiempo y esfuerzo al mundo espiritual les hubiera hecho descuidar el mundo práctico. Parecía que vivían más en otro mundo que en éste.

[…] y es que los síntomas del síndrome de Gastaut-Geschwind encajaban perfectamente con todo lo que estamos contando: hiperreligiosidad, hipergrafía, preocupaciones filosóficas excesivas, e hiposexualidad. Lo extraño es que este síndrome es muy raro y nunca se ha documentado un caso en el que muchos individuos lo posean a la vez. La única explicación posible es la genética. Siento no poderles ofrecer datos genéticos en estos momentos porque el análisis del genoma de los inké está todavía realizándose en laboratorios de la Universidad de Reading.

[…] Costó más de cuatro meses trasladar la enorme máquina de tomografía por emisión de positrones a lo más profundo de la selva amazónica. De hecho, esto triplicó el presupuesto que la universidad me concedió para mi investigación, pero creo que mereció la pena, porque, señoras y señores, gracias a la observación del cerebro de los inké, creo estar ante uno de los acontecimientos científicos más importantes en lo que va de siglo: el descubrimiento de una nueva especie dentro del género homo. Los inké tienen un cerebro tan diferente al nuestro que creo que es lícito hablar de una nueva especie. En primer lugar, la corteza ventromedial postorbital es morfológicamente diferente y más grande que la nuestra. Del mismo modo, el área de Brodmann 25 es prácticamente inexistente, lo que quizá podría explicar el hecho de que los inké siempre se encontraran en un estado de ánimo muy sosegado, prácticamente estoico. Y, lo más importante, tienen una estructura completamente nueva: en el lóbulo frontal del hemisferio izquierdo, pegada a la cisura longitudinal, justo encima de las fibras comisurales del cuerpo calloso, existía una protuberancia de casi dos centímetros de tamaño. Cuando observábamos a los inké mediante la tomografía por emisión de positrones veíamos que esa zona se activaba muchísimo cuando hacían reflexiones metafísicas. Es más, cuanto más incomprensibles eran para mí esas reflexiones, más actividad mostraba esa zona. También se activaba mucho cuando los inké tenían ataques epilépticos, y es que esa zona estaba muy conectada con diversas zonas del lóbulo temporal que eran las que, precisamente, se volvían locas durante los ataques. El mismo cambio genético que había producido el síndrome de Gastaut-Geschwind estaba detrás de la aparición de una nueva región cerebral.

[…] Mi hipótesis, y sé que es muy arriesgada, es que esa nueva zona, a la que he llamado corpus philosophorum, dota a los inké de nuevas habilidades intelectuales. Precisamente, ese quinto pronombre interrogativo “Mba’rain” y toda la teoría que los inké hacían girar en torno a él y que, lógicamente, yo fui incapaz de entender, procede de la activación de ese corpus. El desarrollo de una nueva área cerebral ha permitido a los inké llevar su actividad metafísica a otro nivel diferente al de nuestra especie que, desgraciadamente, estará siempre vetado para nosotros. Por ilustrarlo con un ejemplo: la metafísica de los inké es para nosotros como la resolución de ecuaciones de segundo grado para los chimpancés. Por muchos esfuerzos que hicieras para explicarle a un chimpancé a resolver ecuaciones, jamás lo conseguiría, porque biológicamente no está capacitado para ello.

Los inké habían desarrollado teorías metafísicas y teológicas de la realidad, cuya única explicación es el desarrollo de nuevas áreas cerebrales. Piensen, damas y caballeros, ¿cómo es posible que una minúscula tribu perdida en el Amazonas pueda desarrollar esas teorías en la soledad de la selva, sin influencias culturales del exterior? ¿Cómo es posible que hayan desarrollado ideas que, en Occidente, costaron milenios de progreso cultural? Los inké debatían sobre la posibilidad del libre albedrío en un universo determinista, sobre si era lógicamente posible la omnipotencia divina, o sobre la anterioridad o posterioridad de la causa sobre el efecto. Una noche, un anciano levantó una piedra y nos dijo que la observáramos. Después dijo solemnemente que esa roca era el centro exacto del universo, y nos invitó a que le diéramos todas las razones que se nos ocurrieran en contra de esa idea ¿Cómo es posible si quiera que un indígena amazónico pudiera ubicar la totalidad del universo en un espacio? ¿Cómo es posible que luego pensara en que ese espacio debería tener un centro y se preguntara sobre él? ¿De dónde sacó las herramientas cognitivas para hacerlo?

Y, permítanme unas reflexiones a este respecto porque quizá de tanto tiempo con ellos se me pegó cierta querencia filosófica. Los inké han desarrollado su cerebro y han podido hacerse preguntas que nosotros no podemos imaginar. La cuestión que surge naturalmente después es: ¿Cuántas regiones del cerebro nos quedarían más para comprender la auténtica realidad? ¿Nuestro cerebro está ya cerca de ser lo suficientemente evolucionado para conseguirlo? ¿O estamos tan lejos como podría estar una hormiga de comprender la teoría de supercuerdas? O, ¿sencillamente, la realidad es inagotable y, por mucho que se modificara nuestro cerebro jamás llegaríamos a entenderla? O, y esta es mi reflexión más inquietante: ¿y si tanto las preguntas como las respuestas son solo productos de mi cerebro que, realmente, no tienen ningún sentido? Piensen, por ejemplo, en una cultura completamente opuesta a los inké que, en vez de desarrollar su mente metafísica hubiesen desarrollado su mente práctica pero, a su vez, hubiesen perdido las partes del cerebro propias del pensamiento especulativo. Serían unan cultura de grandísimos ingenieros que habrían construido máquinas de todo tipo, pero serían completamente incapaces de entender la pregunta por el sentido de la existencia. Para ellos no tendría sentido preguntarse por si la vida de cada uno es absurda o no. Pero, profundicemos: ¿Y si tuviesen razón? ¿y si, realmente, es absurdo preguntárselo porque esa pregunta solo viene dada por el capricho evolutivo de un área de nuestro cerebro?

Desgraciadamente, cuatro años después de las conferencias de Brown en Londrés, los inké desaparecieron de una forma, como no podía ser de otra manera, sorprendente. En el verano de 2025 estallaron una serie de guerras tribales en el Mato Grosso. Los inké no tenían demasiados aliados por su habitual conducta solitaria y hostil, además de que su pericia guerrera iba a la par de su escasa habilidad cazadora. Así, sus posibilidades eran a priori pocas, pero es que ni siquiera lo intentaron. Cuando un grupo armado de awás entró en la aldea se produjo la masacre. Los inké ni huyeron ni, prácticamente, ofrecieron resistencia. Se dejaron matar, seguramente, como ofrenda a sus dioses en alguna incomprensible especie de suicidio ritual.

El profesor Brown, ya octogenario, murió siete meses después de la desaparición de los inké. Sin sujetos experimentales, sus valientes hipótesis no pudieron reproducirse, y en unos años, el supuesto descubrimiento de una nueva especie humana quedó olvidado. A día de hoy todo ha quedado como una anécdota, meras fantasías de un excéntrico antropólogo, cuando no mera charlatanería.

Nota: el grupo de Facebook sobre Filosofía de la Inteligencia Artificial tiene casi dos mil miembros, ¡Apúntate!

Ya está disponible en Amazon en formato e-book por el irrisorio precio de tres euritos (La versión en papel está tramitándose y costará cinco euros). En Coordendas he recopilado las mejores entradas de este blog, junto con más artículos publicados en otros lugares de la red, desde el 2012 al 2016.  Lo he dividido en cuatro secciones: una primera trata sobre la revolución darwiniana (ya sabéis que creo que todavía no hemos tocado ni la superficie de lo que significa la evolución biológica y el gigantesco cambio que supone con respecto a la visión de nosotros mismos), una segunda sobre los avances que se están dando en neurociencias, otra tercera sobre cuestiones cruciales de filosofía de la ciencia, y una cuarta dividida en dos: un extenso artículo que aborda el tema del determinismo y la aleatoriedad (lo publiqué en Hypérbole y se tituló: “Jugando con Dios al Craps”), y otro que habla del gran tema de nuestro tiempo: la Inteligencia Artificial (se trata de una pequeña pero fecunda historia de la disciplina).

En fin, animaos y compradlo pues… ¿qué se puede hacer mejor en la playa que leer la Máquina de Von Neumann?

 

Os dejo el vídeo de la mesa de debate que hicimos en el edificio de Elzaburu en Madrid. Cuando lo he vuelto a ver me ha parecido más interesante aún que cuando estuve allí. Y es que el plantel de expertos es bastante bueno… y si estoy ya es insuperable 😉

La idea que defendí es una de las tesis centrales de Harari en Homo Deus: el fin del liberalismo a manos de las nuevas tecnologías. El fin de nuestro sistema económico-político no va a venir de la mano de los críticos del sistema. El marxismo, con todas sus matizaciones, con todas sus variantes y reformulaciones no ha podido hacer, ni hará, ni cosquillas, al neoliberalismo. El fin de nuestro sistema vendrá por otro lado: de la mano de la revolución tecnológica ¿Cómo?

El liberalismo moderno está basado en la idea de la sacralización del individuo. Y la cualidad más esencial, y por lo tanto valiosa, de ese individuo es su capacidad de elección libre. Entonces, dicho individuo tiene que vivir en un sistema democrático (ya que ha tener la libertad de autogobernarse a sí mismo, tachando de dictatorial cualquier forma de gobierno que sacrifique al individuo en pro de alguna causa mayor como, por ejemplo, el nacionalismo en sus diferentes estilos. Curioso que hoy en día las posturas nacionalistas tengan cierta fuerza) y en un sistema capitalista (tiene que tener libertad para producir pero, sobre todo, para consumir). Por lo tanto, el sistema se fundamenta en la libertad de votantes y consumidores, y si esa desaparece el sistema se derrumba ¿Está desapareciendo?

Nosotros aceptamos que los políticos nos mientan. No nos gusta, de hecho, nos asquea profundamente y gran parte de la apatía política que hoy existe viene de ese desencanto hacia esos mentirosos profesionales que, constantemente, dicen y se desdicen en un bucle patético. Sin embargo, lo aceptamos porque pensamos que el sistema democrático nos trae una serie de ventajas que compensan, con creces, este defecto. Para mí, la principal virtud es que la democracia facilita un mecanismo no violento de alcanzar el poder. En cualquier época histórica no democrática (es decir, en casi toda la historia de la humanidad) si querías gobernar debías quitar por la fuerza al gobernador vigente, y así la historia de nuestra especie es una historia de guerras y guerras y más guerras. La democracia minimiza esto y ya por eso merece, con mucho, la pena.

Sin embargo, nuevas tecnologías están dañando la idea de libertad del sujeto. Bueno, la libertad del sujeto está ya bastante dañada, sencillamente, porque el sujeto no es, para nada, libre, como ya hemos argumentado en muchas ocasiones. No obstante, por mor de la argumentación, vamos a aceptar que el sujeto elige libremente pero que puede ser manipulado, y que un alto nivel de manipulación invalida la libre elección. Entonces, aceptamos un “poquito” de manipulación (la que hacen los políticos), pero demasiada ya no sería aceptable ya que eso significaría que el individuo ha sido engañado y que su voto, en cierto sentido, no ha sido libre ¿Y cómo daña las nuevas tecnologías esto? Aquí entra Cambridge Analytica.

Christopher Wiley,  que parece sacado de un comic cyberpunk (la realidad siempre supera a la ficción), nos ha contado estos días como se elevaba el arte de la manipulación a niveles jamás vistos. Usando el enorme agujero en la seguridad de protección de datos de Fabebook, el análisis de la personalidad a partir de los likes de Facebook iniciado por Kosinski y Stillwell en Cambridge, y técnicas de microtargeting publicitario, la empresa Cambridge Analytica manipuló a más de ochenta millones de personas para votar a favor de Donald Trump o del Brexit (todo mejor explicado en mi ponencia que empieza a partir del minuto 23).  Según sostiene el mismo Wiley, sin la actuación de Cambridge Analytica la victoria de Trump y del Brexit no hubiesen sido tales… entonces, ¿no estamos hablando de fraude electoral en toda regla? ¿Qué legitimidad tienen esos resultados electorales? Pero, fijaos en el asunto porque es muy diferente a otros tipos de tongo electoral: aquí no se ha hecho trampas en el sentido clásico del término: no se obligo a nadie a votar nada en contra de su voluntad ni se falsificaron papeletas ni nada por el estilo. La gente votó felizmente, pensando en que lo hacían libremente. Entonces estamos hablando de un fraude electoral en unas elecciones en las que los votantes votaron libremente… ¿qué diablos significa eso? Que la libertad, fundamento básico del liberalismo, se cae y con ella se cae todo.

No obstante, creo que Wiley exagera un poco. No creo que las herramientas de las que dispuso Cambridge Analytica sean tan potentes a la hora de influenciar en el electorado y que, por tanto, hayan sido tan determinantes en las elecciones donde se utilizaron. Pero eso no quita que en un futuro, bastante próximo, este tipo de técnicas se vayan perfeccionando hasta llegar a niveles de manipulación del votante que nadie estaría dispuesto a aceptar. Véase en el vídeo cuando expongo la “hipótesis de la corbata amarilla” (a partir del minuto 33).

¿Soluciones? Lamentablemente, las medidas legales siempre van muy detrás de los rapidísimos avances tecnológicos (más con la habitual ineptitud de la clase política). El nuevo reglamento europeo (el latoso RGPD) ha mejorado el control de los usuarios sobre sus datos pero todavía se queda muy corto en muchos aspectos y, muy pronto, veremos ya las argucias de las empresas para saltárselo. Como bien subrayaba Elena Gil es muy importante formar en una ética del diseño (que no aparece ni lo más mínimo en ningún plan de estudios de ingeniería), y como bien subrayaba Marlon Molina, una petición de responsabilidades bien delimitada por capas parece una idea muy sensata para afrontar la dificultad que supone la dispersión de la responsabilidad en grandes proyectos empresariales. De la misma forma, que la actividad del programador informático estuviese colegiada tampoco sería una mala propuesta. En el fondo estamos como siempre: un liberalismo económico voraz y descontrolado que pide a gritos una regulación.

Me lleva llamando mucho tiempo la atención la falta de ética generalizada en el sector ingenieril. Recuerdo una vez, discutiendo con un neoliberal, que cuando le hablaba de que la economía debería estar supervisada por la ética me respondió que si yo pretendía convertir la economía en una sharia. O sea, que si hablamos de ética ya somos una especie de… ¡fundamentalistas religiosos!  Y es que los ingenieros están imbuidos en el ethos del mundo empresarial, el cual, como todos sabemos, es de todo menos ético. Así que ingenieros del mundo, por favor, a ver si somos un poquitín más buena gente, y vamos diseñando cosas no tanto para forrarnos como para hacer del mundo un lugar algo mejor. Simon Roses… ¡No trabajes más para DARPA!

Algo de activismo majo al respecto: Tristan Harris, antiguo responsable de diseño ético de Google que se fue de allí espantado viendo lo que realmente había, y otros desertores del sistema, han fundado el Center of Human Technology. Algo es algo.

Hay algo muy siniestro en estas imágenes. Y no es que me quiera poner tecnófobo pero a mí, el hecho de que estas caras no representen a nadie, que sean un retrato hiperrealista de… absolutamente nadie, me da un poco de repelús. El efecto del valle inquietante se me antoja muy fuerte en ellas. Resulta muy difícil hacerle creer a mi cerebro que esas personas no existen, y todo esto me hace plantearme si, en un futuro, nos será cómodo relacionarnos con inteligencias artificiales visualmente indistinguibles de un humano real. No sé, poniéndome muy sci-fi, pienso en estos rostros como los de los nuevos seres que vienen a sustituirnos… ¡Qué miedo!

Bobadas de nerd. Terminaremos por adaptarnos a ellas sin el más mínimo problema, igual que mi hija se ha adaptado muy bien (quizá demasiado) a que el móvil hable o a que seres animados obedezcan a sus dedos en una pantalla táctil. Somos una especie sumamente adaptable a nuevas realidades y relacionarnos con máquinas indistinguibles de humanos no supondrá nada diferente. Al igual que hoy en día no existe demasiado problema en no saber la tendencia sexual de alguien solo con verlo, podría llegar el momento en el que no pase nada por no saber si con quien hablas es una IA o un humano. A lo mejor llegamos a un futuro en el que se estipule el derecho de las IA a no tener que definir su verdadera naturaleza para no ser discriminadas ¿Quién sabe?

Volvamos a la realidad: ¿Cómo las han hecho? Los ingenieros de NVDIA han utilizado las redes generativas adversarias (GAN) de Ian Goodfellow. Tenemos dos redes de-convolucionales (redes convolucionales invertidas), que juegan al ratón y al gato. Una genera rostros y la otra juzga la calidad de éstos, de modo que la primera intenta, a cada iteración, que la segunda no sea capaz de discernir si el rostro es real o no, mientras que la segunda es, a cada iteración, “mejor policía” identificando rostros falsos. Al final de esa competición tenemos rostros sumamente realistas que pasarían, como podemos ver, el Test de Turing de los rostros sin el mayor problema( Aquí nos explican muy bien cómo funcionan).


Somos excepcionalmente buenos reconociendo rostros. Igual que nuestra memoria para recordar los nombres de las personas que acabamos de conocer es muy mala, la de reconocer sus caras es excelente. Así, aunque no sepamos el nombre de alguien sí que solemos decir “su cara me suena”.

Durante mucho tiempo se pensó en la hipótesis de la célula de la abuela (también llamada neurona de Jennifer Aniston tras los estudios de Rodrigo Quiroga), sosteniendo que teníamos una neurona especializada en el reconocimiento de cada rostro que conocíamos. Tendríamos una neurona sólo para reconocer a Justin Bieber a Cristiano Ronaldo, a cada uno de nuestros amigos y, por supuesto, para nuestra abuelita. Pero la solución parecía poco elegante: ¿disponemos de un “almacén” de neuronas “vírgenes” a la espera de cada rostro que, potencialmente, pueda conocer en mi vida? Parece muy poco elegante aunque hay evidencia a favor (véanse los experimentos del equipo de Christof Koch, mentor de Quiroga), pero quizá se pueden ver las cosas de otra forma…

Los biólogos del Caltech Doris Tsao y Steven Le Chang establecieron un espacio de cincuenta dimensiones al que llamaron “espacio facial”. De esas cincuenta, destinaron la mitad a parámetros longitudinales de la cara (distancia entre los ojos, anchura de la nariz, etc.), y la otra a aspectos cualitativos (colores, texturas, etc.). Con ellos se pueden describir potencialmente cualquier nuevo rostro que uno pueda conocer. Por así decirlo, este espacio es una excelente “gramática generativa de rostros”. Para trabajar con un espacio así solo se necesita una red neuronal artificial de poco más de doscientas neuronas (concretamente 205)… y, ¡tachán, tachán! los resultados fueron bastante espectaculares.

Se monitorizó la actividad eléctrica de las áreas faciales de macacos mientras contemplaban imágenes de rostros y a partir de ella y con su “espacio facial”, el equipo de Tsao podía predecir el rostro que veía el mono con una gran precisión; incluso lo podía reconstruir hasta hacerlo indistinguible del original. Así, las neuronas no codificarían cada rostro, ni siquiera un rasgo concreto de cada rostro, sino solo un vector en ese espacio de cincuenta dimensiones. En la imagen vemos la enorme precisión de la predicción. Es, sin duda, un nuevo logro de la IA conexionista y, a nivel más general, de la teoría computacional de la mente. Aunque, poniéndonos en el peor de los casos, estuviésemos ante una caso de infradeterminación de teorías, es decir, que obtenemos los mismos resultados que la realidad utilizando un modelo erróneo, diferente al real, sería muy absurdo pensar que la realidad funciona de un modo radicalmente diferente a nuestro modelo. En el peor de los casos, por ahí deben ir los tiros. A día de hoy, negar que el cerebro procesa información va siendo cada vez más difícil. Nota final: y si generar caras mediante IA parece fascinante, Microsoft ya tiene lista una herramienta que genera imágenes de cualquier tipo a partir de instrucciones de texto:

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

“Si llegas después de las siete estarás llegando tarde”

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

“Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.