Perdonándome por mis continuas coletillas (mi perenne “vale”) y mis malas vocalizaciones, las que hacen de mí un pésimo orador, no hay nada mejor que hacer en tiempos de cuarentena que ver la pequeña charla que dí para los AI Saturdays de Almería en el centro cultural La Oficina, allá por el 2018. Debo agradecer a los organizadores la invitación, el trato recibido y la elaboración de este vídeo. Me lo pasé muy bien y descubrí una ciudad bastante sorprendente.

Y recordad, las máquinas no piensan, ¡las máquinas kensan!

Es un tópico decir que la filosofía surge del asombro. El universo genera en el filósofo una especie de pasmo ante su insondable misterio. El filósofo se queda profundamente asombrado cuando mira el cielo estrellado y piensa en lo increíblemente vacío que es el cosmos. Millones y millones de años luz de distancia en los que no hay absolutamente nada ¿Por qué? Asombro. El buen filósofo, además, es aquel que consigue asombrarse no ya de los sublimes sucesos cósmicos, sino de lo más cotidiano. Por ejemplo, el buen filósofo ve como incuestionablemente extraordinario el hecho de que alguien sea capaz de hablar ¿Por qué? Porque si abandonamos esa familiaridad de lo ordinario y profundizamos, el hecho de que en el cerebro de alguien se den una serie de sucesos, llamemoslos “mentales”, que den lugar, de un modo todavía muy misterioso para la ciencia, a un montón de reacciones electro-químicas, que terminen por mover los músculos de la lengua y hacer vibrar el aire hasta el oído de otra persona que, de la misma forma misteriosa, capta esas vibraciones y las convierta en nuevos “sucesos mentales”, es una cosa digna del mayor de los asombros.

Pero a mí, desde que tengo recuerdo, el sentimiento que me genera el universo no es tanto asombro como  extrañeza. Sí, el mundo es un lugar muy extraño, raro. Concedo que la extrañeza tiene cierta semejanza con el asombro: hay un reconocimiento de lo extraordinario, y se lo reconoce, igualmente, en lo ordinario, pero difiere en que introduce en el estado de ánimo cierta inquietud, cierta perplejidad negativa, cierta idea de que algo no va bien, de que las cosas no son como deberían. Quizá lo negativo viene porque reconocer lo extraño implica aceptar que nuestras teorías, nuestros esquemas cognitivos para comprender la realidad, fallan y, horror de los horrores, quizá no podamos arreglarlos. Quizá lo extraño quede extraño para siempre. No obstante, la extrañeza no deja estupefacto ni consternado, no te deja boquiabierto ni ojiplático, no te idiotiza ni te deja con cara de imbécil, todo lo contrario: la extrañeza es el sentimiento que hace sospechar al detective de que ese testigo está mintiendo. La extrañeza es, por excelencia, muy buena afiladora del ingenio.

A mí, que el universo esté absolutamente vacío me indica que algo se ha hecho mal ¿Por qué tal ineficiencia, tal desparrame de medios? ¿A qué clase de dios chiflado se le ocurriría crear un universo así? Pero como digo, no hace falta irse a las inmensidades del cosmos para sentir extrañeza, sino que basta con entrecerrar un poco los ojos para mirar con más atención lo que nos rodea para darse cuenta de que el mundo no es normal (a veces, para el escarnio de su creador, es incluso muy subnormal) y que lo extraño, más que la excepción, es la regla. Voy a traer al caso unos ejemplos matemáticos muy triviales que acabo de leer estos días.

Con las matemáticas es muy fácil conseguir extrañeza. No hay más que ponerse en el lugar de los pitagóricos cuando Hipaso de Metaponto descubrió los números irracionales ¿Cómo es posible que existan números que no pueden representarse mediante una fracción? ¿Cómo es posible que exista un número que sigue y sigue creciendo hasta el infinito sin ninguna periodicidad? Hipaso estaba demostrando algo muy extraño, es decir, que algo no funcionaba como debiera en el universo. Tuvieron que matarlo. Y es que hay que tener cuidado porque la extrañeza puede llevar al asesinato.

El famoso matemático Ian Stewart nos propone analizar una sencilla sucesión numérica: 2x²-1. Partimos con el valor inicial de x=0,54321. El siguiente valor de x será el resultado que nos da hacer la operación (-0,409845892), el siguiente tomará como x el resultado de la anterior, y así sucesivamente. Observemos la gráfica de lo que ocurre:

Como era de esperar, el resultado nunca supera ni el 1 ni el -1, sino que va oscilando entre ambos. Pero lo que resulta muy extraño es la aleatoriedad que se genera. He utilizado Excel para iterar los 200 primeros resultados y todos son números completamente aleatorios sin ninguna repetición. Con una fórmula sumamente trivial y una hoja de cálculo acabo de generar desorden puro en mi ordenador portátil. De hecho aquí tendríamos un buen generador de números aleatorios. Bastaría coger, por ejemplo, el primer dígito a partir de la coma de cada resultado y nos saldría:  461985372846285… completamente imposible predecir cuál va a ser el siguiente número.

Sigamos. Si en vez de utilizar 2 como coeficiente de la ecuación, utilizamos K, siendo K cualquier número, surgen una serie de comportamientos que acrecientan la extrañeza. Por ejemplo, para K = 1,4 la gráfica da una sucesión que se aproxima cíclicamente a unos 16 resultados diferentes:

¿Por qué? ¿Por qué para K=2 tenemos desorden y en K=1,4 tenemos un patrón ordenado? Si vamos probando valores de K, al subir de 1,4 a 1,5 llega de nuevo el desorden con una configuración similar a K=2. Si seguimos subiendo continua el desorden hasta que, de repente, llegamos a 1,75:

Vemos como, al principio, hay cierto desorden pero, a partir del resultado 84, se vuelve muy regular, haciendo un ciclo continuo entre tres valores: de 0,744 a -0,030 y a -0,998 ¿Por qué diablos hace algo así? ¿De dónde sale ese orden? ¿A cuento de qué? Esto es lo que se llama un sistema autoorganizativo, porque el orden no procede de ninguna causa externa sino que parece emerger de dentro de él mismo, lo cual es muy raro. Si el orden no procede de nada externo… ¿estamos creando orden de la nada? ¿Estamos violando del principio de razón suficiente? En mi humilde opinión: no. Lo que aquí se está evidenciando no es que el orden se genere de la nada, sino que se generará desde otro nivel que aún no conocemos. Como escribí hace tiempo, decir que el orden emerge de la propia organización o complejidad de un sistema sin decir nada más, no es decir absolutamente nada. Lo que hay que hacer es reconocer la ignorancia y seguir investigando.

Y como la extrañeza agudiza el ingenio, pronto se creó la ciencia del caos para intentar comprender estos sucesos emergentes. De hecho, se ha conseguido demostrar que nuestro primer experimento con k=2 no da como resultado desorden puro, sino un cierto tipo de orden llamado atractor extraño (¡No podía llamarse de otro modo!).

Carta abierta a Frits Rosendaal

Publicado: 28 marzo 2020 en Ética y moral
Etiquetas:

Según informa El Confidencial, las declaraciones del señor Frits Rosendaal, un excelente científico, jefe de epidemiología clínica del Centro Médico de la Universidad de Leiden (Países Bajos), han sido estas:

En Italia, la capacidad de las UCI se gestiona de manera muy distinta (a Holanda). Ellos admiten a personas que nosotros no incluiríamos porque son demasiado viejas. Los ancianos tienen una posición muy diferente en la cultura italiana.

Con esto se criticaba la gestión italiana y española de la crisis: si aceptamos a ancianos en el sistema sanitario, lo colapsamos y al final habrá más muertos, ya que a esos ancianos que ya de por sí tenían muchas probabilidades de morir, le sumamos los jóvenes que hubieran sobrevivido si el sistema no se hubiera colapsado ¿Parece lógico no?

Siguiendo su precisa lógica, señor Rosendaal, le propongo lo siguiente. A partir de ahora en Holanda, a todo anciano que supere, pongamos los 75 años de edad, se le suministrará gratuita, pero obligatoriamente, una dosis de cianuro (Reconozco que 75 ha sido una edad elegida arbitrariamente. A usted le dejo elegir a partir de qué año exacto una persona merece ya morir o todavía podemos dejarle un ratito más en este valle de lágrimas). De ese modo el sistema sanitario estará siempre en plena forma y podrá atender a todos los demás holandeses dignos de atención. Es más, tal medida será muy saludable para las arcas públicas ya que, el siempre difícil de mantener sistema de pensiones, quedaría muy saneado. Además, los ancianos no consumen demasiado, no producen ni hacen mucho más que estar todo el día sentados y quejándose. No serán una gran pérdida.

Es más, señor Rosendaal, le propongo un nuevo juego, un clásico dilema ético que creo que usted debiera conocer. Usted, a pesar de tener 61 años, dispondrá de muchos órganos sanos y fuertes. Seguramente que en el hospital de Leiden donde usted trabaja hacen falta varios trasplantes. Seguro que hay gente más joven que usted esperando corazones, hígados, pulmones, riñones… Bien. A ver que le parece este trato: un grupo de excelentes cirujanos le llevará al quirófano. Allí, le extirparán los órganos sanos que puedan ser útiles a otros con la condición de que esos otros sean más jóvenes que usted. Tranquilo, no le dolerá. Y fíjese que maravilla: matándole a usted, que, siendo sinceros, está al final de su carrera profesional, podremos salvar a cuatro o cinco personas productivas en plenitud de su vida ¡Una vida por cuatro o cinco! ¡Vaya chollo de trato!

En fin, fuera de bromas, las declaraciones de Frits Rosendaal son, en términos éticos, completamente vomitivas y absolutamente impropias de un profesional con un cargo tan relevante en su país. Ponderar el valor de la vida de las personas en función de su edad es una aberración ética mayúscula que, creía yo, se estudiaba en la asignatura de Ética en secundaria. Se ve que en Holanda no hay necesidad de enseñar tales preceptos.

Y por supuesto, espero muy honestamente, señor Rosendaal, que usted mismo no se vea abocado a decirle a su madre o a su padre, que no le va a atender en su hospital, y que no tenga que ser usted mismo, en persona, el que lo acompañe a la puerta y le pida un taxi para que se vaya a morir a su casa.  Le deseo, de verdad, que no se vea en ese caso porque tiene que ser atroz.

Unas cuantas cositas que he leído estos aciagos días: el célebre gurú de la izquiera, Slavoj Zizek dice, sin inmutarse, que la crisis del coronavirus nos llevará a una nueva especie de neocomunismo maravilloso… Byung-Chul Han, muy guay también, dice que estamos ante el fin de la privacidad y la llegada del autoritarismo. He leído que nuestra cultura mediterránea quedará muy dañada y nos vamos a ir orientalizando, es decir, que ya no saldremos tanto a la calle a disfrutar de nuestro sol sino que nos gustará más quedarnos en casa a ver anime y a jugar a videojuegos. Otros van diciendo que esto está favorenciendo los lazos familiares, que estamos aprendiendo a valorar lo realmente importante, y que, por supuesto, de aquí saldremos mejores y el mundo será más bonito.Y, desde la visión opuesta, no ha faltado en mis lecturas el catastrofismo clásico hacia el futuro económico: una nueva crisis que será varios órdenes de magnitud más dura que la anterior, lo que traerá la enésima reformulación o refundación del capitalismo…Todo esto dicho por reputados analistas e intelectuales que pueblan las cátedras de las universidades y las asesorías de nuestros políticos… ¡Bravo!

Pues ahora yo, en un ejercicio de arrogancia sin parangón, y a sabiendas que me contradigo, os voy a decir lo que va a pasar de verdad: no mucho o, si me he pasado de frenada, desde luego no tanto. A ver. Pidiendo disculpas muy sinceras a todo el que pierda un familiar querido (yo estoy bastante preocupado por los míos. Crucemos los dedos), esto no va a durar mucho más de dos meses. Y dos meses de confinamiento no dan para tanto. Cuando esto termine volveremos a nuestras vidas como siempre. Es cierto que vendrá una nueva crisis económica, pero será parecida a las anteriores, es decir, tocará apretarse un poco más el cinturón. Unos sectores saldrán más perjudicados que otros y la desigualdad aumentará un poquito más. Los ricos serán un poquito más ricos y los pobres un poquito más pobres. Nada nuevo bajo el sol. Esta crisis no es, ni de lejos, lo suficientemente fuerte para provocar ni un cambio de mentalidad ni una carestía material que posibilitaran un cambio socio-económico de calado. Aparte que no hay ninguna opción viable alternativa al capitalismo. La gente no va a renunciar a sus smartphones ni a Netflix por ninguna promesa de emancipación eco-feminista. Y, no, tampoco vamos a volver a ninguna forma de autoritarismo comunistoide por mucho que pueda mostrarse eficaz en tiempos de crisis.

Ahora unos cuantos dardos:

  1. Me ha resultado extraña la falta de liderazgo mundial ante la crisis. No hemos visto reuniones del G-7 cruciales en la que se marque el paso… Cada país ha tomado las medidas a su ritmo haciendo más o menos caso a la OMS y punto. Estados Unidos, que podría haberse valido como primera potencia mundial, ha sido completamente irrelevante. Cuando habla Trump nadie espera más que la sandez de turno. China, por el contrario, parece haber ganado la partida.
  2. Esta falta de liderazgo también está salpicando a la Unión Europea. La negativa a los “Coronabonos” por parte de Alemania y Holanda da ganas de hacer un Brexit express. No puede ser que cada vez que pasa lo que sea, aquí sálvese quién pueda y yo a mirar por lo mío. Siempre se hace lo que Alemania dice, y lo que Alemania dice es lo que a Alemania le viene económicamente bien. Ya sucedió esto de forma muy marcada en la crisis de 2008.
  3. No se le está dando demasiada relevancia a un hecho importante: el falseamiento de datos. Y no solo apunto a China, la que ha falseado lo que habrá querido y más, sino de países occidentales tan “democráticos y transparentes” como Alemania, Inglaterra, Estados Unidos… A los enfermos que pasan asintomáticos o que se quedan en casa “pasando un resfriado”, se suman los fallecidos por complicaciones con patologías previas a los que se computa como muertos por esas patologías sin contar la intervención del coronavirus. Es muy fácil no hacer casi ningún test y solo contar como infectados los que están ingresados graves. La guerra de los datos está, como siempre y como era de esperar, en pleno apogeo.
  4. Me pregunto por qué los ultraliberales no dicen en estos momentos que el estado no intervenga absolutamente en nada, que se deje que la economía sea más libre aún y que así se regule ella solita… ¿Nos damos cuenta ya que la mano invisible de Smith es una patraña? Me gustaría debatir con mi liberal favorito, el brillante Robert Nozick, si un estado mínimo que exclusivamente garantiza la propiedad privada podría hacer frente a una pandemia como ésta.
  5. El dilema ético es espectacular: ¿dejamos morir a los ancianos o salvamos la economía? Dan Patrick, vicegobernador de Texas, abuelete ya, negaba que se tomaran medidas de cuarentena diciendo que estaba dispuesto a sacrificarse por el futuro económico del país. Aunque pudiesen parecer las declaraciones de un viejo senil del Tea Party, no son tan absurdas. Podría ser muy loable sacrificarse en pro de que nuestros hijos y nietos tengan un futuro mejor. Pero aquí nos encontramos con el muro de nuestra ignorancia: ¿hasta qué punto paralizar económicamente un país va a causar un malestar tal en nuestros descendientes que justifique dejar morir a los ancianos? ¿Cómo diablos calcular eso? Difícil, pero ya os digo yo la solución: no compensa de ningún modo. Por muy terrible que sea la crisis que nos espera, no será tan mala como para justificar éticamente el hecho de condenar a muerte a nuestro abuelo. Si dejamos morir a nuestros ancianos por salvar la economía, engrosaremos con un capítulo más el libro de la historia de la infamia.
  6. Es lamentable que los políticos estén utilizando la gestión de la crisis como arma política. Evidentemente, ha podido hacerse mejor o peor, y seguramente, hemos reaccionado algo tarde, pero en un asunto así deberíamos dejar esta repugnante politización de todo para ser leales al gobierno central. Por si alguien sospecha de que aquí mantengo un sesgo izquierdista, diré en mi defensa que si recuerdan la catástrofe ecológica del Prestige, pienso que fue una de las manipulaciones mediáticas de la izquierda más mezquinas, y electoralmente eficaces, que se han hecho en la historia de nuestra democracia. De un posible error en una decisión técnica (Acercar o alejar el petrolero de la costa) se proclamó el celebérrimo “Nunca mais” y todos los personajetes guays de la izquierda española fueron a la costa gallega a hacerse la fotito con la pala y el chapapote.
  7. En esas críticas al gobierno me causó mucha inquietud cuando Pablo Casado dijo que “Sánchez se estaba parapetando detrás de la ciencia”… ¿De verdad que eso es malo señor Casado? ¿En dónde debería parapetarse si no? ¿A qué tipo de asesor debería consultar un político para tomar decisiones en el caso de una pandemia? Todo lo contrario: los políticos deberían incorporar mucho más conocimiento científico en todos los niveles de la toma de decisiones.
  8. Una moraleja que me gustaría que quedara grabada a fuego en el cerebro de todos, pero que no quedará, es algo que Nassim Taleb lleva tiempo diciendo: la realidad es mucho mas impredecible de lo que parece y sucesos improbables ocurren por doquier: ¿qué gobierno hubiese predicho que en marzo de 2020 medio mundo estaría encerrado en su casa? Lo importante es que aprendamos humildad epistemológica: el mundo es caótico y la incertidumbre reina por doquier. Es muy difícil predecir lo que va a pasar y los políticos, incluso si se parapetan detrás de la ciencia, tienen complicado acertar. Desde luego a mí no me gustaría estar en el pellejo del ministro de sanidad en estos momentos. A toro pasado, nadie va a tener la consideración de pensar que se tuvieron que tomar decisiones en muy poco tiempo y con muy poco conocimiento de las consecuencias.
  9. Pensemos en, por ejemplo, la estrategia inicial de Gran Bretaña: buscar la inmunidad del rebaño. A todas luces parece un suicidio, pero, si lo miramos a nivel de evidencia científica, tampoco parece tan, tan mala idea ¿Qué hacer? Si ni a nivel de evidencia científica tenemos acuerdo…
  10. Da qué pensar que el sistema económico pueda derrumbarse por dos meses de parada ¿De verdad que dos meses de parón en el que se aplazan hipotecas, pagos a proveedores y demás, se hunde irremisiblemente? Entiendo que sufra daños, pero no me creo que sea tan grave. Y si fuera así es para mirárselo, porque en un mundo globalizado e hiperconectado como lo es ya desde hace mucho tiempo el nuestro, serán cada vez más comunes interferencias del tipo más diverso. Sería muy conveniente aprovechar el momento para pensar mecanismos que pudiesen robustecer el sistema ante estas eventualidades cada vez más habituales.
  11. Algo que si me ha gustado mucho es el auge de la literatura distópica que todo esto conlleva. Sí, amigos, hay que leer La carretera de McCarthy, a Dick, a Vonnegut, a Ballard, a Bradbury… será muchísimo menos aburrido que seguir la actualidad del coronavirus en las noticias. Lo garantizo.

Un libro fantástico que, necesariamente, ha de estar en tu biblioteca es Razón, dulce razón. Una guía de campo de la lógica moderna de Tom Tymoczko y Jim Henle. Yo lo encontré por casualidad y muy barato, en un puestecillo de libros, y desde entonces no paro de volver a él una y otra vez. Es, desde luego, una auténtica tabla de salvación en estos días de confinamiento. Básicamente, consiste en un compendio de curiosidades lógicas: adivinanzas, retos, ejercicios… que de una manera muy entretenida y divertida (pero no por ello fácil. No es un libro básico), te enseñan sobre todos los vericuetos de la lógica moderna: formalización, lógica informal, autómatas, incompletitud, infinitos, etc. Es, por decirlo de alguna manera, una serie de golosinas hard para mentes inquietas. 

Hoy os traigo de allí una paradoja que no es demasiado conocida (yo, al menos, nunca la había oído), y que ilustra muy bien lo que es el problema de la parada de Turing, y que se parece mucho a otras paradojas como la del barbero de Russell o la de Jules Richard. Lo que me gusta de ella es que me parece aún más intuitiva y fácil de entender que las otras. Timoczko y Henle nos cuentan que su creador fue Bill Zwicker sobre los años 80 del siglo pasado.

Definamos juego finito como aquel que termina siempre después de un número finito de movimientos. El ajedrez, por ejemplo, parece un claro juego finito ¿Seguro? No tanto. Si jugamos una partida sin límite de tiempo, uno de los jugadores podría estar infinito tiempo pensando en la próxima jugada, por lo que no estaríamos ante un juego finito. El ajedrez, para ser finito, debe añadir un límite de tiempo. Entonces habría que especificar: el ajedrez relámpago o blitz, en el que cada jugador suele tener un máximo de diez minutos para realizar todas sus jugadas antes de que caiga la bandera y pierda, sí sería un juego finito. No obstante, por mor de la argumentación, aceptaremos como juego finito, aquel que tenga una naturaleza algorítmica, es decir, que suela resolverse en un número finito de pasos en un tiempo polinómico (razonablemente corto). El ajedrez, las damas, el parchís, el poker, etc. serían juegos finitos.

Vale, ahora definimos hiperjuego: es aquel juego entre dos jugadores que consiste en el que el primer jugador comienza eligiendo un juego finito. Entonces, ambos jugadores se ponen a jugar a ese juego hasta que se acaba. El primer movimiento del hiperjuego sería la elección del juego, el segundo sería el primer movimiento del juego finito, el tercero el segundo del juego finito, y así sucesivamente. Entonces el hiperjuego tiene siempre un movimiento más que cualquier juego finito posible ¿Todo claro? Sigamos.

¿Es el hiperjuego un juego finito? Claramente sí. Acabamos de decir que tiene un paso más que cualquier juego finito, y un juego finito más un paso, sigue siendo un juego finito, ergo, el hiperjuego es un juego finito.

¿Seguro? Esperad un momento. Supongamos que en el paso uno del hiperjuego, el primer jugador elije jugar al hiperjuego. Entonces, el segundo jugador tiene que realizar el primer paso del hiperjuego, es decir, de nuevo elegir juego. Supongamos que elije el hiperjuego. Entonces, cansinamente, el primer jugador debe otra vez elegir juego, y elije el hiperjuego, y así ad infinitum. Este caso sería un ejemplo de hiperjuego infinito, ergo el hiperjuego no es un juego finito como habíamos demostrado antes… ¡Paradoja al canto!

Feliz cuarentena máquinas. Intentaré escribir con más asiduidad aquí para intentar haceos más llevadero este aislamiento.

La historia no tiene ningún significado. La “historia”, en el sentido en que la entiende la mayoría de la gente, simplemente no existe: y ésta es por lo menos una de las razones por las cuales afirmo que no tiene significado. […] Lo que la gente piensa habla de la historia de la humanidad es, más bien, la historia de los imperios egipcio, babilonio, persa, macedonio, griego, romano, etc.,  hasta nuestros días. En otras palabras: hablan de la historia de la humanidad, pero lo que quieren decir con ello, lo que han aprendido en la escuela, es la historia del poder político. No hay una historia de la humanidad, sino un número indefinido de historias de toda suerte de aspectos de la vida humana. Y uno de ellos es la historia del poder político, la cual ha sido elevada a categoría de historia universal. Pero esto es, creo, una ofensa contra cualquier concepción decente del género humano y equivale casi a tratar la historia del peculado, del robo o del envenenamiento, como la historia de la humanidad. En efecto, la historia del poder político no es sino la historia de la delincuencia internacional y del asesinato en masa (incluyendo, sin embargo, algunas de las tentativas para suprimirlo). Esta historia se enseña en las escuelas y se exalta a algunos de los mayores criminales como sus héroes. […] Insisto en que la historia no tiene significado. Pero esta afirmación no significa que todo lo que nos queda por hacer sea mirar horrorizados la historia del poder político, o que hayamos de considerarla una broma cruel. En efecto, es posible interpretarla con la vista puesta en aquellos problemas del poder político cuya solución nos parezca necesario intentar en nuestro tiempo. Es posible interpretar la historia del poder político desde el punta de vista de nuestra lucha por la sociedad abierta, por la primacía de la razón, de la justicia, de la libertad, de la igualdad y por el control de la delincuencia internacional. Si bien la historia carece de fines, podemos imponérselos; y, si bien la historia no tiene significado, nosotros podemos darle uno.”

Karl Popper, La sociedad abierta y sus enemigos, pp. 269-270 y 278, citado por Margarita Boladeras en su monográfico sobre Popper en Ediciones del Orto.

Este fragmento siempre me ha parecido precioso, ya que da profundamente en el clavo en una de las ideas más terroríficas que se han pensado: la Gran Historia. Existe un proceso, una dirección, un destino, hacia el que la historia transcurre y que, además, es el auténtico sentido de todo. Así, el deber del hombre es contribuir a que tal destino se cumpla. Dicho de este modo parece un pensamiento inocuo, pero se agrava cuando ese destino está por encima de los individuos, de modo que se antojan como sacrificables en pos de ese glorioso fin. Ejemplo claro de esta ida de Gran Historia ha sido el concepto de Nación, que surge cuando el sentido de la historia universal se particulariza en un pueblo concreto. Tenemos el bíblico pueblo elegido que, con el nacimiento del Estado Moderno en el epílogo de la Edad Media, se extendió a las diferentes naciones europeas: Francia, Gran Bretaña, España, Alemania, Rusia… Tu nación, tu patria, tiene la historia más gloriosa de todas y es tu deber sacrificarlo todo por devolverle su grandeza (curiosamente, para la idea de Nación, el presente siempre es decadente después de un pasado dorado) ¡Hay que volver a hacer América grande! – repite el señor Trump. Esa fue la única forma de conseguir que millones de soldados se suicidaran voluntariamente en los campos de batalla de dos guerras mundiales cuando cualquier hijo de vecino con dos dedos de frente podría ver la absurda barbarie de tan descabellada empresa.

Pero, si prescindimos del concepto de Nación ¿renunciamos a nuestra historia? ¿Renunciamos a las grandes cosas que hicieron nuestros antepasados? No necesariamente. Lo que hay que cambiar es esa historia que nos enseñaron en la escuela, esa historia del “peculado, del robo y del envenenamiento” de la que escribe Popper que, además, se nos ha vendido como la única historia y de la que, para colmo, debemos sentir orgullo y admiración, es decir, que debe servir como ejemplo para las nuevas generaciones. Evidentemente, si mis ejemplos han de ser Viriato, el Cid Campeador, el Gran Capitán y Blas de Lezo, no esperemos un futuro diferente al Somne o a Stalingrado. Habría que destacar, desde luego no a los grandes expertos en matar, ni a los que hicieron grandes hazañas solo y únicamente por su ambición personal, sin contribución alguna al bien común (Aquí pienso en Julio Cesar o Napoleón… ¿Qué aportaron a la humanidad para merecer un puesto tan relevante en los libros de historia?), sino a los que han hecho aportaciones a la humanidad en su conjunto: científicos, intelectuales, artistas, o políticos en esa línea. Entiendan, no digo que no deba estudiarse esa gran historia, solo que debe invertirse el juicio moral que hacemos de ella: no vender a Julio Cesar como un héroe, sino más bien como un villano, y fomentar mucho más la presencia de héroes éticos como Gandhi, Luther King o Bartolomé de las Casas. Pero, sobre todo, la idea central es que no hay ningún destino universal hacia el que todo tienda, ni siquiera el progreso o el avance del humanismo. Si en nuestro país se vive mejor que hace cien años no es debido a un proceso inexorable, sino al trabajo contingente de muchísimas personas que han considerado que es algo bueno mejorar el mundo. Ese es el sentido, siempre precario, falible y a posteriori, surgido quizá ad horror, que nosotros podemos darle a nuestra historia.

Del rigor de la ciencia

En aquel imperio, el arte de la cartografía logró tal perfección que el mapa de una sola provincia ocupaba toda una ciudad, y el mapa del imperio, toda una provincia. Con el tiempo esos mapas desmesurados no satisficieron y los colegios de cartógrafos levantaron un Mapa del imperio, que tenía el tamaño del imperio y coincidía puntualmente con él. Menos adictas al estudio de la cartografía, las generaciones siguientes entendieron que ese dilatado mapa era inútil y no sin impiedad lo entregaron a las inclemencias del sol y de los inviernos. En los desiertos del oeste perduran despedazadas ruinas del mapa, habitadas por animales y por mendigos; en todo el país no hay otra reliquia que las disciplinas geográficas. Suárez de Miranda: Viajes de varones prudentes. Libro Cuarto. Cap. XLV, Lérida, 1658.

Borges, cuento recogido en El hacedor

Maravillosa crítica a la teoría de la verdad como adecuación o correspondencia. La verdad no es un espejo que refleja el mundo tal y como es, ya que entonces conocer no sería otra cosa que el absurdo de duplicar la realidad dos veces. Y quizá, toda la historia de la filosofía no sean más que ruinas, reliquias de cartografías que intentaron tal despropósito.

Os dejo el texto leído por el propio autor.

Inteligencia Artificial y Futuro Próximo

Publicado: 21 enero 2020 en Sin categoría
Etiquetas:, ,

Si no tenéis plan para el sábado 1 de febrero y estáis por Madrid ¡Tenéis que venir a la presentación del libro del año! En un lugar tan emblemático para la vida intelectual madrileña como es el café Manuela, Ricardo Sanz, Antonio Orbe y un servidor, presentaremos nuestro último libro. Será a partir de las 12:30… ¡Hora ideal para tomarte el aperitivo! Además, el acto estará presentado por el divertidísimo Vicente garcía Pla, profesor de la Universidad Francisco Vitoria. Podrás conocer y charlar con los autores, preguntarnos lo que te de la gana, llevarte un ejemplar firmado y dedicado, o, simplemente, pasar un rato entretenido escuchando a gente hablar de máquinas pensantes.

Todo comenzó en otoño de 2017, cuando el Foro del Futuro Próximo organizó un ciclo de debates en torno a lo que considerábamos el tema de nuestro tiempo: la inteligencia artificial. Antonio Orbe se encargó de invitar a un florido elenco de intelectuales que, desde muy diversas perspectivas, nos ofrecieran su enfoque. Así, no solo tuvimos a ingenieros, sino a escritores, filósofos, guionistas de cine, expertos en literatura de ciencia ficción, representantes de empresas como Google o IBM, etc. La verdad es que la cosa salió bastante bien y los debates fueron muy interesantes.

Entonces Ricardo Sanz nos propuso a Antonio Orbe y a mí, hacer un libro en donde se recogieran los aspectos más relevantes allí tratados. Además, la idea parecía sugerente en el sentido en que podríamos aportar tres enfoques muy diversos, ya que cada uno pertenecemos a especialidades diferentes: ingeniería, psicología y filosofía respectivamente. Así que nos pusimos manos a la obra y después de un par de años de intenso trabajo, dimos a luz a la criatura. Espero que os guste. El libro está en versión papel y otra, más económica, en eBook.

Ya adjunte en su momento los vídeos, pero vuelvo hacerlo por si os perdisteis alguno (Son más de nueve horas de metraje total… ¡Ideales para un fin de semana de maratón de conferencias!):

¿Qué tecnología de la IA nos afecta más?

 

¿Pueden pensar las máquinas?

 

¿Las películas IA son fantasía o anticipación?

 

¿Cómo cambiara la IA nuestro futuro?

 

Para un trabajo que realicé para la asignatura Bases Neurológicas de la Cognición del Máster en Ciencias Cognitivas que imparte la Universidad de Málaga, tuve que enumerar una serie de características que yo considerada imprescindibles para crear una máquina que imitara el funcionamiento del cerebro humano. Concedo que son principios muy generales, pero creo que no hay que perderlos de vista porque son, esencialmente, verdaderos, y uno se encuentra por ahí, más veces de lo que querría, con teorías de la mente que se alejan, muy mucho, de ellos.

  1. El cerebro es un kludge (klumsy: torpe, lame: poco convincente, ugly: feo, dumb: tonto, but good enough: pero bastante bueno) fruto de la evolución biológica. Tal como defiende el neurocientífico David Linden (Linden, 2006), si aplicamos los principios de funcionamiento de la selección natural, el diseño del cerebro dista mucho de ser una máquina perfecta fruto del trabajo racional de ingenieros, siendo más bien un cúmulo de chapuzas, de soluciones, muchas veces poco eficientes, que lo único que han pretendido es aumentar el fitness del organismo dado un ecosistema concreto. Teniendo en cuenta que los ecosistemas cambian debido, por ejemplo, a cambios en las condiciones climáticas o por aumentos o disminuciones en las poblaciones de competidores, lo que hoy podría ser una excelente adaptación, mañana puede ser una carga inútil. Es por eso que nuestro cerebro puede estar lleno de órganos rudimentarios (adaptaciones que perdieron su función pero que no fueron eliminados) y exaptaciones (antiguas adaptaciones que se están rediseñando en la actualidad para una nueva función), o de las famosas pechinas de Jay Gould y Richard Lewontin (elementos que solo obedecen a necesidades estructurales de auténticas adaptaciones). También hay que tener en cuenta que el cerebro no es una máquina acabada, sino que, al seguir siendo afectado por la selección natural, sigue construyéndose, siempre siendo un estado intermedio. El cerebro, al contrario que cualquier máquina diseñada por el hombre, tiene una larga historia biológica, lo cual, dicho sea de paso, dificulta mucho la labor de ingeniería inversa necesaria para su estudio.
  2. El cerebro como una máquina de movimiento. La gran diferencia entre el reino animal y el vegetal fue, originariamente, la capacidad de movimiento. Se da el hecho de que las plantas no tienen sistema nervioso y esto se explica, precisamente, por su quietud: si apenas te mueves no necesitas un complejo sistema que ligue tu percepción al control del movimiento. Por tanto, el sistema nervioso surge con la función biológica de coordinar la percepción con el sistema motor. Podemos entonces entender que muchas de las funciones cognitivas actuales son exaptaciones de funciones perceptivo-motoras. O dicho de otro modo: nuestro cerebro se construyó a partir de otro que únicamente servía para percibir y moverse, por lo que parece esencial, comprender bien cómo eso puede afectar al diseño del cerebro. Pensemos como sería construir un ordenador personal a partir de las piezas de un automóvil.
  3. El cerebro como máquina de visión. El órgano de los sentidos que mejor servía para moverse eficazmente en el mundo animal, ha sido la visión (con honrosas excepciones como la ecolocalización de los murciélagos). Y es por ello que los animales más evolucionados como los mamíferos superiores tienen los mejores sistemas visuales de toda la biosfera ¿Qué es lo que ve, lo que percibe nuestro cerebro? En este sentido es muy interesante la teoría de la interfaz (Hoffman, 1998 y 2015) del científico cognitivo Donald Hoffman ¿Percibimos la realidad tal cómo es? No. En primer lugar hay que tener en cuenta que el cerebro no es una máquina con infinitos recursos sino que tiende a optimizarlos para competir en situaciones de escasez. Percibir toda la realidad sería un enorme derroche cuando solo tiene que percibir necesario para aumentar sus posibilidades de supervivencia y reproducción: alimento, presas/depredadores y parejas sexuales. Todo lo demás, lo que es indiferente a los factores evolutivos no tiene por qué ser percibido. Y después, tampoco hace falta percibir lo que se percibe tal y como es, sino que nos bastaría con una etiqueta, con un símbolo que, sencillamente, identificara la función de lo percibido. Es por eso que Hoffman nos habla de nuestra percepción como una interfaz, como el típico escritorio de Windows lleno de iconos. Pensemos que cada icono es un símbolo que representa una función (Abrir el programa determinado), pero ese símbolo no tiene nada que ver (no se parece en nada a su función), pero es muy práctico y eficiente: un pequeño dibujito vale como etiqueta para indicarme que debo hacer clic en ella para ejecutar un programa (el cual puede ser tremendamente complejo en sí mismo). Por otro lado, el órgano de los sentidos que más información proporciona al ser humano, es con diferencia, la visión (el córtex visual ocupa casi un tercio del volumen del cerebro), por lo que a la hora de establecer cómo procesamos la información y cómo realizamos acciones cognitivas o conductuales, habría que tener muy en cuenta que, principalmente, trabajamos con información visual, por lo que habría que tener muy en cuenta sus propiedades y peculiaridades con respecto a otros tipos de información.
  4. La división entre rutinas y subrutinas. En su famosa obra The society of mind (1986), el informático Marvin Minsky nos describía el cerebro como un gran conjunto de pequeños módulos funcionales que realizan tareas relativamente sencillas pero que, trabajando coordinadamente, hacen emerger una conducta muy inteligente. Esto nos da dos ideas: en primer lugar nos sirve para establecer la distinción entre procesos conscientes y subconscientes. La tarea de esos sencillos módulos funcionales (que quizá podrían identificarse con clusters de redes neuronales) ocurriría a nivel inconsciente, siendo únicamente el resultado, lo que aparece a nivel consciente (o, si no, solo el trabajo de ciertos tipos de módulos encargados, precisamente, de los procesos conscientes). Y, en segundo lugar, da pie a todo el programa de investigación conexionista (en redes neuronales artificiales): buscar modelos matemáticos del funcionamiento del cerebro centrados en sus unidades básicas (la neurona) y en sus relaciones (las redes). Una neurona es una célula relativamente sencilla, pero millones de ellas funcionando en paralelo podrían dar lugar a comportamiento complejo. Como Rodney Brooks (Brooks, 1991) demostró en sus investigaciones en robótica, es posible hacer emerger comportamiento inteligente mediante un conjunto de dispositivos sin que exista ningún módulo de control que dirija la acción. Serían dispositivos automáticos que actúan siguiendo el patrón percepción-acción sin apenas procesamiento de la información. En este sentido la metáfora del funcionamiento de los programas informáticos actuales es perfecta: un programa llama constantemente a otros (llamados subrutinas) para que le den un valor, un resultado. El programa principal no sabe qué hacen ni cómo funcionan cada uno de estos subprogramas, pero le son útiles porque le dan el resultado que necesita para acometer una determinada tarea. Incluso puede ser el caso de que funcionen sin ningún tipo de comunicación con ningún centro de mando, sencillamente realizando una tarea de forma completamente autónoma.
  5. Conocer es actuar. Ha sido un gran error histórico (quizá el mayor error de la historia de la filosofía) entender el conocimiento desde la gnoseología platónico-aristotélica, es decir, entender que conocer consiste en volver a presentar (re-presentar) el mundo exterior a nosotros, abstrayendo una especie de esencia incluida en el objeto conocido y “colocándola dentro” de nuestro entendimiento. Esta concepción mixtifica, sobrenaturaliza la acción de conocer y, evidentemente, saca el estudio del conocimiento del ámbito científico. Conocer no es repetir el mundo exterior dentro de nuestro mundo interior, ya que eso nos llevaría a una cadena infinita de homúnculos. Conocer es un acto biológico con finalidades evolutivas que no tiene nada que ver con representar el mundo. Sería absurdo que nuestra percepción fuera como una cámara de fotos que solo intenta hacer una réplica lo más fidedigna posible de lo fotografiado porque ¿qué hacer luego con la foto? ¿Para qué queremos, solamente, una foto realista? La información obtenida mediante los sentidos es procesada, manipulada o transformada simbólicamente, para hacer cosas con ella, para intervenir en la realidad y no para describirla. Conocer es un proceso que tiene que entenderse exactamente igual que cualquier otro proceso biológico como la digestión o la acción del sistema inmunitario. Y, en un nivel inferior, el acto de conocimiento es una acción físico-química como cualquier otra. Cuando percibimos mediante la vista, el primer paso se da cuando fotones golpean las capas de discos membranosos de los fotorreceptores de nuestra retina, generando una cascada de disparos neuronales que forman patrones que posteriormente serán procesados por redes neuronales. En toda esta compleja red de procesos no se atrapa ninguna esencia ni se repite ni siquiera una supuesta estructura de la realidad, sino que se elabora un mapa funcional, se elabora todo un sistema para tomar decisiones de modo eficiente.
  6. Módulos cerebrales de reconocimiento de patrones (Kurzweil, 2013) Parece que lo que mejor saber hacer las últimas herramientas de la IA conexionista, las redes neuronales convolucionales, es encontrar patrones en entornos poco (o nada) formalizados, es decir, muy difusos. Así están venciendo uno de los grandes obstáculos de la IA: la visión artificial. Ya existen redes neuronales que distinguen rostros con suma fiabilidad, o que reconocen cualquier tipo de objeto que observan, estando ese objeto en diferentes posiciones, iluminado con diferentes intensidades de luz, incluso en movimiento. Esto sirve como fuerte indicio para apostar por una teoría computacional de la percepción y del conocimiento: si al utilizar redes neuronales artificiales conseguimos hacer máquinas que ven de una forma, aparentemente, muy similar a la nuestra, será porque nuestro cerebro también funciona así. Además, una de las teorías de la percepción más influyentes del siglo XX, la famosa Gestalt, ya afirmaba que la percepción no consistía en la suma de todos los estímulos visuales (como sostenía la escuela elementarista), sino en dar sentido, en comprender una estructura profunda de la imagen vista (en, según sus propios términos, obtener una gestalten). Ese sentido que otorga significado a lo observado bien puede entenderse como el reconocimiento de un patrón. Además, esta forma encaja perfectamente con la teoría de la interfaz de Hoffman: no percibimos todo ni lo real, sino una información (que será deseablemente la mínima) suficiente para responder adecuadamente.

Imagen del artista Pablo Castaño.

El conductismo, en cualquiera de sus versiones, siempre me ha parecido algo extravagante. En su versión débil, el conductismo epistemológico, sostiene que si bien la mente puede existir, la psicología ha de centrarse exclusivamente en la conducta observable y renunciar per secula seculorum a hablar de la psique humana en términos mentales. Debido a que el concepto de mente no se antoja muy científico a nuestros instrumentos de observación habituales, y el principal método de análisis mental, la introspección, no es muy fiable, prescindimos radicalmente de él, y solo observamos la conducta. Esto, ya de primeras, se intuye como un total despropósito pues… ¿cómo explicar la conducta de una persona prescindiendo absolutamente de lo que ocurre dentro de su cabeza? Pero es más, está la versión fuerte, el conductismo ontológico, el cual no solo no permite estudiar lo mental, sino que sostiene sin ambages, que la mente no existe. Algunos autores afirmarán que la mente es un pseudoconcepto, como antes lo fueron el flogisto, el calórico o el éter. Cuando la ciencia avanzó, fue desechándolos. Así, cuando las neurociencias progresen, toda la conducta humana podrá explicarse en su totalidad sin tener que hablar, en absoluto, de la mente.

De primeras, ya digo, todo parece muy exagerado, muy forzado. Sin embargo, cuando lees que pensadores del calibre de Rudolf Carnap, Gilbert Ryle, Dan Dennett, o incluso el mismísimo Ludwig Wittgenstein, lo han defendido, la idea no puede ser tan mala. Bien, vamos a ver qué virtudes puede tener:

  1. Eliminar una idea de mente mitológica y pseudocientífica. Parece muy saludable extirpar de la práctica científica conceptos como “alma”, “espíritu” o cualquier otra entidad “inmaterial, eterna e inmortal” que la tradición metafísica occidental ha usado continuamente.
  2. Prescindir de cualquier tipo de dualismo y de sus problemas. El conductismo ontológico es monista: solo existe la conducta observable, por lo que no hay que intentar explicar las, siempre controvertidas, relaciones entre mente y cuerpo. Así, para el conductista no hay ningún abismo ontológico entre la mente y el mundo (pues solo hay mundo), ni tampoco existe el escepticismo hacia las otras mentes (está en el mismo plano decir “Yo me siento triste” que “Él se siente triste”: ambas son conductas externas observables). El conductismo es radicalmente anticartesiano y al serlo se quita de todas sus dificultades.
  3. Se permite a la psicología ser independiente de las neurociencias. La conducta, y no el cerebro, es su objeto de estudio exclusivo. Así, la psicología puede ser una ciencia por derecho propio.

De acuerdo, ¿pero cómo soluciona el conductismo algo tan evidente como la causalidad mental? Si yo creo que va a llover y, en consecuencia, salgo a la calle con un paraguas, lo único que un conductista puede observar es mi salida a la calle con el paraguas ¿Cómo puede explicar el que yo cogiera el paraguas si no es apelando a mi creencia en que va a llover, algo que no es una conducta sino un pensamiento, algo tradicionalmente mental? Gilbert Ryle nos ofrece una solución: las creencias, deseos, etc. (lo que los filósofos llamamos actitudes proposicionales), son tan solo disposiciones conductuales, es decir, propensiones a realizar o no realizar una conducta. Por ejemplo, mi creencia en que va a llover queda definida como la disposición a realizar la conducta de coger un paraguas. Es una jugada maestra: todo lo que antes se consideraría como un contenido mental, pasa a ser definido exclusivamente en términos de conducta y, así, el conductismo sale airoso de lo que parecía ser su principal problema. Además, por si acaso nos encontráramos con la dificultad de explicar la variedad de conductas humanas que se dan ante la misma creencia (por ejemplo, mi creencia en que va a llover podría haber causado que yo cogiera un chubasquero en vez de un paraguas), Ryle nos habla de disposiciones conductuales de múltiples vías: una misma disposición puede manifestarse en diferentes conductas.

El segundo Wittgenstein hacía hincapié en el aspecto normativo de la disposición.  Mi creencia en que va a llover estipula qué conductas serían correctas o incorrectas. Si en vez de sacar un paraguas, salgo a la calle con una trompeta, evidentemente, habré ejecutado una conducta errónea. Muy interesantes son, al respecto, las consecuencias para la teoría de la verdad: que algo sea verdadero o falso no tiene nada que ver con ninguna adecuación de mis representaciones mentales a la realidad, ya que no existe ningún tipo de representación mental sensu stricto, sino en un ajuste entre mi conducta y la conducta correcta.  El debate, claro está, estará en determinar de dónde surge y quién determina qué es y qué no es correcto.

Bien, la propuesta es ingeniosa y tiene virtudes pero, sin embargo, sigue siendo terriblemente contraintuitiva ¿De verdad que no existe nada que podamos considerar mental? ¿De verdad que puede reducirse todo contenido mental, únicamente, a conducta? ¿De verdad que no tenemos mente? Hillary Putnam nos ofrece un sencillo experimento mental pare evidenciar lo difícil que se nos hace eliminar nuestra mente interior. Imaginemos un grupo de antiguos guerreros espartanos. Durante mucho tiempo se han entrenado en la habilidad de resistir el dolor sin realizar acción alguna más que la consecuente conducta verbal consistente en informar a los demás de que se siente dolor. Así, esos superespartanos, pueden ser gravemente heridos en combate pero no mostrarán más conducta de dolor que mover sus labios y decir “Me duele”. Hasta aquí no hay ningún problema con el conductismo. El dolor seguiría siendo una disposición conductual a proferir una determinada conducta verbal. Putnam nos dice entonces que imaginemos a los super-superespartanos, una élite dentro de los superespartanos que, tras durísimos entrenamientos, habrían conseguido incluso eliminar cualquier necesidad de proferir palabra alguna para referirse al dolor. Los super-superespartanos serían tan duros que, a pesar de que les sacarán una muela sin anestesia, no mostrarían el más mínimo indicio externo de dolor. Y aquí sí que hay problemas para el conductismo: si no hay ni conducta externa observable ni propensión conductual alguna, no hay nada; sin embargo, nos parece evidente que los super-superespartanos sentirían dolor igual que cualquier otro ser humano. Ergo, la mente no es reductible a conducta.

El conductismo se parece a un zapatero que quiere meter un pie muy grande (la mente) en un zapato muy pequeño (la conducta), e intenta mil y un peripecias para que encaje pero nunca lo consigue. El conductismo es un nuevo ejemplo de la expresión intentar meter con calzador.

Ilustración de Emmanuel MacConnell.