En nuestros sistemas liberales, la mayoría de la gente (exceptuando a los igualitaristas más radicales) está dispuesta a aceptar cierto nivel de desigualdad social o económica, siempre que se parta del principio de igualdad de oportunidades. Robert Nozick lo explicaba muy bien con su famoso argumento de Wilt Chamberlain. Supongamos que nos gusta mucho el baloncesto y estamos dispuestos a pagar cierto dinero por ir a ver a jugar a los Lakers. Supongamos también que el beneficio de esas entradas se reparte equitativamente entre todos los jugadores. Sin embargo, Wilt Chamberlain es excepcionalmente bueno, por lo que él propone que si queremos verlo jugar, paguemos un pequeño extra en nuestras entradas que iría íntegramente para su bolsillo. A la mayoría de la gente le parece un buen trato, ya que ver a Chamberlain jugar es todo un espectáculo por el que merece la pena pagar un poco más de dinero. Entonces, Chamberlain gana más dinero que sus compañeros de equipo, se ha generado una desigualdad económica, pero en ella no parece haber nada éticamente reprobable: el público eligió libremente pagar una entrada más cara por ver a Chamberlain, y podríamos decir que Chamberlain merece más dinero ya que su talento y dedicación al equipo es mayor que el del resto de los jugadores. Además, se respetó perfectamente el principio de igualdad de oportunidades: todos los jugadores de los Lakers compitieron en igualdad para ser los mejores del equipo y Chamberlain lo consiguió sin ninguna duda.

El argumento de Nozick es muy ilustrativo para explicar por qué en nuestras sociedades alguien como Leonel Messi, que lo único que hace, aunque lo haga excepcionalmente bien, es darle patadas a un balón, cobre muchísimo más que un científico que está investigando la cura contra el cáncer. Parece algo muy injusto pero, realmente, no lo es: nosotros, al poner el partido en la tele, comprar su camiseta o ir al estadio a verlo, estamos eligiendo democráticamente que merece más la pena ver jugar a Messi que invertir en investigación para la cura de enfermedades. Si somos imbéciles, al menos, nadie nos está obligando a serlo. Nozick defiende el derecho a decidir por encima de la obligación moral de ayudar a los otros. Nos merecemos, con total justicia, la sociedad que tenemos pero, al menos, la habríamos elegido nosotros.

Pero la idea a la que queremos llegar es esta: ¿es cierta, o al menos posible o deseable, la igualdad de oportunidades? Si echamos un somero vistazo a la realidad social que nos rodea vemos que, con total contundencia, la igualdad de oportunidades no existe. Un chico proveniente de una familia rica y culta que le proporciona todas las facilidades para que estudie, no parte en igualdad de condiciones que otro de familia humilde, que comparte su minúscula habitación con otros tres hermanos, que no tiene ni siquiera un buen escritorio donde estudiar, y al que su padre le repite una y otra vez que no pierda el tiempo con los libros y que se ponga ya a trabajar y a ganar dinero.

¿Cómo podríamos solucionar algo así? Completamente imposible: habría que aislar a todo recién nacido de sus influencias familiares, educándolo estatalmente en una especie de comuna tal y como soñaba Platón, lo cual no parece para nada deseable. A mí me gusta muchísimo más una sociedad con una gran diversidad de familias que inculquen a sus hijos los más distintos valores y objetivos vitales, que otra en la que todos los niños sean educados por igual en la competencia por maximizar el éxito socio-económico.

Pero es que ni aún así habría igualdad de oportunidades porque, de nuevo, cada niño no partiría desde la misma posición. A día de hoy tenemos cada vez más evidencias que relacionan el cociente intelectual o la capacidad de esfuerzo de una persona con sus genes. Entonces, cuando una persona nace con unos genes que le dan un CI más alto que el de sus competidores, ya no parte desde la misma línea de salida, sino que tiene una ventaja crucial. Yo, como profesor, me encuentro constantemente ante la injusticia de tener que poner buena nota a alumnos vagos pero muy inteligentes, mientras que suspendo a otros que trabajan mucho más que ellos, pero que están menos dotados intelectualmente. Tener o no talento es consecuencia de la lotería genética, y no hay nada más injusto que la lotería.

Segundo mito del liberalismo: la meritocracia. De nuevo, parece razonable aceptar desigualdades siempre y cuando el que recibe más lo haga en función de su mérito. Solo nos parecería injusto el hecho de que alguien obtenga más que los demás si no lo merece. Echemos, de nuevo, un vistazo a nuestra sociedad: ¿se da una clara meritocracia? De nuevo, parece que no ¿Por qué? El fallo reside aquí en las diferencias de remuneración: no existe una correspondencia entre la distribución de los beneficios y el mérito.

Un ejemplo: Messi cobra unos 40 millones de euros, mientras que el sueldo anual de un médico en España puede rondar los 30.000 euros. Hacemos el sencillo cociente y comprobamos que Messi cobra 1.300 veces más que un médico. Es difícil cuantificar el mérito de lo que hace un futbolista de élite pero por mucho que le demos vueltas, no creo que tenga 1.300 veces más mérito que lo que hace un médico. En nuestro mundo la distribución de la riqueza es, claramente, injusta y no obedece a criterios de mérito (seguramente, influye muchísimo más la suerte que el talento como sostiene este estudio). Esta página te ofrece ver en qué posición estás con respecto al resto del mundo en función de tus ingresos (curioso que si eres un mileurista en España estás dentro del 7% de las personas más ricas del planeta).

La igualdad de oportunidades y la meritocracia, dos principios básicos sin los cuales nadie aceptaría el liberalismo como sistema de distribución de bienes sociales y económicos son mitos. Y, evidentemente, la idea de que se autorregulan de alguna manera sin la injerencia de los estados mediante la mano invisible de Adam Smith es, igualmente, un mito.

Entonces, ¿ya está? ¿Nos lanzamos a las calles para destruir los cimientos de nuestro sistema? De ninguna manera. Que estos dos principios básicos sean imposibles, y ni siquiera deseables si los aplicáramos con todo su rigor, no implica que no puedan utilizarse como ideales regulativos. Lo explico: nunca los conseguiremos plenamente, pero eso no quita que tengamos que estar constantemente intentándolo ya que, dada cualquier situación concreta, será más justa si en ella se dan que si no. De hecho, no podemos renunciar a ellos porque nadie querría vivir en la plena injusticia. Imaginad un mundo en el que no exista en absoluto respeto por la igualdad ni por la meritocracia… ¡Sería algo así como volver al estado natural de Hobbes en donde homo homini lupus!

¿Y cuál es la forma de llevar esto a la práctica? Cuando se entra en discusiones en las que se defiende o ataca la educación pública, creo que el gran argumento a su favor está aquí: servir de trampolín socio-económico. La educación pública será el gran catalizador de la igualdad de oportunidades y de la meritocracia. Va a permitir que individuos mejoren su situación en base a su mérito y talento y, al fomentar esa movilidad social, sirve para reducir la desigualdad extrema. Sirve, en este sentido, como un re-distribuidor de riqueza y estatus social. Por eso es tan sumamente importante defender nuestros sistemas educativos, y no llego a entender la pequeña partida presupuestaria que un país como España les administra.

Con esto no estoy diciendo, huelga decir, que no debería existir la educación privada. Me parece totalmente saludable que exista, sobre todo porque es muy positivo que existan centros de enseñanza alternativos al modelo oficial del estado, de modo que se fomente la divergencia de formas de ser y pensar. Además, con ella se posibilita el derecho de los padres a elegir qué tipo de educación deben recibir sus hijos. No obstante, la educación privada debería ser minoritaria o, al menos menos importante que la pública, debido a que una sociedad donde la privada fuera mayoritaria la función esencial de trampolín social quedaría diluida.

Nozick defiende la idea de un estado mínimo que, por un lado parece muy aceptable pero por otro no. Sostiene que solo debe existir el estado necesario para mantener los derechos fundamentales (que para él, esencialmente, es el derecho a la propiedad). Estoy de acuerdo en que es cierto que el estado no debe engordarse innecesariamente (y de hecho sucede muchísimo, siendo un síntoma inequívoco de corrupción), pero difiero en lo que debe considerarse por “mínimo”, porque para mí hay tres elementos que jamás podrían ser completamente privados: sanidad, educación y justicia. Nozick argumenta a favor de una sanidad y una educación completamente privadas, pero no consigue hacerlo con solvencia cuando nos referimos a la justicia. Y es que no hay por dónde cogerlo: ¿cómo sería posible una justicia privada? ¿Cómo podríamos tener un sistema de justicia privado que diera el mismo servicio a pobres y a ricos?

Hoy un cuentecillo de ciencia ficción:

 

Macbeth:

She would have died hereafter.

There would have been a time for such a word-

Tomorrow, and tomorrow, and tomorrow,

Creeps in this petty pace from day to day,

To the last syllable of recorded time;

And all our yesterdays have lighted fools

The way to dusty death. Out, out, brief candle!

Life’s but a walking sahdow, a poor player

That struts and frets his hour upon theistage

And hen is heard no more. It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

***

Michael Chorost tenía un implante coclear en el interior de su cráneo que captaba una señal de radio de un pequeño receptor de audio instalado en su oído, la procesaba electrónicamente y transmitía la información al cerebro por medio de los nervios auditivos. Chorost podía desconectar el receptor de audio y conectar el dispositivo a un teléfono o reproductor de CD. Eso le permitía experimentar el sonido sin la presencia de ninguna onda de sonido en la sala en la que se encontraba. El sonido solo se reproducía en su cerebro sin ninguna vibración del aire, no existía fuera de él.

***

En 2013, el equipo de neurocientíficos del MIT dirigido por Xu Liu, consiguió introducir recuerdos falsos en el cerebro de ratones. Mediante una técnica denominada “optogenética”, que permitía activar o desactivar neuronas utilizando luz, consiguieron que los ratones sintieran miedo ante la posibilidad de una descarga eléctrica que jamás habían recibido y que, por tanto, era imposible que recordaran. Resulta llamativo que el primer recuerdo falso creado en un organismo fuera el miedo.

***

“Somos mirlos en los ojos de otros mirlos que se van”

Fragmento de la canción Héroes del sábado de la M.O.D.A.

***

¿Qué narrativa le ponemos al 22-43?

Vale, es difícil. Tiene treinta y cuatro capas. Si borramos a su mujer y a sus dos hijas tenemos que irnos muy atrás. Conoció a su esposa hace doce años, lo que nos lleva veinte capas al completo. El problema está en que tenemos que corregir muchísimas posibles incoherencias. El indicador de coherencia Veiger-Kuznets está a -0.24. A ver cómo cuadramos el hecho de trabajar como alto ejecutivo en la empresa de su suegro sin tener titulación académica ni para entrar como empleado de limpieza.

¿Qué te parece ésta, la 34A-3.765 a partir del vector 5.687.432? Se dio cuenta de que había perdido el tiempo, volvió a retomar los estudios. Para disminuir la incoherencia lo convertimos en una rata de biblioteca: en todos sus años de universidad no conoció a casi nadie.

Espera, su grado de extroversión es de 2.92, no encaja ¿Tenemos el permiso para modificar módulos nucleares de personalidad?

Sí, lo tenemos. El tío estaba realmente jodido. No le importaba nada con tal de olvidarlo todo.  Podemos convertirlo en tímido e introducirle trazas de fobia social.

Vale, pero no te pases. Recuerda que el cliente paga para ser más feliz. Si ahora lo convertimos en un agorafóbico no quedará muy contento. Que sea algo suave: sencillamente, se encuentra incómodo en lugares atestados de gente y disfruta mucho de su soledad.

Bien, cargo narración en los sectores 6C y 2WW ¿Correcto? Vamos también a borrar dos años completos aquí y aquí. Esos no parecen haber tenido demasiadas consecuencias en ningún hecho trascendente posterior.

Carga despacito. Recuerda lo sensible que es el hipotálamo. No queremos que el cliente termine con amnesia anterógrada.

Hay que meterle también el pack plus, la narrativa de Eduardo Vaquerizo. Es realmente magnífica. Es que Vaquerizo es el mejor escritor de narrativas neurales del mundo. Recrea emociones y sensaciones con una vivacidad increíble. Yo mismo me implanté un minipack de fin de semana. Ese de esquiar en Aspen y conocer a esa jovencita bielorrusa.

Y lo más interesante: sin que tu mujer se enterara. Jajaja.

Es que técnicamente, nunca he sido infiel a mi esposa ¿Por qué va a ser infidelidad acostarme con una chica que no existe? Jajaja.

Nunca he entendido lo de implantarte recuerdos manteniendo la consciencia de que son falsos ¿No te parece raro acordarte de cosas que nunca pasaron?

No pasa nada. Lo recuerdas exactamente igual que si hubiera ocurrido. Recuerdo perfectamente la montaña, los tejados nevados de las casas, los álamos, el viento frío en mi cara, los profundos ojos azules de la chica, el tacto de su pecosa piel… Mi mente no diferencia ese fin de semana de cualquier otro.

Ya, pero, no es verdad. Al implantarte falsos recuerdos estas creando conexiones causales en tu personalidad que vienen de la nada. Actuamos con respecto a nuestra experiencia pasada, esas narraciones configuran nuestro ser actual ¿No te parece inquietante modificarte a ti mismo a raíz de sucesos que nunca sucedieron?

No. De hecho, ese recuerdo me hace más feliz. No veo nada de malo en implantarnos falsos recuerdos si eso nos mejora. De hecho, gracias a ese fin de semana falso sé esquiar mejor.

¿Y no te lías? Cuando ya te has implantado un montón de falsos recuerdos… ¿No te perturba no saber cuáles fueron reales y cuáles no?

Tampoco es tan importante. Pero ya sabes que los recuerdos falsos están etiquetados, llevan la F-tag, de modo que siempre sabes que son falsos.

No sé… yo siempre digo con orgullo que soy cien por cien real: no tengo ni un solo recuerdo falso.

Tú lo que eres es virgen. Jaja. Te estás perdiendo un montón de cosas. La vida real es, en la mayoría de las veces, tan sombría y aburrida ¿Por qué no aliñarla con un toque de fantasía?

Es que no es exactamente fantasía, no es como leer un libro o ver una película, es meter en tu mente historias que nunca sucedieron… Es interferir en tu identidad biográfica.

¿Y qué haces cuando lees un libro? ¿Es que lo que lees no te influye? ¿No interfiere en tu identidad biográfica? Implantarse falsos recuerdos solo es dar un paso más.

Vale, terminamos. La historia es la de siempre: le han ascendido y comienza una nueva vida en una ciudad diferente. Se despertará en el vuelo que le lleva destino a Osaka. Las clásicas molestias cerebrales serán achacadas, como siempre, al jet lag. Terminamos por hoy. Mañana chequeamos las líneas de conexión interperiféricas, reparamos el daño neuronal y hacemos el análisis de niveles bioquímicos.

Cierro el compilador. Apagamos la consola y lo dejamos toda la noche cargando.

Vamos, te invito a una cerveza en el Diamond.

No, hoy no puedo. Mi mujer está muy pesada con el embarazo. Se ha vuelto bastante más territorial que de costumbre, así que nada de amigotes por un tiempo.

¿Seguro? Vamos, solo una birra y a casa.

No, no me tientes. De verdad que luego no hay quien la soporte.

Oye, una cosa: ¿cómo se llama?

¿Quién?

Tu mujer.

¿Mi mujer?

Sí, tu mujer.

Ya lo sabes, la conoces desde hace años ¿Por qué me lo preguntas?

Por nada, pero respóndeme, ¿Cómo se llama tu mujer?

¿Mi mujer?

Sí.

Jajaja… pues… joder… pues… espera.

El nombre de tu mujer.

Espera… jajaja… Eh… se me ha ido… espera…

Vamos, es muy fácil: su nombre.

Ya… no sé… lo tengo en la punta de la lengua.

Nada, chicos, otra vez, no ha funcionado.

No, pero… ¿qué pasa? ¿Por qué no la recuerdo?

Habrá que empezar de nuevo desde el vector 34.765.009 ¿Por qué falla siempre a partir de esa zona?

Un momento… explica… ¿qué pasa?

Lo siento tío. La chica de Aspen no es un falso recuerdo en tu mente sino al contrario: tú eres un falso recuerdo en la suya.

¿Cómo? No puede ser… jajaja. Venga tío no tiene gracia.

Sí, el nuevo minipack de fin de semana romántico para mujeres de Eduardo Vaquerizo. Tú eres el atractivo ingeniero de subjetividad infiel que conocen en la estación de esquí. Estamos probando tus líneas de coherencia.

Sí claro… venga tío… No puede ser… yo… yo…

Lo siento. Venga chicos, parar la simulación, vamos a ver si podemos depurar a partir del tercer breakpoint.

No puede ser… veo mi mano, es real… Yo… lo siento… siento el mundo que me rodea… yo… estoy vivo… o… existo… yo existo…

Una pena. Ha sido un placer. Reiniciamos.

 

It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

 

Condición necesaria, que no suficiente (ni mucho menos) para crear consciencia artificial: que la máquina tenga un automodelo, un mapa de sí misma ¿Y qué es el sí mismo? Bueno, sin meternos en complejas disquisiciones, pongamos de primeras, un mapa de su cuerpo ¿Y qué tipo de mapa? No una representación realista de su propia estructura, sino un mapa de relaciones dinámico. Para ser económicamente eficientes en términos de fitness biológico (seguimos la hipótesis de Hoffman), la máquina solo debe percibir las relaciones entre sus partes y el entorno que le permitan actuar con efectividad en él.  Y esto ya se hizo en 2006:

Las primeras máquinas automodélicas ya han aparecido. Investigadores en el campo de la vida artificial comenzaron a simular procesos evolucionistas hace tiempo, pero ahora tenemos una disciplina académica denominada “robótica evolutiva”. Josh Bongard, del Departamento de Ciencias de la Computación de la Universidad de Vermont, y sus colegas Víctor Zykov y Hod Lipson, han creado una estrella de mar artificial que desarrolla gradualmente un automodelo interno. Sus máquinas de cuatro patas utilizan relaciones de actuación-sensación para inferir directamente su propia estructura y luego utilizan ese modelo para generar locomoción. Cuando se le priva de parte de sus patas, la máquina adapta su automodelo y genera un paso alternativo – aprender a cojear. A diferencia de los pacientes con miembros fantasmas[…], puede reestructurar su presentación corporal posterior a la pérdida del miembro; por tanto, en cierto sentido, puede aprender. Como dice su creador, puede “recomponer su propia topología con un poco de información previa”, optimizando constantemente los parámetros de su automodelo resultante. La estrella de mar no solo sintetiza su automodelo interno, sino que también lo utiliza para generar comportamiento inteligente.

Thomas Metzinter, El túnel del Yo

 

¿Por qué lo que hicieron Bongard et al. fue un trabajo magnífico?

  1. La estrella de mar no tiene un automodelo dado desde el principio, sino que tiene que construirlo. Seguramente, los humanos no nacemos con el mapa de nuestro cuerpo completamente configurado, sino que lo construimos, como mínimo, parcialmente.
  2. Lo va reconfigurando constantemente, de modo que lo hace mejor que nosotros. La estrella de mar no tiene el “síndrome de la extremidad fantasma” como nos pasa a los humanos. No solo investigamos sobre la consciencia sino que encontramos la forma de subsanar sus errores.
  3. El automodelo le sirve para actuar en la realidad. No entendemos aquí el autoconocimiento como un epifenómeno, como un añadido sin función ni como un efecto secundario. Gracias al automodelo evalúa su estado y actúa en consecuencia. Creo que es el camino acertado para entender la función evolutiva de la consciencia.

Después del más que desagradable asunto de las gemelas modificadas genéticamente por el científico He Jiankui, ahora tenemos al biólogo ruso Denis Rebrikov, queriendo emular al chino. Estas locuras, reprochables a todos los niveles, parecen dar la razón a todos los bioconservadores que se manifiestan en contra de cualquier forma de edición genética. Parecen decirnos ¿Veis lo que pasa si jugamos a ser dioses? Todavía no hemos hecho casi nada más que empezar con la biología sintética, y ya nos saltamos toda norma moral a la torera.

Sin embargo, esto no es más que oportunismo. Ni el más tenaz transhumanista está a favor de lo que ha hecho Jiankui, principalmente, porque todavía no se sabe lo suficiente para predecir todos los efectos secundarios de la mutación de genes. Cuando hablamos de eugenesia en términos éticamente aceptables hablamos, claro está, de mejorar la salud y no de empeorarla. Creo que es obvio. Así, que un científico viole las normas éticas, e incluso las legales, no es razón suficiente para oponerse a una determinada tecnología, más cuando sus promesas son, con mucho, muy superiores a sus riesgos (por mucho que nos quieran vender lo contrario). Creo que en ciencia y tecnología hay que actuar basándose en lo que Max More definió en 2005 como principio proactivo: si consideramos la libertad en la innovación tecnológica como algo muy bueno para la humanidad, la carga de la prueba siempre debe recaer para aquellos que proponen medidas restrictivas. Entonces, dejando de lado los casos puntuales de He Jiankui y de Rebrikov, hoy voy a centrarme en dos de los argumentos más repetidos sobre el tema, de la mano de dos de los máximos bioconservadores de la actualidad: Leon Kass y Francis Fukuyama. El primero, que dirigió el Consejo Presidencial sobre Bioética del gobierno de los Estados Unidos,  hizo famoso su texto “La sabiduría de la repugnancia”. Leamos uno de los fragmentos más potentes:

La gente siente repugnancia frente a muchos aspectos de la clonación humana. Se echan atrás ante la perspectiva de producir en masa seres humanos, con grandes conjuntos de tipos iguales, dañados en su identidad; la idea de gemelos padre-hijo o madre-hija; la extraña posibilidad de que una mujer dé a luz y críe a quien es una copia genética de ella misma, de su esposo o incluso de su padre o madre difuntos; lo caprichoso y grotesco de concebir un niño como sustituto exacto de otro ya muerto; la creación utilitaria de copias genéticas embrionarias de uno mismo, para ser congeladas y desarrolladas en caso de necesitar tejidos homólogos u órganos para trasplante; el narcisismo de los que se clonarían a sí mismos, o la arrogancia de otros que sostienen que ellos saben tanto quien merece ser clonados, como qué genotipo le gustaría recibir a un niño que ha de ser creado; la exaltación frankensteiniana de crear vida humana y controlar de modo creciente su destino; es decir, el hombre jugando a Dios.

 

La argumentación de Kass es bien clara: no debemos permitir éticamente lo que nos produce repugnancia. Tengamos en cuenta que la sensación de repugnancia es un sistema de defensa creado por la evolución para evitar enfermedades o intoxicaciones. Es, entonces, un pedazo de “sabiduría biológica” avalada por eones de selección natural, y no cualquier criterio arbitrario. Kass estaría recurriendo al clásico iusnaturalismo que sostiene grosso modo que la naturaleza es sabia, y que es conveniente seguir sus designios. Esto es fácilmente desmontable desde la célebre falacia naturalista: que algo sea así en la naturaleza no quiere decir que deba ser así. Es el argumento típicamente utilizado contra el darwinismo social: si aceptamos que lo que hace la naturaleza es lo correcto, que el pez grande se coma al pez pequeño nos debería parecer bien cuando, precisamente, lo que nuestros sistemas jurídicos intentan es lo contrario: proteger a los débiles de las injusticias naturales.

Igualmente, apelar al sentimiento de repugnancia como criterio ético tiene más problemas. Estaríamos ante el viejo emotivismo, el cual, puede explicar bien el origen de la moral, pero es incapaz de justificarla. Si bueno es aquello que me causa un sentimiento agradable, no podríamos decirle a un sádico o a un psicópata que lo que hacen está mal. Igualmente, apelando a la repugnancia podríamos negar derechos a homosexuales o transexuales, a gente con sobrepeso o, sencillamente, poco agraciada físicamente o con algún tipo de deformidad. Dado que la sensación de repugnancia tiene diferentes intensidades y es, muchas veces, imposible de diferenciar de otras sensaciones como el rechazo, la extrañeza o la incomodidad, podríamos utilizarla para oponernos a las personas de otras razas, o distintas a nosotros por cualquier motivo. De hecho, Pinker en The stupidy of dignity critica que Kass encuentra repugnantes conductas como comer conos de helado, el cambio de sexo o que mujeres pospongan la maternidad o estén solteras acercándose a los treinta. Incluso tendríamos el problema de que la repugnancia, al ser, como mínimo, parcialmente educable, estaría sujeta a las mismas críticas que podemos hacerle al relativismo cultural: a un nazi que ha sido eficientemente adoctrinado en las juventudes hitlerianas, no podríamos reprocharle su rechazo a los judíos y su satisfacción ante su exterminio.

Pero es más, es que el argumento puede utilizarse para algo con lo que Kass no está nada de acuerdo: la eugenesia ¿Qué hay que cause un sentimiento mejor que contemplar a personas sanas, bellas o inteligentes? Si bien en el proceso de creación en laboratorio podríamos sentirla, los frutos de la eugenesia serían lo contrario a la repugnancia, representando todo lo agradable del ser humano. Podríamos hacer un cálculo de costos y beneficios, y entender que esa repulsión inicial es suplida con creces por el sentimiento de agrado conseguido.

El otro gran argumento es el dado por Fukuyama en su El fin del hombre (2002). Este politólogo estadounidense está en contra de la clonación o la eugenesia apelando a lo que el denomina Factor X, una especie de esencia humana que no debemos trastocar bajo ningún concepto ¿Y qué es? Fukuyama utiliza la x, precisamente, para denotar su carácter vago, ambiguo, casi indefinible o incognoscible por definición. El Factor x no es el uso del lenguaje, ni la inteligencia, ni la capacidad de sentir, ni ninguna otra capacidad o cualidad que, tradicionalmente, se haya situado como la esencia humana por encima de las demás.  El Factor x es, en cierto sentido, todas ellas conjuntamente. Fukuyama quiere escapar de las clásicas críticas que históricamente se han hecho a todo aquel que ha querido reducir la esencia humana a un único factor. Por ejemplo, si defines al ser humano por su inteligencia, una persona con un grave retraso mental ya no sería humana, o si lo defines por su consciencia, alguien en coma ya dejaría de serlo. Sin embargo, si la esencia del hombre no es nada tangible y, a la vez, lo es todo, no caeremos en ningún tipo de reduccionismo.

En el fondo, los malabares de Fukuyama no dejan de ser una forma soterrada, o no tanto, de volver al viejo concepto de espíritu o alma inmortal. Para criticar el naturalismo de sus enemigos darwinistas, Fukuyama saca lo esencial del hombre del plano natural al metafísico. Ya está, no hay más, volvemos a formas de pensar muy viejas: una naturaleza humana espiritual inviolable. El problema es que Fukuyama parece no entender que, dada la teoría de la evolución, la naturaleza humana no es algo dado, sino que está en continuo cambio. De aquí a 100.000 años la naturaleza humana será muy diferente a la que es ahora ¿Y hacia donde irán esos cambios? En gran parte al azar ciego del barajeo de genes en el que consiste la reproducción sexual ¿Es mejor dejar que la suerte decida sobre nuestra naturaleza? Imaginemos que la selección natural premia genes más agresivos, egoístas o estúpidos… ¿Sería ético no hacer nada por evitarlo? Agarrarse a la idea de dignidad humana basada en sacralizar su naturaleza es un grave error. No debemos nada a la naturaleza humana porque en ella hay cosas muy malas. Recordemos que los que construyeron Auschwitz tenían ese mismo Factor x que no hay que tocar bajo ningún concepto.

Podríamos imaginar que el cerebro humano estuviese compuesto de una única red neuronal global no estructurada de forma modular, es decir, sin partes especializadas en realizar tareas concretas. Las plantas tienen un tipo de estructura fractal en la que no existen de forma única órganos, ni ningún tipo de unidades funcionales especializadas: tienen muchas hojas, muchas flores, muchas raíces, etc. De este modo pueden resistir la destrucción de gran parte de su organismo antes de morir. Por el contrario, nuestro cuerpo fallece inexorablemente cuando se dañan órganos de los que sólo disponemos la unidad: corazón, hígado, páncreas, cerebro… Tener partes muy diferenciadas te hace muy sensible al fallo, mientras que si tu organismo es una constante repetición de lo mismo, la tolerancia al error es mucho más alta.

Entonces, pensemos en un cerebro no modular, un cerebro que se basa en la repetición de la misma estructura funcional (la neurona) una y otra vez. La destrucción de una de sus partes solo provocaría un degradado de la función global, pero no su total pérdida. Además, pensemos en un cerebro completamente interconectado, de modo que existen múltiples rutas alternativas de flujo de información. Si quiero mandar un mensaje de la neurona A a la B y algo daña la ruta habitual, la información siempre podría encontrar otros caminos para llegar. Además, esta estructura se parece bastante a nuestros sistemas de redes neuronales artificiales, en las que la información se guarda de un modo distribuido y no en ningún punto en concreto de la red ¡Molaría mucho que nuestro cerebro fuera así!

Eso además, pensaban Karl Lashley y Paul Weiss, dando base neuronal a la vieja tesis del ilustrado John Locke, que sostenía que somos una tabula rasa, que nuestro cerebro es, al nacer, una “hoja en blanco” indefinidamente moldeable por el aprendizaje. Lo cual, como ya escribimos en la Nueva Ilustración Evolucionista, servía como base neurológica al conductismo de Watson. Lashley hizo experimentos extirpando tejido cerebral a ratas y comprobando cómo les afectaba la pérdida a la realización de diferentes tareas. Comprobó que la localización de la pérdida no tenía importancia. Lo que, realmente, afectaba a la conducta de las ratas era únicamente la cantidad de cerebro extirpado. De aquí dedujo dos principios: acción en masa (el rendimiento cognitivo depende del rendimiento global de todo el cerebro) y equipotencialidad (cualquier parte del cerebro es capaz de realizar las tareas de las demás). El cerebro de las ratas tiene la misma estructura que los vegetales.

Las diferencias de inteligencia entre los seres humanos y el resto de los primates se explicaban, únicamente, apelando a la diferencia de volumen cerebral: más tamaño otorgaba más inteligencia. Sin embargo, aquí empezaron los problemas.  Cuando las técnicas de conteo neuronal se hicieron más precisas, se descubrió que el córtex cerebral humano tenía únicamente 1,25 veces más neuronas que el de un chimpancé, mientras que era 2,75 veces más grande. Nuestro cerebro creció de tamaño pero el aumento de neuronas no fue proporcional ¿Por qué? Porque si tu cerebro crece de tamaño, los axones de tus neuronas se hacen más largos, por lo que el impulso nervioso tarda más tiempo en llegar de una neurona a otra, lo que se traduce en lentitud y poca eficiencia. Es por ello que nuestro cerebro tuvo que especializarse localmente y hacerse modular. Un cerebro no modular sólo puede funcionar bien hasta un tamaño crítico a partir del cual se tiene que especializar.

Leamos estas reflexiones del popular cosmólogo Max Tegmark:

[…] una consciencia artificial del tamaño de un cerebro podría tener millones de veces más experiencias que nosotros por segundo, puesto que las señales electromagnéticas viajan a la velocidad de la luz, millones de veces más rápido que las señales neuronales. Sin embargo, cuanto mayor fuese la IA, más lentos tendrán que ser sus pensamientos para que la información tenga tiempo de fluir entre todas sus partes […] Así, cabria esperar que una IA “Gaia” del Tamaño de la Tierra solo tuviese unas diez experiencias conscientes por segundo, como un humano, y que una IA del tamaño de una galaxia solo pudiese tener un pensamiento global aproximadamente cada 100.000 años (por lo tanto, no más de unas cien experiencias durante toda la historia del universo transcurrida hasta ahora).

Max Tegmark, Vida 3.0

Tegmark utiliza este ejemplo para ilustrarnos sobre la lentitud de los procesos conscientes en comparación con los inconscientes. Sin embargo, podemos utilizarlo para defender la idea a la que yo quería llegar: el absurdo de una consciencia o inteligencia cósmica ¿Qué tipo de inteligencia sería aquella que tiene una experiencia consciente cada 100.000 años y que solo ha tenido unas cien en toda su vida? Por mucho que nos diera por fantasear con la posibilidad de algo así para contar relatos de ciencia ficción, la verdad es que una inteligencia con tan pocas experiencias no podría ser demasiado inteligente. Es más ¡sería muy imbécil! Para cuestiones de inteligencia el tamaño sí importa, y lo ideal para tener una inteligencia similar o superior a la nuestra es mantener un diseño optimizado entre tamaño y modularidad. Lo ideal, tal como bien expresa Tegmark, sería un tamaño aproximado al de nuestro cerebro pero con una circuitería similar a la de los computadores de silicio. Por el contrario, un tamaño gigantesco debería ser hipermodularizado para ser eficiente, tanto que no podría tener un módulo de control o mando consciente eficaz. Es más, una inteligencia del tamaño del universo tendría unos módulos tan alejados los unos de los otros que, de nuevo, su coordinación para cualquier actividad seria lentísima. Pensemos que si la información puede viajar a la velocidad de la luz, y tenemos dos módulos, uno en cada extremo del universo (visible), el mensaje tardaría noventa mil millones de años luz en llegar… ¡varias veces la edad del propio universo!

No amigos, no hay ni habrá ninguna consciencia cósmica. Otro mito heredado de mezclar las religiones tradicionales con la ciencia ficción.

Campañas contra los robots asesinos, muchos desarrolladores e investigadores diciendo que la IA puede ser un gran peligro (hace unos días lo hizo Bengio), la famosa carta del Future of Life Institute en la que personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y todo el resto de la flor y nata del stablishment tecnológico norteamericano en la que alertaban sobre el peligro de los desarrollos bélicos de la IA, e incluso el Secretario General de la ONU, Antonio Guterres, hablando de la prohibición de las LAW (Lethal Autonomous Weapons). Raymond Kurzweil escribiendo sobre la singularidad tecnológica y sobre máquinas conscientes para el 2029, Nick Bostrom alertándonos de la gravedad de los problemas a los que llegaremos cuando ocurra la “explosión de inteligencia”: momento en el que surja una IA cuya inteligencia nos supere y se dedique a hacerse más inteligente a sí misma, lo cual llevará a un proceso de crecimiento exponencial… ¡Las máquinas se harán con el mando del mundo y tendrán que decidir si somos una amenaza para ellas o no!

Mucho revuelo, pero ¿hay que tomarse esto en serio? ¿Hay que comenzar a preocuparse por la rebelión de las máquinas asesinas? Ni hablar. Veamos:

  1. No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes. Ni la más mínima. Invito al lector a que lea propuestas como CLARION, OpenCog, LIDA, etc. y que juzgue por sí mismo si son conscientes o no, o sí, al menos, están cerca de conseguirlo.
  2. En lo referente a una Inteligencia Artificial General, el asunto no está mucho mejor. Hay proyectos e ideas (véase CYC, SOAR o el actual IMPALA) pero, igualmente, están lejísimos de que podamos tener una IA capaz de acercarse a la polivalencia de nuestras mentes de primate. El Frame Problem sigue sin resolverse concluyentemente y nuestras más avanzadas arquitecturas de aprendizaje profundo tienen mucho menos sentido común que un niño de tres años.
  3. Entonces, sin base experimental ni teórica alguna… ¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores? Curiosa forma de argumentar: del conjunto vacío de premisas deducimos todo lo que nos da la gana.
  4. Es por ello que es absolutamente imposible realizar ningún tipo de predicción al respecto. Es una solemne estupidez hablar de fechas. Sería algo así como preguntarle a un hombre de la Edad Media por la aparición del vuelo a reacción. Los que se atreven a hacerlo se lo inventan sin ningún criterio, así de claro. Igual da decir 2029, 2087, 2598 o 15345.
  5. Lo que sí tenemos en IA son excelentes hiperespecialistas: inteligencias capaces de hacer a nivel sobrehumano tareas muy concretas como por ejemplo, jugar al ajedrez o al Go (actuar en entornos muy formalizados), analizar y modificar imágenes, o buscar patrones en ingentes cantidades de datos… pero nada más. Si tienes una red convolucional increíblemente buena detectando un tipo de tumor en radiografías de pulmones y quieres que aprenda otra cosa, solo tienes un camino: borrarlo todo y volver a entrenar a la red desde el principio.
  6. El deep learning ha supuesto un gran empujón a un campo que, siendo honestos, ha tenido casi más inviernos que primaveras. Las distintas versiones de Alpha (Go, Zero, Star…) son impresionantes, y el generador de textos recientemente aparecido GPT-2 es lo mejor que nunca he visto… a falta de que hagan público cómo funciona. Sin embargo, a pesar de que estos logros son alucinantes, hay que entender que la ciencia avanza, en la inmensa mayoría de los casos, a base de pequeños pasos.
  7. Se cae en un error muy común a la hora de entender el progreso científico. Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito. Así, si creamos máquinas un poquito inteligentes, en un futuro, seremos capaces de hacerlas superinteligentes… ¿Por qué? En ciencia es muy común encontrar programas de investigación muy prometedores que terminan por volverse degenerativos y abandonarse. Verdaderamente, no sabemos qué pasará con la IA al igual que no sabemos lo que pasará con ninguna otra tecnología ¿Alguien pudo predecir el éxito de Apple, Twitter, Yotube…? Como bien afirma el analista Nassim Taleb, una de las características de nuestra época es nuestra mas que patente incapacidad de predicción: sucesos altamente improbables suceden por doquier.
  8. Pero, dado que nosotros solo somos quarks organizados de una determinada manera y nuestra mente surge de colocar quarks de un determinado modo… ¿no será entonces cuestión de tiempo que descubramos tal colocación y entonces creemos una IA a imagen y semejanza de nosotros y, ya puestos, la haremos mejor que nosotros? Por supuesto, pero esta argumentación es de lo más vacío que puede decirse. No es algo muy alejado de sentenciar: todo lo que sea posible terminará por pasar. Vale, tómate un café ¿Podremos viajar más allá de la Vía Láctea y colonizar el universo? ¿Podremos hacer un zoo de dinosaurios al estilo de Parque Jurásico? ¿Podremos hacer máquinas del tiempo o teletransportarnos? En teoría no vemos que sean imposibles… ¿Centramos entonces todo el debate mediático en torno a estos temas?
  9. Andrew Ng dice que debatir ahora sobre la rebelión de las maquinas es equivalente a debatir sobre el problema de la superpoblación en Marte. Es posible que sea un tema muy interesante y evocador, pero no puede tener la cobertura mediática que se le está dando. Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo.
  10. En el fondo se está jugando con una falacia informal, la ad ignorantiam: sacar conclusiones a favor o en contra de algo por el hecho de que no se ha demostrado lo contrario. Como, en el fondo, nadie puede estar en desacuerdo con el punto 6… pues el punto 6 es cierto. Dos cosas: en primer lugar que algo sea irrefutable no quiere decir ni que sea cierto ni que merezca la pena nuestra atención. El famoso ejemplo de la tetera de Russell viene aquí a pelo: sería posible que ahora mismo en un anillo de Saturno existiera una tetera orbitando alrededor del planeta. Si alguien asegura que es absurdo que allí halla una tetera, no tenemos más que decirle que intente demostrar que no es así. Como no podrá, ya está, nuestra afirmación es verdadera. Como nadie ha demostrado que no sea posible crear una IA de inteligencia sobrehumana, la inteligencia sobrehumana llegará y, es más, se rebelará contra nosotros.
  11. La carga de la prueba la tiene siempre el que afirma: así los defensores de la rebelión de la IA deberían aportar la suficiente evidencia empírica tanto acerca de la fabricación de máquinas sobrehumanas como de la supuestamente necesaria rebelión de éstas. Como hemos afirmado en 1 y en 2, no existe tal evidencia de lo primero, cuánto menos de lo segundo: ¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física? Creo que James Cameron (Terminator) y las hermanas Wachowski (Matrix) han hecho mucho daño.
  12. Pero es que es más: existe evidencia en contra. Hay multitud de argumentos que diferencian la mente humana de un computador y que subrayan la imposible reducción de la primera al segundo. Las críticas a la IA Fuerte han llegado desde todos lados. Por citar los más notorios, tenemos el argumento de la irreductibilidad de los qualia de Nagel, la crítica desde la perspectiva heideggeriana de Dreyfus, la indecibilidad gödeliana de la mente de Roger Penrose o, para mí la más notoria, la caja china de John Searle. Creo que, a pesar de las múltiples matizaciones, no se ha conseguido refutar convincentemente a estos autores (sobre todo a Nagel y a Searle).
  13. Estos argumentos críticos tampoco llegan a imposibilitar la creación de máquinas superinteligentes o conscientes, solo sostienen que las que hay no lo son y que, por el mismo camino, no lo vamos a conseguir. Yo no tengo ni idea de cómo podrán conseguirse (tendría algún que otro premio Nobel si lo supiera), pero desde luego, estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB.
  14. La rebelión de las máquinas es un tema que puede ser evocador e interesante, incluso un magnífico campo para la reflexión filosófica y el experimento mental. No digo que no se pueda tratar. Yo lo he hecho alguna vez en el blog. Lo que sostengo es que es un tema sobredimensionado que, muchas veces, aparece en el foco de atención mediática como si fuese un problema social de primer orden que urge solucionar, cuando lo único que hay es marketing: se ha encontrado un nuevo nicho por explotar, y hay muchos libros que vender y muchas cátedras universitarias que ocupar.

Addendum del 29-5-2019:

Tuve el honor de ser invitado a participar de este podcast de Xataka en donde se habló de este artículo y se profundizó sobre el tema.

Estimados lectores, ya tenéis en Amazon la tercera recopilación de las mejores entradas de este blog. Así podréis leer lo más florido de la Máquina de Von Neumann cómodamente, en formato físico. Reconozco que aunque tengo mi e-reader y las ventajas de un cacharro así son alucinantes (eso de tener una biblioteca completa metida dentro está muy bien), me sigue gustando más leer en papel, y me sigue encantando el concepto de biblioteca clásica. Me gusta ver un libro, tocarlo, olerlo… Quizá me estoy volviendo obsoleto en una época en la que todo es evanescente, en la que todo está en la nube. A lo mejor es mi querencia cartesiana de, precisamente, que exista algo fijo y estable en un mundo que fluye a una velocidad inalcanzable. O quizá es porque es muy cierto el dicho “En casa del herrero cuchara de palo”, entendiendo que un filósofo que se dedica a pensar sobre lo digital, en su casa sigue anclado a lo material. O quizá es que me he dejado contagiar de la estúpida moda vintage: videojuegos retro, vinilos y libros… El caso es que me apetece que todo lo que aquí escribo exista materialmente (No obstante, también lo podéis conseguir en e-book). Espero que lo disfrutéis. Muchas gracias por todo.

 

Supe hace unos días del oráculo de Aaronson a través de un breve artículo de Microsiervos. Se trata de un experimento sencillísimo: tienes que elegir entre pulsar la tecla “d” o la “f” las veces que quieras. El oráculo consiste en un algoritmo que intentará predecir qué tecla vas a pulsar. Ya está, no hay más ¿Una estupidez? Para nada.

La idea es la siguiente: actuar sin libertad de elección o libre albedrío suele entenderse como actuar de modo determinado por causas anteriores. En tal caso, conociendo las causas anteriores debería ser fácil predecir la futura elección. En caso contrario, no poder predecir la elección puede entenderse como evidencia a favor de que se actúa con libre albedrío. Podría objetarse que no tiene por qué: si yo me echo a la siesta todos los días a las tres de la tarde, mi conducta puede ser muy predecible pero eso no quita que yo elija libremente siempre hacer lo mismo. De acuerdo, pero de lo que trata el oráculo de Aaronson es de intentar, a propósito, no ser predecible. Si, verdaderamente, somos libres no deberíamos tener demasiados problemas en ser impredecibles, deberíamos ser buenos generando cadenas aleatorias.

Sin embargo, el oráculo parece demostrarnos lo contrario. Cuando probé la versión web de Aaronson me pareció curioso lo que me costaba generar secuencias impredecibles. La mayor parte de las veces que he jugado el oráculo me ganaba y, muchas veces, incluso con porcentajes superiores al sesenta por ciento. Bien, ¿y cómo funciona el algoritmo? Analiza las 32 posibles secuencias diferentes de cinco letras. Entonces, cuando el jugador sigue una de ellas, el algoritmo memoriza cuál ha sido la elección para, cuando vuelva a repetirse la secuencia, apostar por ella.

Casi por puro divertimento, me puse a programar en Phyton una versión con diferentes algoritmos. Y los resultados me han dejado, cuanto menos, inquieto. Mi programa está formado por cuatro algoritmos. El primero, funciona, simplemente por azar, y está implementado de modo simbólico para establecer la comparación entre los resultados del mero azar (que, evidentemente, se acercarán siempre al cincuenta por ciento) y los resultados de los demás algoritmos. La idea básica es que cualquier algoritmo que no mejore los resultados del azar no predice absolutamente nada. El segundo algoritmo (llamado Glob), sencillamente calcula cuántas veces se ha pulsado “d” y cuántas “f”, y apuesta por la letra que más veces se ha repetido. El tercero (3U) cuenta las veces que han pulsado “d” o “f” en las últimas tres jugadas, y apuesta por la que más veces se ha iterado. Y el cuarto (5U) hace lo mismo que el anterior pero contando a partir de las cinco últimas jugadas.

Os pego aquí los resultados de mi mujer:

Jugó 383 veces. El algoritmo azaroso solo acertó en torno al 51%, pero ya  Glob acertó un 56%, 5U un 64% y, lo más llamativo, 3U acertó un 70%. Todas las veces que yo he jugado los resultados han sido muy parecidos (aunque, evidentemente, para que esto tenga validez científica habría que hacer el experimento como Dios manda).

Los algoritmos de este oráculo son más simples que el de Aaronson (que tampoco es que sea muy complicado). De forma elemental, cuentan las veces que se repite un determinado resultado y apuestan por él sin más estrategia. Lo único que hacen es detectar rachas, apostar por tendencias a la repetición.  Ya es llamativo que algoritmos tan estúpidos tengan mejores resultados que el azar, pero lo tremendamente interesante es que algo tan estúpido como 3U sea tan bueno. He comparado muchas veces sus resultados con los del algoritmo de Aaronson, y 3U es muchísimo mejor. De hecho, he visto muy pocas veces a 3U bajar del 60% ¿Cómo puede ganarme una cosa tan tonta? O dicho de otro modo ¿Cómo puedo ser tan sumamente predecible?

He pensado seguir ampliando el oráculo. El mismo Aaronson nos dice que podríamos cambiar su algoritmo para secuencias de tres en vez de cinco letras, o que podríamos utilizar la cadena creada por un jugador como modelo predictivo con la esperanza de que los demás jugadores hicieran lo mismo. Sería muy interesante, y lo haremos, ir probando diferentes algoritmos y comparar los resultados (sería, cuanto menos, divertido probar uno basado en la sucesión de Fibonacci o en el triángulo de Tartaglia). Otra opción es modificar el propio juego. Lo primero que he hecho ha sido añadir una tercera letra a elegir por el jugador, para hacer más compleja la predicción. He aquí los resultados:

763 jugadas. El azar, como era de esperar, está en torno al 33% con un 31%; Glob funciona a un 38% (un 7% mejor que el azar); 5U ya empieza a ser competitivo con un 49%; y, espectacularmente, 3U sigue ganándome con más de un 55%. Si, a ojo, calculo cómo ha bajado su rendimiento del juego anterior (con solo “d” y “f”), podría rondar un 10% (de 65 a 55). Ante tres opciones, 3U me sigue ganando (aunque reconozco que yo no valdría como sujeto experimental ya que conozco su algoritmo. El esfuerzo por jugar como si no lo conociera no hace que no contamine el resultado).

Estos días ha corrido como la pólvora por la red, el vídeo de una mujer que sufría una amnesia global transitoria. Según cuenta su hija, con la que habla, mantuvo esta misma conversación en bucle durante unas nueve horas y media. Afortunadamente, tras unas veintiséis horas, la amnesia cesó y Mary Sue se ha recuperado sin secuelas apreciables.

 

Este caso, el cual no es para nada una excepción ya que los casos de amnesia anterógrada de este tipo son bastante frecuentes y están bien documentados, es muy significativo para tratar el tema que nos ocupa. El gran problema que impide resolver la cuestión de si una decisión se tomó libremente o estaba determinada de antemano, es que no podemos retroceder en el tiempo para comprobar si, verdaderamente, pudo darse otra elección diferente a la que realmente ocurrió. Sin embargo, Mary Sue, entra en una especie de bucle temporal. Al sufrir amnesia anterógrada no puede generar nuevos recuerdos, por lo que, continuamente resetea, es decir, vuelve al principio. En la excelente película de Christopher Nolan, Memento, el protagonista sufre de una dolencia parecida (si bien mucho más trágica, la suya es incurable y no desaparece a las pocas horas) y se enfrenta a una situación terrible: perdió la memoria justo en el momento en que su mujer era asesinada, por lo que continuamente vuelve al momento del asesinato. En una inconmensurable escena de la película dice “No me acuerdo de olvidarte”, haciendo referencia al hecho de que, para un enfermo de amnesia anterógrada, el tiempo no pasa y, por tanto, el tiempo no cura las heridas por lo que Leonard, el protagonista, nunca podrá superar la muerte de su esposa.

Entonces, con esta repetición temporal, tanto Mary Sue como Leonard  nos sirven para estudiar el libre albedrío. Su vuelta hacia atrás se asemeja a un viaje en el tiempo y, por ello, podemos comprobar si, ante la misma situación (la misma cadena causal desencadenante), hacen algo diferente cada vez. Y el resultado, tal y como comprobamos viendo el vídeo, es que no es así. Mary Sue repite la mismas palabras una y otra vez. Las mismas causas conectan con los mismos efectos: determinismo clásico. El oráculo de Aaronson o 3U acertarían en un 100% de los casos. No somos libres.

Y por si quedaba alguna duda, un nuevo artículo en Nature vuelve a aportar más evidencia. Utilizando resonancia magnética funcional, el equipo de Joel Pearson predecía la decisión de los sujetos experimentales, con hasta once segundos de antelación de que éstos fueran conscientes de su propia elección.

PD.: mientras no me canse, seguiré haciendo pruebas con el oráculo. Cuando refine más el programa lo subiré para que podáis jugar vosotros también.

Un titular: “Redes neuronales logran traducir pensamientos directamente en palabras”.  La noticia es de Europa Press y tiene incluido el artículo de Scientific Reports, por lo que se le presupone cierto crédito. Parece alucinante ¡Hemos sido capaces de descodificar el pensamiento humano! Jerry Fodor nos contaba que debajo del lenguaje cotidiano que utilizamos para pensar (nuestro idioma), existía una estructura más profunda (ya que existe pensamiento sin lenguaje). Hay, por así decirlo, un lenguaje en el que está programado el cerebro (Fodor lo llamó mentalés) y la tarea de todo científico cognitivo que se precie será descubrirlo. Entonces, ¿lo hemos hecho ya?

De ninguna manera. Aunque en esta noticia no veo una mala intención amarillista, una lectura descuidada puede llevar a cierto engaño.

Examinemos lo que verdaderamente nos dice la investigación. Cuando realizamos cualquier actividad cerebral ocurren procesos bio-físico-químicos variados que pueden ser registrados por diferentes técnicas de monitorización. Algunas como, por ejemplo, la resonancia magnética funcional, observan el aumento de flujo sanguíneo en una determinada región cerebral. Entonces, presuponemos que si cuando yo estoy escuchando música, esa determinada área aumenta su flujo, será porque esa zona tiene que ver con mi capacidad para escuchar música. Otros sistemas de monitorización, como el electroencefalograma, detectan las distintas ondas cerebrales que surgen de la actividad eléctrica: ondas delta, theta, alfa, beta y gamma. En el caso del estudio en cuestión se basaron en datos obtenidos por la medición de frecuencias, en concreto de bajas y altas de tipo gamma. Y lo que han hecho Nima Mesgarani y su equipo, es utilizar un cierto tipo de red natural artificial para que encuentre relaciones entre las frecuencias obtenidas y las palabras que un sujeto estaba escuchando en un determinado momento, de modo que mediante un sintetizador de voz o vocoder, la red traducía los patrones cerebrales a palabras sonoras.

El caso es que la traducción de patrones de ondas a voz puede darnos la impresión de que estamos traduciendo pensamientos (mentalés), de modo que desciframos el código secreto de nuestra mente. No, lo único que estamos haciendo es transformar huellassombras, residuos que nuestro cerebro deja cuando piensa, en palabras. Y es que hay una clara confusión. Lo que los métodos de monitorización actuales captan no son los pensamientos mismos sino, por usar una metáfora fácil, el ruido que hacen. Y ese “ruido” podría, incluso, no ser información importante para comprender lo que es el pensamiento. El patrón de ondas detectado cuando se piensa en tal o cual palabra, podría no tener ningún papel causal en todo el procedimiento cerebral mediante en el que se piensa dicha palabra, podría ser un simple epifenómeno. De hecho, el gran problema para los métodos de monitorización cerebral es que es tremendamente complejo observar en directo el funcionamiento del cerebro de alguien sin dañarlo. Por eso se buscan lo que se llaman técnicas no invasivas, pero el problema, aún sin solucionar, es que estas técnicas son todavía muy imprecisas y no nos permiten el nivel de detalle que necesitamos. A día de hoy solo escuchamos ecos, sombras de la mente, y sobre ellos solo cabe la especulación.

Lo explicaremos con una metáfora. Supongamos que tenemos un coche. No sabemos nada de cómo funciona el motor pero podemos escuchar el ruido que hace. Entonces, a partir de ese ruido entrenamos a un algoritmo matemático para que nos diga en qué marcha va el coche en un determinado momento. El algoritmo es muy preciso y no falla nunca a la hora de decir en qué marcha está.  Ipso facto, la prensa saca el titular: “Hemos descubierto el código secreto del motor de explosión y una inteligencia artificial nos permite traducir su funcionamiento”. Si lo pensamos, realmente este descubrimiento sólo nos informaría de una pequeñísima parte  del funcionamiento real de un motor (en este caso que el motor tiene marchas), pero nada de lo verdaderamente significativo: el funcionamiento del cilindro, la explosión de combustible, etc.

Para que, realmente, hubiésemos descubierto el auténtico código del cerebro, deberíamos tener una equivalencia razonable entre un proceso mental y lo que monitorizamos y, con total evidencia, aún no lo tenemos, principalmente, porque no sabemos bien qué ocurre dentro de nuestros cráneos cuando pensamos. Noticias de este tipo pueden dar la impresión de que nuestro conocimiento del cerebro es muchísimo más alto de lo que, realmente, es. Y hay que dejarlo muy, muy claro: estamos todavía, únicamente, tocando la superficie de su funcionamiento y no sabemos, prácticamente, nada.

Eso sí, esto no quita nada a la importancia del descubrimiento de Mesgarani y de su gran utilidad clínica. Será maravilloso que un paciente con síndrome de enclaustramiento pudiera comunicarse con los demás, además de que abrimos las puertas a formas de comunicación “telepáticas”, y a un enorme abanico de posibilidades en el campo de la interfaz hombre-máquina.

En el programa electoral de VOX no encontramos mucho más que una serie de soluciones simplistas, propias de una tertulia de bar después de un par de copas. Simplismos como eliminar el estado de las autonomías, poner un “muro infranqueable” en nuestras fronteras africanas, eliminar toda la ley LGTBI, etc. son clásicos eslóganes “todo o nada” que ignoran burdamente la enorme complejidad que representan los problemas de este país. Lo grave no es que sean soluciones de extrema derecha, sino que cuelen y reciban votos.

Cada partido político sabe muy bien las debilidades de sus contrincantes y los temas que hay que tocar. Así, el tema de la inmigración es un clásico de la derecha. Es muy fácil recurrir a unos sistemas límbicos diseñados para defender al igual y sospechar del diferente, para echar la culpa de todos nuestros males a los inmigrantes. Entonces se crea un muñeco de paja: la izquierda abre las fronteras de par en par creando un gran efecto llamada… Los inmigrantes nos quitan los puestos de trabajo, reciben más ayudas que nosotros, traen terrorismo y delincuencia, vienen aquí a hacer turismo sanitario, etc. Esa misma táctica la ha utilizado el independentismo y, en general, es usado por cualquier partido nacionalista o regionalista. Y lo triste es que funcione ¿Alguien cree, realmente, que los principales problemas sociales y económicos de este país se deban a la inmigración? De la misma forma, ¿algún catalán se cree que los principales problemas sociales y económicos de Cataluña se deban a su unión con el resto de España? Pues, lamentablemente, muchos parecen creérselo o, al menos, eso parecen decir las urnas. Y, quizá, lo más grave es que los mismos políticos que impulsan estas ideas se las crean. Yo prefiero que los de arriba me engañen a que sean imbéciles, pues temo más a estos últimos que a los mentirosos de toda la vida.

Son las Políticas de la Tribu: discursos que eluden nuestro neocórtex racional para ir, directamente, a nuestras entrañas paleomamíferas y reptilianas. A todos nos gusta sentirnos miembros de un grupo, hermanados con nuestros semejantes, nuestro pueblo, nuestra nación, los nuestros. Y también llevamos muy mal responsabilizarnos de nuestros fracasos si tenemos a nuestra disposición un chivo expiatorio: los otros (inmigrantes, golpistas, rojos, fachas, empresarios, mercados…). También tenemos una cierta tendencia innata a seguir a líderes carismáticos (es lo que Erich Fromm llamó miedo a la libertad), a la seguridad que nos da su fuerza, a preferir perder derechos a cambio de la supuesta  seguridad que prometen… Somos miedosos, se nos asusta fácilmente y cuando hay miedo nos agarramos a un clavo ardiendo, al primero, sea el que sea, que nos promete una solución fácil y rápida a ese sentimiento tan desagradable. Pensar es costoso y nos da pereza, por lo que preferimos que nos hablen en cristiano, de forma clara y sencilla (Solemos confundir simplicidad con franqueza y honestidad. Esa, quizá, es una de las claves del éxito de Trump) y sospechamos del lenguaje oscuro de los intelectuales (quizá por eso John Kerry perdió contra George W. Bush). Así, a nuestras entrañas les encantan políticos como Santiago Abascal o Vladimir Putin, les encantan estos machos alfa, guardianes de la manada, adalides de lo nuestro.

Es por eso muy importante el impulso de una vieja idea ya defendida hace unos años por Tony Blair: la Política Basada en Evidencias.  Muy sencillo: las políticas públicas han de estar basadas en estudios empíricos, o más técnico: hay que incorporar mucho más conocimiento a cada una de las fases de la decisión política. De este modo se quita peso a la ideología (es muy necesario matar las ideologías) y se intenta combatir esta epidemia de desinformación propia de opinólogos y tertulianos, de intelectuales orgánicos (véase el concepto de Gramsci) que defenderán contra viento y marea las decisiones del partido al que sirvan, de fake news, de eslóganes, de postverdades, y de amarillismo periodístico que asola nuestros medios.  Me encantaría que cada vez que alguien defiende tal o cual cosa, tuviera, necesariamente, que avalarlo con multitud de datos. Y es que, no entiendo muy bien por qué razón, damos valor a la mera opinión de alguien. No entiendo por qué alguien puede decir algo y avalarlo sólo con la justificación de que es su opinión. Además, y solo por eso, ¡debemos respetarla! Es decir, yo, sólo por el hecho de ser yo, tengo derecho a decir la estupidez que se me ocurra y todo el mundo tiene que respetar lo que digo. No, el derecho a la libertad de expresión y pensamiento conlleva la responsabilidad de no decir la primera ocurrencia que me venga a la cabeza, sino intentar que mi opinión se asemeje lo más posible a la verdad, es decir, que, al menos, esté bien informada.

Por poner un sencillo ejemplo, VOX habla de eliminar las autonomías no solo por contrarrestrar el independentismo, sino por la clásica tesis liberal de que hay que adelgazar al máximo el Estado: funcionarios, los mínimos posibles. Entonces se lanzan las típicas y tópicas soflamas: funcionarios vagos, ineficientes, enchufados, puestos a dedo… dibujando un país que sufre la costosa superinflación del sector público. Pues bien, si uno va a los datos ve que esto no se sostiene por ningún lado. Fuentes de la OECD nos dicen que el porcentaje de funcionarios con respecto a toda la población empleada en España es del 15,7%, en la misma línea de países tan liberales como Estados Unidos (un 15,3%) o Gran Bretaña (16,4%), y muy por debajo de las siempre ejemplares socialdemocracias nórdicas (Suecia 28,6%, Dinamarca 29,1% o Noruega 30%). Según los datos en España no hay un superávit de funcionarios.

Y también hay que tomar clara consciencia de que no hay soluciones fáciles ni simples para ningún problema ¿O es que si fuera así no se habrían solucionado ya? Hay que tener en cuenta que cualquier decisión política genera una cascada de consecuencias que son, muchas veces, muy difíciles de predecir. De la misma forma, problemas como el desempleo, el fracaso escolar, la precariedad laboral, etc. no tienen una clara y única causa, sino que son problemas multicausales que, consecuentemente, necesitan soluciones a muy diversos niveles. A mí me hace gracia como en mi entorno laboral, el educativo, se intentan solucionar todos los problemas solo a golpe de reforma educativa, solo mediante una nueva y, supuestamente milagrosa, ley. No, el problema de la educación solo puede solucionarse desde muchos niveles pues es un problema que supera, con mucho, el poder de maestros y profesores. El problema de la educación es un problema social, económico, cultural, etc. que tiene que afrontarse conjuntamente desde todos esos niveles a la vez. Tendemos a caer en un cierto solucionismo político, creyendo que los políticos son omnipotentes y que pueden solucionarlo todo por si solos (y que cuando no lo hacen es porque no quieren, ya que siguen otros intereses ocultos). No, los políticos solo pueden hacer leyes y las leyes tienen su poder, pero no pueden resolverlo todo. De hecho, de nada vale una ley si no hay una voluntad clara de cumplirse ni unas autoridades con las herramientas necesarias para hacer que se cumpla, sancionando su incumplimiento, que es lo que ocurre en España cuando el poder judicial trabaja con medios precarios.

La izquierda, desgraciadamente, ha dejado completamente estas directrices, alejándose de lo empírico para situarse casi en su opuesto dialéctico: la débil posmodernidad incapaz de cualquier respuesta firme a, prácticamente, todo, lo cual lleva, necesariamente, al neoconservadurismo que ya denunció hace tiempo Habermas. Y es que si los referentes intelectuales de la izquierda son gente como Zizek o Biung-Chul Han, mal andamos ¿De verdad que no se cansan siempre de la misma historia? No puedo entender como a estas alturas pueden defenderse planteamientos como los de Lacan, Deleuze, Althusser… retornar a postulados freudianos… y, por supuesto, renunciar a toda validación científica ya que la tecno-ciencia se considera como instrumento y parte del alienador sistema capitalista.

Por eso hace falta que la izquierda (y la derecha también) vuelva a los antiguos valores de la Ilustración de donde, supuestamente, nació el Estado Liberal de Derecho que todos disfrutamos. Coincido completamente con el espíritu de Steven Pinker en su última obra (con todos los matices a su interpretación histórica que quieran hacerse). Una buena noticia sería ver a nuestros políticos dar pasos en esa dirección y no al contrario. En el tema de Cataluña estaría muy claro: la Ilustración defendió un ideal cosmopolita alejado de los ideales nacionalistas que llegarán en el XIX y que nos llevarán a Auschwitz. Ante el independentismo no nacionalismo sino universalismo. La izquierda debería combatir con firmeza el nacionalismo ya que, precisamente, éste nació del Romanticismo, es decir, del movimiento contrailustrado por excelencia.

La derecha, en vez de radicalizarse hacia el ultrapatriotismo, debería volver a sus orígenes: el liberalismo clásico, es decir, a la defensa de la libertad del mercado y de las libertades individuales. UPyD fue un partido interesante en esa línea y, desgraciadamente, Ciudadanos podría haber sido un partido auténticamente liberal si no se hubiera escorado hacia ese nacionalismo que, paradójicamente, es idéntico al que pretende combatir. Sería muy positivo que la derecha ensayara lo que Anthony Giddens denominó la Tercera Vía, en vez de coquetear con el extremismo con tal de arañar votos.