En su magnífico Los peligros de la moralidad, Pablo Malo nos trae el sugerente dilema ético de Williams y Nagel (2013). Yo lo desconocía por completo, y me pareció muy refrescante, harto que estoy de leer una y otra vez los repetidos ad nauseam dilemas del tranvía de Foot:

Imagina dos amigos, Pedro y Juan, que se van a ver un partido de fútbol y tomar unas cervezas; ambos beben el mismo número de cervezas y sufren una intoxicación etílica con niveles de alcoholemía igualmente elevados. Ambos deciden coger el coe para volver a casa y ambos se duermen al volante, pierden el control del coche y se salen de la carretera. Pedro se golpea contra un árbol. Juan atropella a una chica que iba por la acera y la mata. ¿Debería la diferencia accidental de que en un caso uno se encuentre con un árbol y otro con una chica hacer que la valoración moral sea distinta?

Si hiciéramos una sencilla encuesta en la que preguntásemos cuál de los dos borrachos merece una mayor condena, con total seguridad, Juan saldrá perdiendo por goleada. Lo habitual será que a Pedro le caiga una multa mientras que Juan termine en prisión. El dilema está en que la conducta de ambos ha sido completamente similar, solo la mala suerte ha hecho que las consecuencias de la acción hayan sido inmensamente peores en el caso de Juan. Entonces, ¿condenamos a una persona únicamente por su mala suerte? ¿Acaso no hay nada más injusto que la suerte?

Este dilema no deja de recordarme al trágico accidente en el rodaje de una película en la que el actor Alec Baldwin mató a la directora de fotografía, Halyna Hutchins, al dispararle con una pistola que se creía que solo contenía balas de fogueo. Supongamos que Baldwin actuó irresponsablemente apuntando a la directora. Si las balas hubiesen sido verdaderamente de fogueo no hubiera pasado absolutamente nada y, a lo sumo, alguien podría acusar al actor de gastar una broma de muy mal gusto disparando a Halyna. Desconozco la legislación norteamericana, pero seguro que no tiene ninguna ley que prohíba disparar a alguien con balas de fogueo, y si existe alguna norma al respecto, será mucho menos dura que la que castiga el homicidio involuntario. Al igual que con nuestros conductores borrachos, a Baldwin se le va a juzgar más severamente debido, únicamente, a su mala suerte.

Pablo Malo describe cómo los psicólogos morales Cushman, Greene o Young explican este suceso. Y es que, según ellos, tenemos dos sistemas psicológicos de evaluación moral diferentes que entran en un conflicto irreconciliable. Uno se dispara en presencia del daño y condena al responsable en proporción al daño ocasionado. El otro analiza las intenciones del agresor y condena en proporción a si son malas o buenas. En este caso, el segundo sistema no se activa, ya que ni Pedro ni Juan quieren matar a nadie, pero el primero sí, ya que Juan ha matado a alguien, aunque sea involuntariamente.

Según nos sigue contando Malo, en estudios con niños se ha visto que los menores de cinco años solo condenan por el daño causado, sin fijarse en las intenciones. A partir de entre cinco y ocho años, ya se empieza a juzgar también por las intenciones. Cushman sostiene que el primer sistema habría surgido en una fase muy antigua de la evolución, cuando todavía no existía una teoría de la mente muy sofisticada o no se podían comunicar con suficiente eficacia nuestras intenciones. Así, el segundo sistema habría surgido más tarde, cuando nuestras capacidades cognitivas para entender las intenciones de los otros y comunicarlas fueran más avanzadas. Aquí se cumpliría la famosa máxima: la ontogenia recapitula la filogenia.

Pero fíjese el lector de las profundas consecuencias de esto: juzgamos y castigamos duramente a una persona de forma injusta porque nuestros sistemas de juicio moral evolucionaron de manera que entran en conflictos irresolubles. Pensemos en toda la gente que ha terminado en la cárcel, o que incluso ha sido ejecutada, porque nuestros cerebros son como son. Si hubiera evolucionado de otro modo, nuestra moral sería completamente diferente y hubiésemos mandado al paredón a otras personas distintas. Si reflexionamos sobre esto en toda su profundidad… da vértigo.

Una de las concepciones más clásicas, y comentadas, del conocimiento es la expuesta por Platón en el Teeteto. Allí define conocimiento como «una creencia verdadera con un logos«, o traducido al cristiano, «una creencia verdadera justificada mediante razones». Expresado en forma lógica tendría esta forma:

Un individuo S conoce la proposición P si y solo si:

  1. P es verdadera.
  2. S cree que P.
  3. La creencia de S en P está justificada.

Parece algo muy razonable. Si quitamos cualquiera de estas condiciones el asunto se queda muy cojo. Si quitamos 1, no estaríamos ante conocimiento sino solo ante la opinión de P. Si quitamos 2 estaríamos ante el absurdo de que S tiene razones para creer en P y aún así no cree en ella (lo cual, si lo pensamos bien, quizá nos pasa muy a menudo pues solemos ser más dogmáticos de lo que creemos). Y si quitamos 3, estaríamos ante actos de fe: creer sin ninguna justificación, lo cual tampoco es conocimiento ¿Añadiríamos o quitaríamos alguna condición? Parece que no.

Pues la cosa puede complicarse, y mucho. En 1963, el filósofo norteamericano Edmund Gettier publicó un artículo de apenas tres páginas titulado «Is Justified True Belief Knowledge?» que puso todo patas arriba. Allí nos pone varios contraejemplos en los que se cumplen con claridad las tres condiciones, pero que nadie describiría como auténtico conocimiento. Veamos el primer ejemplo:

Smith y Jones son dos candidatos a un puesto de trabajo. Smith tiene evidencia de la siguiente proposición:

«Jones es el hombre que obtendrá el empleo, y Jones tiene diez monedas en su bolsillo».

Smith cuenta con dos evidencias: habló con el director de la empresa y éste le dijo que, finalmente, Jones obtendría el puesto de trabajo; y el propio Smith había contado las monedas del bolsillo de Jones. Haciendo una inferencia lógica impecable podemos deducir:

«El hombre que obtendrá el empleo tiene diez monedas en su bolsillo».

Pero resulta que, al final, es Smith el que consigue el puesto de trabajo y, por pura causalidad, cuenta las monedas que tiene en el bolsillo y resulta que tenía exactamente diez. Y a pesar de este cambio repentino la proposición anterior sigue siendo completamente verdadera. Entonces, se cumplen todas las condiciones clásicas de Platón pero, ¿diríamos que estamos ante auténtico conocimiento? La proposición es cierta pero por razones equivocadas… ¡Nadie diría que un resultado cierto al que se llega por mera suerte es auténtico conocimiento!

Vamos al segundo ejemplo que da Gettier en su breve artículo. De nuevo, Smith tiene evidencias a favor de esta proposición:

«Jones es propietario de un Ford».

Supongamos que lo ha visto siempre conduciendo ese coche. Entonces, Smith infiere, de nuevo impecablemente, lo siguiente:

«O Jones es propietario de un Ford o Brown está en Brest-Litovsk».

Smith no tiene ni la más remota idea de donde está su otro amigo Brown, pero supone que no estará en Bielorrusia.  Así, esta nueva proposición cumple todas las condiciones de Platón, por lo que parece que estamos ante conocimiento genuino. Sin embargo, resulta que Smith estaba equivocado ya que el Ford de Jones es alquilado y que, además, casualidad de las casualidades, Brown está verdaderamente en Brest-Litovsk (en la actualidad se llama solo Brest). Igual que en el caso anterior, la proposición es cierta pero por razones equivocadas…

Es relativamente fácil inventar nuevos «problemas de Gettier». Chisholm ideó otro muy ilustrativo. Un hombre está observando el horizonte y cree ver una oveja. Así, la proposición «Hay una oveja en la pradera» cumple las condiciones de Platón. Sin embargo, resulta no ser una oveja sino un perro que un pastor camuflaba como si fuera una oveja, a la vez que, en otro nuevo giro de guión, una auténtica oveja permanecía en la pradera oculta al observador por una valla. 

Voy a inventarme yo uno. Observo mi biblioteca y veo que la República de Platón está en una de mis estanterías.  Veo que junto a la República de Platón está la Física de Aristóteles. De aquí puedo deducir que «la Física de Aristóteles está en una estantería de mi biblioteca» cumple las condiciones y, por tanto, es conocimiento. Sin embargo, ocurre lo de siempre: afino más la vista y me doy cuenta de que al lado de la República no está la Física sino la Metafísica de Aristóteles. La Física está en otro anaquel.  

Otro más peliculero. Me presento en la oficina y mato a mi jefe de un disparo con un revolver. Entonces la proposición «Un hombre blanco y con el pelo oscuro es el asesino del jefe» será auténtico conocimiento, ya que yo soy blanco y tengo el pelo oscuro. Pero resulta que cuando yo disparé mi revólver se encasquilló y la bala no llegó a salir, mientras que otro empleado, también blanco y con el pelo oscuro como yo, disparó en ese mismo instante contra nuestro jefe (Ahora que lo releo, me suena que quizá esto lo he leído yo en otro lugar, así que disculpadme si este ejemplo realmente no es de mi autoría. La memoria juega estas pasadas y ¿Quién sabe si todo lo que escribimos no es más que repetir algo que ya leímos pero que no recordamos haber leído?). 

Bien, ¿y cómo solucionamos el problema? Una primera salida es la pragmática: no es tan grave. Los problemas de Gettier son excepcionales, siendo la definición de conocimiento de Platón completamente válida en la inmensa mayoría de los casos. Tengamos en cuenta que las definiciones no son dogmas inamovibles, ni capturas de esencias, sino etiquetas que nos permiten pensar. El hecho de que esta definición de para todo el debate que ha dado, ya la da por bastante satisfactoria como «bomba de intuición» que diría Dennett. Vale, pero eso no es causa suficiente para no buscar una mejor solución al problema. Estamos de acuerdo en que la definición es valiosa y funcione casi siempre, pero eso no quita para que no intentemos buscar algo mejor.

Otras salidas consisten en ir añadiendo una cuarta condición que salve los bártulos. Una idea es apelar al fuerte indeflectismo, a la certeza más absoluta. Si analizamos los ejemplos, vemos que fallan porque hay un error en las premisas: Jones no consigue el empleo, no es el auténtico dueño del Ford, confundo la Física con la Metafísica de Aristóteles, no me fijo bien en que la oveja es realmente un perro, no me doy cuenta de que se me encasquilla la pistola… Si hubiéramos verificado mejor estas afirmaciones no habría ningún problema. Sí, pero, ¿hasta qué límite verificamos? Hasta que no quepa ninguna duda, hasta que estemos, en términos cartesianos, ante ideas claras y distintas. De acuerdo, pero no sé si vamos a peor: no podemos tener certeza absoluta de casi nada, por lo que gran parte de lo que hoy consideraríamos ciencia no pasaría la criba. La jugada sale demasiado cara.

Una propuesta ciertamente ingeniosa es la de Alvin Goldman. Desde su teoría causal de la justificación se nos indica que tiene que darse un patrón de relación adecuado entre lo que causa el conocimiento y la justificación del conocimiento, cosa que no se da de en los casos de Gettier. Por ejemplo, si yo veo una manzana con mis ojos, esa observación causa que yo afirme «Aquí hay una manzana» y la confiabilidad que yo tengo hacia mis sentidos justifica mi creencia. En el primer ejemplo de Gettier, los factores que hacen que se crea en la proposición «El hombre que obtendrá el empleo tiene diez monedas en su bolsillo», a saber, haber hablado con el jefe y haber contando las monedas del bolsillo de Jones, no tienen nada que ver con las razones que la hacen verdadera al final: comprobar que Jones obtiene el trabajo y comprobar que tengo diez monedas en mi bolsillo. Hay entonces una relación extraña, anormal, entre la causa de la creencia y su justificación.

Otros intentos han ido en la línea de eliminar el factor azar. Si observamos todos los ejemplo siempre aparece un factor azaroso que hace que la predicción sea verdadera. El problema, claro está, es que eliminar por completo la suerte nos llevaría a una nueva versión del indeflectismo y, de nuevo, estaríamos pagando un precio demasiado alto. Además, también tenemos el problema de definir o comprender bien qué es el «azar», si bien, al menos a mí, me parece sumamente interesante como investigación filosófica: ¿qué relación existe entre el azar y el conocimiento?

Otra idea que me evoca la suerte epistémica es pensar en cuántas veces tenemos explicaciones que parecen casar perfectamente con los hechos, pero que son erróneas. Dicho de otro modo: ¿cuántas veces obtenemos el resultado correcto a partir de una interpretación equivocada? Por ejemplo, en el campo de la inteligencia artificial tenemos programas que juegan al ajedrez y que, sin la menor duda desde hace ya muchas décadas, pasarían un test de Turing ajedrecístico. Podríamos decir que ya que tenemos programas indistinguibles de un humano jugando al ajedrez (tenemos el resultado correcto), hemos descubierto los auténticos procesos cognitivos que utiliza un humano cuando juega (tenemos una teoría correcta). Obviamente, nada más lejos de la realidad. Y es que tener el resultado correcto no es sinónimo de tener la verdad. Mensaje curioso, desde luego.

Pare el que quiera indagar un poquito más, aquí tiene un artículo más amplio.

Comparativa modelos NLP

En el inacabable debate entre lo innato y lo adquirido, las redes neuronales artificiales parecían postularse como evidencia a favor del ambientalismo, ya que parecen capaces de «atrapar» ciertas estructuras lingüísticas solo a partir de su entrenamiento. Rumelhart y McCelland diseñaron una red para aprender los verbos en inglés que parecía hacerlo igual que los niños. De hecho, cometía exactamente igual que ellos, el clásico error de sobrerregulación (en vez de pasar de «volver» a «vuelto», lo hacía a «volvido») ¿Y qué decimos de los nuevos modelos de lenguaje desde BERT a Gopher? Su desempeño, al menos «externo», es sensacional. Estos días he estado jugando con GPT-3 y, a pesar de algunos errores, en general, funciona fantásticamente bien (luego subiré una entrada con extractos de mis conversaciones). Tengamos en cuenta que estos sistemas basados en semánticas distribuidas tienen cero conocimiento de semántica o sintaxis. No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.

En primer lugar, ya sabemos que el sistema de aprendizaje de estos algoritmos no parece tener nada que ver con el humano. Nosotros no necesitamos millones de ejemplos, ni en la neurología humana existe nada parecido a la backpropagation. Se ha argumentado que quizá computamos mal el número de ejemplos que necesitamos las personas en cada experiencia de aprendizaje. Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables. También se ha argumentado, y aquí está lo interesante, que la hoja de ruta de los ingenieros está en conseguir programas que necesiten cada vez menos ejemplos de entrenamiento (véase, por ejemplo, el trabajo de Li Fei-Fei). Podría llegar el momento en que el número de ejemplos necesarios para los algoritmos se aproxime en cifras aceptables al nuestro. No obstante, en el estado del arte actual, parece que estas arquitecturas no constituyen un buen modelo para la mente humana («Ni lo pretenden» responderían airados sus ingenieros. Podéis leer algo más de este tema en un TFM que hice). Pero veámoslo desde otro ángulo.

La estructura de los modelos de lenguaje desde BERT se basa en un sistema de aprendizaje en dos fases: primero tenemos el modelo base del programa, entrenado con miles de millones de ejemplos y requiriendo una enorme capacidad de cómputo. Gopher ha sido entrenado con 280 mil millones de parámetros o su rival de NVIDIA, Megatron-Turing NLG con 530 mil millones. En estos momentos estamos en una escalada de tamaños que, seguramente, está todavía lejos de terminarse. Hasta los chinos han presentado los suyos: Wu Dao 2.0 y M6, por supuesto, mucho más grandes que los occidentales. Seguidamente, al modelo base se le pueden añadir capas de ajuste fino (fine tunning), un entrenamiento específico para que la máquina sea especialmente buena en una tarea concreta (inferencias, equivalencia semántica, análisis de sentimientos, etc.). Después, el programa ya está completamente listo para funcionar. Lo importante es que ahora ya no necesita la enorme capacidad de cómputo de su entrenamiento. Todo ese gasto ya no tiene que volver a realizarse y  ahora el programa funciona como otro cualquiera en términos de gasto. De hecho, el camino parece ser incluso reducir aún su tamaño. DeepMind ha sacado RETRO, una versión de Gopher reducida en tamaño (unas 25 veces más pequeño que sus pares en desempeño). Tiene solo 7.000 millones de parámetros, pero lo compensa con la ayuda de una memoria externa a la que consulta cada vez. 

Supongamos ahora que somos una especie de extraterrestres que llegamos a la Tierra y analizamos a RETRO, sin saber absolutamente nada de su pasado de entrenamiento. Veríamos una arquitectura relativamente sencilla funcionando con una más que aceptable competencia llingüística. Podríamos entonces iniciar la investigación al estilo chomskyano: buscar unas estructuras profundas, unas gramáticas generativas a partir de las cuales RETRO produce todo ese lenguaje. Quizá fracasáramos y no encontráramos nada (debido quizá al black box problem). Entonces daríamos la razón a los ambientalistas y diríamos que todo lo que hay en RETRO ha de ser aprendido del entorno.  Sin embargo, en nuestro análisis no habríamos tenido en cuenta todo el costosísimo entrenamiento previo que RETRO lleva implícitamente dentro. RETRO nace con una enorme carga innata invisible al analizador. 

Hagamos ahora la analogía con el ser humano. Quizá nosotros traemos como innato invisible todo este gran modelo base entrenado por eones de años de evolución. Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos. El ajuste fino sería, sencillamente, el aprendizaje de los usos lingüísticos de nuestro idioma geográfico realizado por cada individuo particular durante su vida. En ese sentido, la carga innata sería enorme, infinitamente más grande que todo lo que aprendemos en vida, pero permanecería oculta al analista. Y es más, para nuestro fastidio, sería tremendamente difícil de investigar, ya que habría que conocer la historia evolutiva del lenguaje de millones de especies extintas, una tarea de ingeniería inversa imposible.  

Desde que descubrimos la teoría de la evolución, ese ha sido el gran problema: todo órgano ha pasado por una larguísima historia que desconocemos, ha pasado por innumerables adaptaciones, exaptaciones, funcionalidades cambiantes, e incluso quedar como órgano rudimentario durante un tiempo para luego volver a ser reutilizado. Si pensamos que la única forma de estudiar el pasado biológico es a través de los fósiles, siendo estos solo huesos… ¿cómo vamos a entender el cerebro si no se conserva en el registro fósil, si de nuestros parientes más cercanos solo podemos aspirar a encontrar trozos de cráneo? Algo podemos hacer estudiando el de otros seres vivos, pero todo es muy confuso: el cerebro de un chimpancé no es el de un ancestro, es de un primo, ya que no descendemos del chimpancé, sino que el chimpancé y nosotros descendemos de un ancestro común desconocido.  

Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022. 

Imaginamos el mundo material como completamente inerte. Pensamos en bolitas agrupadas en moléculas que se mueven y colisionan según fuerzas de atracción y repulsión. Carga, masa, energía, presión, volumen, tensión, magnetismo, campo, aceleración, gravedad… describen el universo como una gran máquina de vapor, como un colosal reloj. Así percibimos el universo: planetas, cometas, estrellas que se acercan y se alejan como bolas de billar. Un universo móvil pero inerte, muerto, en el que la vida parece ser un acontecimiento, por lo menos hasta lo que sabemos, bastante excepcional. Sin embargo, si miramos el mundo a otra escala, la celular, el comportamiento de la materia parece completamente diferente:

Si imaginamos una célula llena de aparatos intrincados, partes con tareas asignadas, dichos dispositivos se hallan bombardeados continuamente por moléculas de agua. Un objeto en una célula recibe la colisión por parte de una molécula de agua aproximadamente cada diez billonésimas de segundo. No se trata de un error tipográfico; es casi imposible pensarlo de una manera intuitiva. Estas colisiones no son triviales; cada una de ellas posee una fuerza que deja en una nimiedad las fuerzas que los dispositivos puedan ejercer. Lo que puede hacer al aparato interior de una célula es impulsar los acontecimientos en una dirección en lugar de hacerlo en otra, lo que confiere una cierta coherencia a la tormenta.

El medio acuoso es importante a la hora de mantener la tormenta. A esa escala espacial, muchos objetos se adherirían entre sí y se aglomerarían si estuvieran en tierra firme, pero en el agua no se aglomeran; lo que hacen, en cambio, es mantenerse en movimiento, por lo que la célula es un ámbito de actividad autogenerada. Solemos pensar en la «materia» como algo inactivo e inerte […]. Pero el problema con el que han de habérselas las células no es hacer que ocurran cosas, sino crear orden, establecer un cierto sentido en el flujo espontáneo de acontecimientos. En tales circunstancias, la materia no se encuentra estática y sin hacer nada, sino que corre el peligro de hacer demasiado; el problema es obtener organización a partir del caos.

Peter Godfrey-Smith, Otras mentes.

La mecánica de Newton estaba muy bien para predecir el funcionamiento del mundo a nuestra escala, pero vamos comprendiendo que la naturaleza se comporta de formas completamente diferentes en cuanto que cambiamos de tamaños. Por eso hay que tener cuidado cuando aceptamos ciertas críticas al materialismo porque habría primero que preguntarse a qué materialismo se refieren. Parece bastante obvio que el materialismo del siglo XIX, el de las bolas de billar, ha quedado un poco anticuado; pero es que no es, desde luego, la única forma de entender la materia (sin todavía tener que recurrir a la cuántica).

He leído un montón variado de publicaciones y artículos en la red a los que no citaré para no darles publicidad, que hablan de que la mente no está en el cerebro, acusando a los que afirman lo contrario de cerebrocentristas o neurocentristas. El debate filosófico mente-cuerpo lleva siglos sin resolverse, pero parece que los últimos avances en la neurociencia dan clara ventaja a cerebrocentristas como yo. Voy a dar un listado de argumentos, muy viejos y manidos la mayoría de ellos, tanto a favor de que la mente está en el cerebro como de que la mente no sobrevive al cuerpo tras la muerte del cerebro.

Vamos al meollo:

  1. Si la mente no está en el cerebro, ¿dónde está? Se puede replicar, de forma cartesiana, que si la mente es, por definición, inextensa, no está en ningún lugar, siendo preguntarse por su ubicación lo que Ryle llamaría un error categorial . Sí, pero entonces tenemos que encontrar un punto de contacto en donde esa «inextensión» tome contacto con el mundo físico, ya que cuando yo decido mover un brazo, las fibras musculares obedecen mi mente. Descartes se sacó de la chistera la glándula pineal, y a día de hoy no existe nada en el cerebro que podamos entender con esa función ¿Cómo debería ser esa «wifi para lo inextenso»? ¿Estaría dentro de las leyes de la física clásica o habría que apelar a la cuántica?
  2. Si la mente no está en cerebro tenemos que explicar por qué cuando dañamos ciertas áreas del cerebro, la función mental queda dañada también. Si un paciente tiene un accidente cerebrovascular que le destruye el hipocampo, su memoria a corto plazo quedará igualmente destruida. Esta correlación se constituye como una evidencia muy fuerte a favor de la identidad entre cada función mental y su parte correspondiente.
  3. Si la mente no está en el cerebro, ¿para qué vale el cerebro? Seria muy curioso tener el órgano que más tasa metabólica consume del cuerpo (un 25% del gasto total con solo un 2% del peso) estuviera aquí de adorno o, en el mejor de los casos, que valiera para otras cosas que todos los investigadores del mundo hubieran pasado por alto.
  4. Podría objetarse que si bien la mente tiene que ver con el cerebro, el cerebro solo es un «interruptor», «disparador» o simple «receptor» de las funciones mentales, es decir, si bien el hipocampo «activa» la memoria a corto plazo, dicha memoria no se reduce al hipocampo. Dicho de otro modo: para funcionar, la mente debe estar encarnada, pero la mente no se reduce a su encarnación. Bien, pero entonces, por qué no aplicamos el mismo razonamiento a otro tipo de objetos. Por ejemplo, mi tostador enciende sus resistencias y tuesta el pan. Cuando una resistencia se quema, deja de funcionar ¿no podríamos argumentar que la resistencia solo ha perdido su parte corpórea pero que no se reduce a ella y que, de alguna manera, existe sin residir en el tostador? Obviamente, este argumento nos parece absurdo ¿Por qué entonces no nos lo parece al aplicarlo a las funciones mentales? ¿Por qué a la mente le damos un tratamiento epistemológico especial que nos parecería absurdo dar a cualquier otro objeto?
  5. Vamos a verlo aún más claro diciéndolo de otro modo: ¿Qué razones hay para sostener que estados mentales como mis recuerdos, emociones, consciencia, etc. vayan a seguir funcionando después de la muerte de mi cerebro? ¿Qué tienen de tan especial para que puedan seguir funcionando sin objeto material? Sería lo mismo que decir que el motor de mi viejo Seat Málaga, al que lleve al desguace después de 25 años de fiel servicio, sigue funcionando «en otro lugar»… ¿Por qué sostener eso de un coche es una locura pero hacerlo de la mente humana es una creencia respetable?
  6. Si la más pura y dura evidencia observacional nos dice que las funciones mentales dejan de funcionar con la muerte cerebral y, por mucho que la gente crea en fantasmas, no tenemos la más mínima prueba de que tales funciones mentales sigan funcionando post mortem ¿por qué sostener que siguen haciéndolo?
  7. Podría objetarse que no conocemos bien el funcionamiento del cerebro para asegurar con certeza que todas nuestras funciones mentales están allí. Estoy de acuerdo en que conocemos muy poco del cerebro, mucho menos de lo que suele creerse, pero la carga de la prueba reside en quien afirma. Cuando lo habitual es que un objeto pierda su función cuando es destruido, si alguien afirma que conoce una función que no se reduce a su objeto, debería demostrarlo y no pedir a los demás que demuestren lo contrario. Si sostenemos afirmaciones tan arriesgadas como que la mente es independiente y sobrevive al cuerpo en base a que no sabemos como funciona el cerebro estamos cayendo en la más pura y dura falacia ad ignorantiam.
  8. Otra objeción: es que la mente no es un objeto como una piedra o, en este caso, un cerebro. La mente es un conjunto de procesos y/o funciones que no pueden confundirse con el objeto donde se realizan. Así, los mismo procesos mentales que hoy funcionan en el cerebro, mañana podría funcionar en otra entidad material como podría ser el hardware de un computador. De acuerdo, pero que la mente pueda implementarse en otro entorno material diferente al cerebro (cosa, por cierto, nada evidente, pero vale, lo aceptamos por mor de la argumentación), no quiere decir que no ocurra en ningún lugar o que la mente pueda ser independiente de lo material. Pensemos, por ejemplo, en la digestión. No es un objeto, es un proceso que incluye multitud de subprocesos… ¿Alguien diría que la digestión no ocurre en el aparato digestivo, en el estómago y en los intestinos? O pensemos en la velocidad a la que va un automóvil. La velocidad no es un objeto, es el resultado de una gran cantidad de sucesos que ocurren, fundamentalmente, en el motor del coche… ¿Alguien diría que si yo voy por la autovía a 120 km/h no es en mi coche en donde se da esa velocidad? ¿Alguien diría, de verdad, que la velocidad no existe en el mundo físico sino en otra realidad? Reitero: que una función pueda darse en diferentes sustratos materiales no quiere decir que pueda existir con independencia de éstos. Windows es un software que funciona en innumerables hardwares diferentes ¿Existe Windows-en-sí, en el platónico mundo de las ideas?
  9. Nueva objeción: ¿En qué se parece la imagen mental que aparece en mi mente cuando pienso en mi abuela a lo que sabemos del funcionamiento del cerebro? La imagen de mi abuela y los sentimientos a ella asociados no se parecen en nada a descargas eléctricas en axones y a vesículas sinápticas soltando neurotransmisores… ¿Qué justificación tiene entonces decir que mis estados mentales equivalen a mi cerebro? A mi juicio, esta es la mejor objeción. Y la respuesta es que, a día de hoy, dado lo que sabemos del cerebro, es cierto que no se justifica la equivalencia. Mis estados mentales no son, para nada, equivalentes a lo que hoy sabemos de nuestros estados neuronales. Sin embargo, esto tampoco justifica dar el salto al dualismo, esencialmente, porque el dualismo presenta todavía muchos más problemas que seguir en el monismo materialista (todos los que estamos diciendo aquí). Lo lógico es, dadas las conexiones que sí conocemos entre estados neuronales y estados mentales, aceptar que todavía desconocemos mucho del funcionamiento del cerebro, pero que albergamos una muy razonable esperanza en que descubrimientos futuros vayan arrojando más luz hasta que se consiga identificar el mecanismo del que quepa justificar una equivalencia con los estados mentales. A esta idea la llamo la Teoría de la Identidad pero Todavía No.
  10. La Teoría de la Identidad pero Todavía No nos dice que existe un mecanismo causal que va desde que mis vesículas sinápticas liberan grande cantidades de serotonina hasta que yo tengo el quale de sentirme bien, pero que es totalmente desconocido a día de hoy, y no se identifica con ningún proceso neuronal de los conocidos en el estado del arte actual sobre el cerebro.

Acepto de muy buena gana contraargumentos. Change my mind.

Partamos de que la novela de Frank Herbert, a pesar de sus innegables virtudes, tiene serios defectos. No es un libro que se estudie, precisamente, en las historias de la literatura, quedando relegado al minusvalorado (muy injustamente, eso sí) género de la ciencia-ficción. Villeneuve, al haber querido que la película sea fiel al libro, hace caer la cinta en sus mismos problemas. Por ejemplo, la segunda parte del metraje decae bastante, pero es que si leemos el libro pasa lo mismo: la travesía por el desierto de Paul y su madre se hace bastante aburrida (y es que, en términos generales, la novela de Herbert es lenta y densa). También pasa lo mismo con algunos personajes: es el caso, por ejemplo, de Duncan Idaho interpretado por Jason Momoa (¿Seguro que una persona del año 10.292 tendría este nombre de cowboy? Me recuerda al nombre de uno de los villanos de El juego de Ender que se llamaba Gonzo Madrid). Es plano como una tabla de planchar: un gran guerrero que tiene cariño al protagonista, ya está, no hay más, no se aporta nada a la trama, solo el sacrificio absurdo del «yo me quedo, idos vosotros» visto ad nauseam en tantas y tantas películas (y que en el libro, por cierto, está fatalmente narrado). Pero, a su vez, Villeneuve no saca casi partido a otros que sí están más desarrollados en el libro. Por ejemplo, Piter de Vries, el mentat de los Harkonnen, es un personaje interesante que mantiene jugosas conversaciones con el Barón, y en la película apenas dice alguna palabra. Curiosamente David Lynch tampoco le sacó demasiado jugo en su versión. Y, y aquí sí me quejo mucho, el Barón Vladimir Harkonnen interpretado por Stellan Skarsgard está igualmente desaprovechado… ¿por qué sale tan poco? ¿Por qué casi no habla nada? ¡Si es un villano magnífico! Está muy bien caracterizado visualmente con esas semejanzas al Brando de Apocalypse Now pero… solo dice unas pocas frases en toda la película.

Más fallos: ¿por qué tanto luchar con espadas? Que vale, que queda muy épico y muy chulo para las coreografías de las peleas pero… que tienen naves espaciales, misiles, campos de fuerza… digo yo que algún rifle podría aparecer. Que vale, que los escudos atraen a los gusanos, pero, no sé, estamos en el futuro, futurísimo… un arcaico bazooka del siglo XX hubiera venido bastante bien (esto se hace mejor en la versión de Lynch).

El casting y las caracterizaciones son excelentes. Es un grandísimo acierto poner a Chalamet de Paul Atreides. Es mejor que el que yo me imaginaba mientras leía el libro. Zendaya como Chani es muchísimo mejor que la Sean Young de Lynch (Lo único, y digo rotundamente lo único, que ha hecho Sean Young en su carrera es la Rachael de Blade Runner). Solo dos cosas: una es el planetólogo y enlace imperial Liet-Kynes… ¿Por qué ha elegido Villeneuve a una mujer para este papel? No entiendo este tipo de cambios sin justificación alguna (Aquí gana Lynch por goleada con Max von Sydow). Y la otra es Jessica: debería ser más hermosa. No digo que Rebecca Ferguson sea fea, desde luego que no lo es, pero como concubina hacia la que el duque Leto Atreides siente un amor inmenso, me imaginaba a alguien con una belleza más despampanante. Me imaginaba mejor a alguien como Charlize Theron o Natalie Portman. Aquí también estuvo más atinado Lynch con Francesca Annis y su llamativo peinado.

Y ahora vamos con lo bueno. Como era de esperar, los efectos especiales, la fotografía, y la ambientación son fantásticos. La gran virtud de Villeneuve es la la limpieza y elegancia de las atmósferas que crea y, quizá, el mundo de Dune era ideal para él. Muchos críticos han subrayado que Villeneuve ha sido muy valiente al enfrentarse a este proyecto, pero yo creo que no tanto: Arrakis encaja muy bien con su estilo cinematográfico. Dune pide a gritos el ritmo lento y el recrearse en el ambiente que ya vimos en Blade Runner 2049. Si yo tuviera que elegir a un director para esta película, Villeneuve estaría en el top cinco desde luego. Se lo ha comparado mucho con Terrence Malick y hay semejanzas pero, lo siento Denis, Malick es superior, al menos, en lo de conseguir belleza con las imágenes ¿Cómo hubiera sido la Dune de Malick? Sin duda hermosísima, no obstante, Villeneuve es una apuesta más segura para que la película no fuera un absoluto fracaso comercial.

La escenografía y el vestuario son, igualmente, magníficos. Esa fue también la mejor parte de la de Lynch, pero aquí Villeneuve parte con la inmensa ventaja de los efectos digitales. Así, la experiencia visual es completamente abrumadora. Todo es enoooooooorme, y eso refuerza muy bien la épica de la historia. Me recuerda a la sensación que experimenté al ver en el cine Ávatar, esa sensación de haber contemplado algo de una belleza formidable, sublime. Sales de la sala como si una apisonadora hubiera pasado por encima de tus órganos sensoriales. Y es que cada plano de la película es casi una obra de arte. Ver, simplemente, una nave aterrizar, ya es un espectáculo insondable. A mí, y a casi todo el mundo supongo, me ha encantando como Villeneuve se recrea en los tópteros, todo el tiempo de metraje que hay viéndolos despegar, volar o estrellarse ¡Es maravilloso!

Y además, a pesar de que dura dos horitas y media, te quedas con ganas de más. Tengo mucha curiosidad de ver cómo desarrolla la segunda parte del libro. Y eso es señal de que el director canadiense lo ha hecho bien.

P.D.: estos días se ha hablado mucho de la versión de Dune de Jodorowsky que no se llegó a rodar. En mi modesta opinión, doy gracias a que nunca se llevara a cabo semejante locura. Jodorowsky es un charlatán y un trolero con un ego desmesurado, al que le gusta mucho novelizar todo lo que le pasa. Os adjunto el documental de tan infame intento para que juzguéis por vosotros mismos. Yo no me creo ni la mitad de lo que dice y creo que la inmensa mayoría de las decisiones que fue tomando eran rotundas estupideces: ¿Dalí? ¿Mick Jagger? ¿Amanda Lear? ¿El hijo de jodorowsky como protagonista? ¿veinte horas de metraje? Y el colega pensando que superaría, con mucho, a la 2001 de Kubrick ¿En serio?

Voy a insistir en una idea que me sigue pareciendo completamente revolucionaria, y que, como suelo leer en muchos lugares, no parece quedar lo suficientemente clara a pesar de ser la consecuencia más poderosa de la teoría de la evolución biológica.

Tesis principal: no estamos diseñados por la evolución para percibir/conocer el mundo real tal y como es (de hecho, la misma idea de mundo real tal y como es, es un sinsentido), sino para aumentar nuestro fitness (probabilidades de supervivencia y reproducción). Esta tesis, aparentemente muy simple, es auténtica dinamita, e invito al lector a que reflexione profundamente sobre ella.

Posible consecuencia: Por tanto, de la teoría de la evolución darwiniana (o, si se quiere, de la teoría sintética de la evolución) parece que no podemos deducir el realismo científico que suele acompañar al naturalismo, fisicismo, cientificismo o positivismo, tan propios de la filosofía analítica. Si no podemos percibir y conocer el mundo tal cual es, lo percibido y conocido serán una ficción, por lo que no queda otra que caer en el relativismo y/o en el escepticismo.

Argumentación que intenta refutar esta consecuencia:

Hace años escribí esta entrada en donde comparaba la belleza de Monica Bellucci con la de una drosophila. Con ella quería defender la idea de que no existe una belleza en sí, la idea platónica de belleza como algo externo y diferente a los sujetos que la perciben o inteligen. Lo que verdaderamente hay son unos sensores diseñados para percibir como atractivas ciertas formas/texturas/colores propias de nuestra especie en función de sus devenires evolutivos. Así, a una drosophila, Monica Bellucci le parecería igual de atractiva que a nosotros la misma drosophila. Pero, la cuestión es: ¿Al no existir una idea universal de belleza compartida por todos los seres bellos no caemos en un relativismo que, a la postre, nos puede llevar al escepticismo? No.

Que a la drosophila, a un oso hormiguero o a un salmonete de roca, Monica Bellucci no les resulte bella no quita realidad al hecho de que a mí sí me lo resulte. Monica es bella para mí, pero el que solo lo sea para mí no implica que esa belleza no tenga realidad y que a partir de ella pueda escribir maravillosos poemas o hacer magníficas películas. Thomas Henry Huxley, el celebérrimo bulldog de Darwin, lo explica mejor que yo:

Pero ¿es verdad que el poeta, el filósofo o el artista cuyo genio es la gloria de una época queden degradados de su altura por la indubitable probabilidad histórica (por no llamarla certeza) de ser descendiente directo de algún antiguo, desnudo y bestial salvaje cuya inteligencia bastaba apenas para hacerle un poco más astuto que un zorro y algo más peligroso que el tigre? ¿O acaso el poeta se siente obligado a andar a cuatro patas por el hecho indiscutido de que al comienzo de su existencia fue un huevo imposible de distinguir del de un perro por ningún poder ordinario de discriminación? ¿O acaso el filántropo o el santo deben abandonar sus esfuerzos por vivir una vida noble a causa de que el estudio moral del hombre revela fácilmente que en su naturaleza se dan cita todas las pasiones egoístas y todos los fieros apetitos del cuadrúpedo? ¿Es vil amor materno por el hecho de que lo manifieste una gallina? ¿Es indigna la lealtad por el hecho de la manifieste un perro?

T. H. Huxley citado por L. W. H. Hull en Historia y Filosofía de la Ciencia.

Apliquemos esto al conocimiento: si no percibo la realidad tal y como es, ¿Qué validez tiene mi conocimiento? Todo ¿Por qué? Porque entender el conocimiento como el de la realidad tal como es no tiene sentido, es entender el conocimiento sin conocedor, sin sujeto cognoscente. No se introduce en la ecuación una parte elemental del proceso de conocer. Y es que algo solo es verdadero o falso, significativo o absurdo, para un sujeto con una determinada estructura cognitiva. Algo no puede ser verdadero o falso en sí mismo, sino que es verdadero o falso para alguien para el que tenga sentido hablar de verdades o falsedades.

Un ejemplo. Tenemos a dos interlocutores charlando mientras la drosophila revolotea a su alrededor. Entonces uno de los interlocutores dice «Deva Cassel es hija de Monica Bellucci». Esta proposición es un enunciado declarativo que puede fácilmente verificarse y, de hecho, es verdadero; pero, ¿Verdadero para quién? Obviamente, para la drosophila no. Ella no entiende el lenguaje humano, no sabe nada de sus estructuras sintácticas, semánticas o pragmáticas; por lo tanto la proposición no es universalmente significativa, sino que solo lo es en un contexto muy concreto: para dos interlocutores de la misma especie que comparten el mismo idioma y los mínimos culturales necesarios para hacer posible la comunicación. Sin embargo, esto no quita que la proposición sea completamente verdadera para ambos interlocutores y que no tiene ningún sentido «ir más allá» buscando una verdad metafísica más profunda sobre el tema.

¿Esto implica que no existe un mundo real diferente al sujeto de modo que todo lo que entendemos por realidad es una construcción del sujeto? No. Existe un mundo real diferente al sujeto, solo que intentar comprenderlo en sí mismo es absurdo. Lo que entendemos por realidad sí que es una construcción, pero no solo es producto del sujeto, sino más bien es un producto de la acción del sujeto en la misma realidad. Yo percibo/construyo unas determinadas formas/texturas/colores en Monica Bellucci porque gracias a ello tengo más probabilidades de pasar mis genes a la siguiente generación. Esas formas/texturas/colores son una construcción tanto de las propiedades del objeto Monica Bellucci como por las cualidades de mi sistema perceptivo y cognitivo, no teniendo ningún sentido preguntarse qué son más allá de esa relación.

Creo que la principal consecuencia del darwinismo es el antiplatonismo: no hay unas verdades universales existentes con independencia del sujeto. No hay belleza, verdad, bondad en sí mismas, sino solo para el sujeto. El darwinismo, en muchos sentidos, encajaría muy bien con la gnoseología kantiana.

P. D.: Esta entrada es solo un aperitivo para la conferencia que daré a principios de septiembre para el curso de verano de la SEMF, hablando de todo lo que significa la revolución darwiniana para el pensamiento contemporáneo porque, insisto, creo que todavía, en agosto de 2021, no nos hemos tomado suficientemente en serio a Darwin.

Cuando comienzas una discusión con un buen filósofo sobre, pongamos por ejemplo algo que está muy de moda en estos días como es la libertad, más pronto que tarde, te pedirá que se la definas. Y es que los filósofos saben que gran parte de los malentendidos vienen de no tener clara la definición del concepto en liza ¿Libertad de qué? ¿De poder tomarnos unas cañas, de poder cambiarnos de sexo o de poder pagar a nuestros empleados el sueldo que se nos antoje?

Sin embargo, es muy curioso, cuando no un total escándalo, que si nos adentramos en las principales disciplinas académicas, nos encontramos con que en, prácticamente ningún concepto fundamental, hay acuerdo alguno. Si nos vamos a la biología no hay definiciones consensuadas de vida, adaptación, gen, especie, raza… ¡Conceptos cruciales sobre los que se sustenta toda la biología! En la física igual: materia, tiempo, espacio, partícula, energía… Puede haber modelos matemáticos que permiten precisas predicciones, pero definiciones en román paladino no hay en las que todos confluyan. Y si ya nos vamos a disciplinas cuyo objeto es menos tangible como la psicología, la disparidad se multiplica: ¿Qué es la mente, la inteligencia, la personalidad? ¿Qué es enfermedad mental y qué no lo es? Nos encontraremos con tantas definiciones como escuelas, corrientes o incluso psicólogos particulares. Imagine el lector en el campo en el que yo ahora investigo, la consciencia, el número de definiciones distintas y la confusión que generan.

Desde luego, esto daría para caer en un escepticismo duro, concluyendo que nuestras ciencias son un desastre mayúsculo y que jamás llegaremos a ningún conocimiento certero sobre la realidad ¿Cómo los científicos pueden decirnos algo con sentido si no pueden definir de lo que nos hablan? No tan rápido. Me gusta citar una anécdota que no recuerdo donde leí pero que dice así: estaba Francis Crick dando una larga conferencia sobre el ADN cuando un oyente le espetó: «Profesor Crick, lleva usted varias horas hablando de seres vivos pero no nos ha definido en ningún momento qué es la vida». Crick respondió: «Dejemos las cuestiones de higiene semántica para los filósofos». Moraleja: un eminente científico podía hacer avanzar la ciencia, tanto como para descubrir la estructura del ADN, sin tener una definición clara y precisa de su objeto de estudio.

Vamos a aproximarnos un poco a lo que entendemos por definición. Definir algo no consiste en captar su esencia, en descubrir un «secreto» que el objeto a definir guardaba «dentro». Definir algo es, sencillamente, distinguirlo de cualquier otra cosa. Así, cuando defino «silla» lo que pretendo es que mi interlocutor no confunda en su mente una silla con una mesa o con un sofá. La RAE la define como «Asiento con respaldo, generalmente de cuatro patas, en el que solo cabe una persona». A bote pronto, parece una definición bastante aceptable. Al decir que «generalmente tiene cuatro patas» seguimos entendiendo como sillas aquellas de diseño que puedan tener, por ejemplo, solo tres patas. Sin embargo, me parece que el punto débil de la definición está en la parte final: «…en el que solo cabe una persona». Si en una supuesta silla se sientan dos niños… ¿deja de ser una silla? O si en ella no cabe una persona obesa… También podemos pensar en una silla en miniatura de una maqueta… ¿no es una silla?

Aquí entran las tareas de «higiene semántica» de los filósofos a las que se refería Crick. Estos tipos raros dedicarán horas y horas a intentar encontrar definiciones más precisas. Sin embargo, pensemos que aunque nuestra definición de silla no sea perfecta, la mayoría de la gente comprende perfectamente qué es una silla y la distingue muy bien de cualquier otro objeto. Solo en poquísimos casos limítrofes nos encontraríamos con objetos que no sabríamos decir si son sillas o no. Incluso en el caso de una silla en miniatura, cuando se incumple claramente la tercera cláusula de la definición, todo el mundo la sigue llamando silla sin ningún atisbo de duda. Las definiciones funcionan muy bien aunque no sean perfectas. Incluso solemos saber identificar y distinguir muy bien los objetos sin tener siquiera una definición elaborada lingüísticamente en nuestra mente. Por ejemplo, si me preguntan ahora qué es un tigre, tendré que estar un rato pensando qué cualidades lo distinguen de otros seres, y quizá no llegue a ninguna buena definición; empero, habitualmente, puedo diferenciar a un tigre de cualquier otro ser con bastante competencia.

Además, y esto es lo importante, las definiciones evolucionan a lo largo de la investigación. Si, antes de comenzar a investigar, ya tenemos una definición definitiva… ¿Qué sentido tiene entonces la investigación? Pensemos en la historia de los átomos. Desde que los atomistas griegos los definieran como los últimos componentes de la materia (ἄτομος : «indivisible»), hasta la actualidad, su definición ha variado enormemente. Desde que Platón entendiera los átomos como sólidos regulares, pasando por Dalton, Thomson, Rutherford, Bohr o Schrödinger, ha llovido muchísimo. De hecho, la definición inicial ya no nos sirve para nada: los átomos no son los componentes últimos de la materia, ya que están divididos en muchas otras partículas más pequeñas. Ahora sabemos que los átomos y sus componentes tienen propiedades que antes desconocíamos y que podemos incluir en su definición. Sabemos que hay muchos tipos, tamaños, de diferente composición… Hablamos de masas, cargas, spines, fuerzas, enlaces… Nuestro conocimiento se ha ampliado con una gran riqueza de nuevas notas, y también de nuevos interrogantes ¡Eso es progreso científico!

Durante algún tiempo me preocupó mucho la ausencia de definiciones. Cuando analizaba el estado de las variadas ciencias y solo encontraba en ellas un maremágnum de discusiones, sin un atisbo de lo que Kuhn llamó «ciencia normal», entendía muy bien las razones del relativismo y del escepticismo. Si bien, por otro lado, me congratulaba maliciosamente de que las ciencias naturales se encontraran en dificultades no muy distintas a las clásicas de las ciencias humanas o sociales. Durante mucho tiempo también pensaba que la precisión y el rigor eran cualidades de las ciencias empíricas, mientras que las humanidades eran más chapuceras en este sentido… ¡Nada más lejos de la realidad! En ciencia hay tanto torticero como en cualquier otro lugar del mundo. El rigor está en manos del investigador en cuestión, no dependiendo, para nada, del campo en el que trabaje. Superados estos complejos, ahora ya no me preocupa tanto el problema de carecer de definiciones precisas. Las ciencias avanzan igualmente y estos desacuerdos enriquecen mucho más que oscurecen ¡Qué aburrido sería todo si el conocimiento fuera uniforme y estandarizado!

Otro apunte interesante con respecto a las definiciones es la problemática que aparece cuando queremos definir la totalidad de lo que existe. Por ejemplo, cuando defendemos el materialismo, entendiendo que todo lo que existe es materia, tenemos un serio problema: las definiciones distinguen nuestro objeto a definir de todos los demás objetos, pero si lo que pretendemos definir es el todo… ¿de qué distinguimos el objeto? Así, cuando decimos que todo es materia… ¿Cómo definimos materia si no podemos oponer la definición a otra cosa diferente, ya que no hay nada diferente? De hecho, aquí la definición de definición que hemos utilizado, valga la redundancia, perdería su sentido: definir como distinguir de otra cosa aquí no funciona ¡Tenemos que redefinir definir! Y es que de definición… ¡también hay muchas definiciones!

Mi coche autónomo se encuentra ante uno de los clásicos dilemas del tranvía. Vamos por un estrecho desfiladero y un niño se cruza en el camino. No hay tiempo para frenar, así que solo hay dos opciones: o atropellamos al niño o nos lanzamos al vacío por el desfiladero. El software del coche tiene que tomar la trágica decisión: o matar al niño o matarme a mí ¿Qué debería hacer? ¿Podríamos decir que el software es un agente moral y, por tanto, responsable de tomar la decisión?

En principio, la respuesta es fácil: claro que no. El software solo sigue instrucciones implementadas en su código por un programador. El evidente responsable de la decisión es quien programó a la máquina para tomar la decisión. Aquí no cabe discusión. Sin embargo, pensemos en las nuevas arquitecturas de aprendizaje profundo. Imaginemos que entrenamos a una red convolucional para clasificar gatitos, de modo que cada vez que le presentemos una imagen sea capaz de decir si allí hay un gato o no. Entonces le enseñamos una foto de un gato Kohana, un subtipo de la extraña raza Sphynx. Antes de enseñársela el programador no sabe qué va a responder la red, porque ésta decidirá en función de su aprendizaje, no de ninguna instrucción previamente programada ¿Podemos entonces decir que ha tomado una decisión y que, por tanto, estamos ante un agente moral?

No tan rápido. Tengamos en cuenta que, a pesar de que la decisión fue fruto del aprendizaje, la máquina obró de una forma completamente determinista. De hecho, siempre volverá a tomar la misma decisión en el futuro. De la misma forma, la red no es consciente de nada, no tiene emociones, ni intención ni siquiera obra siguiendo el deseo de hacer lo que hace ¿Es o no es un agente moral? Podríamos decir que, desde luego, no es un agente moral completo pero ¿Qué mínimos serían los suficientes para decir que estamos ante un agente moral? A fin de cuentas, si pusiéramos a nuestra red convolucional al mando de nuestro coche autónomo, podría tener que decidir si atropellar al niño o matarnos sin que el ingeniero se lo hubiera indicado de antemano. La red estaría tomando una decisión que, si la tomara un humano, diríamos con meridiana certeza que es una decisión moral. El filósofo John P. Sullins, de la Universidad Estatal de Sonoma en California, sostiene que si una IA es capaz de autonomía con respecto a sus programadores, podemos explicar su comportamiento apelando a intenciones morales y muestra comprensión de su responsabilidad con respecto a otros agentes morales, es un agente moral. Quizá, nuestra red convolucional incumple la segunda y la tercera condición: no obra con intenciones ni parece mostrar demasiada comprensión de su responsabilidad pero, ¿Y si obrara como si las tuviera? ¿Y si su conducta fuera siempre responsable ante los otros aunque no hubiese intención ni compresión?

Luciano Floridi, filósofo de Oxford, rebaja un poco más las condiciones: si la IA es capaz de cierta interacción con otros agentes morales, cierta autonomía y cierta adaptabilidad, ya podríamos hablar de agencia moral. Estas condiciones están ya aquí. Un bot conversacional como Blender de Facebook estaría muy cerca, si no lo ha conseguido ya, de cumplirlas. Floridi nos insta a hablar de moralidad a-mental, es decir, de moral sin mente, tal y como la llevarían a cabo las máquinas.

Pero, con independencia de lo que pensemos los filósofos, los algoritmos se irán volviendo más autónomos, más adaptables e irán interactuando cada vez más, y a más niveles, con nosotros. Los usuarios, ignorantes de su funcionamiento interno, solo podrán observar su comportamiento, el cual será indistinguible del de las personas que actúan moralmente, por lo que, al final, actuarán con ellas como si fueran agentes morales de pleno derecho. Cuando Stan Franklin intentó llevar la teoría del espacio de trabajo global de la consciencia de Bernard Baars en un programa llamado LIDA, que se encargaba de comunicarse vía e-mail con marineros de la armada norteamericana, los usuarios no tenían demasiados problemas en afirmar que LIDA era un ente consciente. Así, estamos seguros, no tendrían problemas en otorgarle agencia moral (Ya hablamos de lo fácil que es otorgar mente y empatizar con seres teóricamente inertes). Dentro de un tiempo, no parecerá demasiado extraño contemplar a una persona regañando o castigando a un robot doméstico por haberse portado mal. Pero claro, ¿llegaríamos entonces a juzgar y encarcelar a un algoritmo? Parece muy absurdo meter líneas de código en prisión. Entonces, ¿de qué estaríamos hablando? ¿Estaríamos ante máquinas que obran moralmente pero que no tienen que rendir cuentas cuando obran mal? ¿Moral sin responsabilidad?

Así es. La moral de las máquinas sería una moral arresponsable ya que no tiene ningún sentido castigar a una máquina (únicamente lo tendría si queremos simular ese comportamiento para que la máquina se parezca más en su conducta a un humano). Si un algoritmo actuara moralmente mal, sencillamente, habría que repararlo, corregir su software para que ese comportamiento no se repitiera. La responsabilidad final, por mucho que el algoritmo tomara decisiones autónomas que no fueran previstas por el programador, será de un humano, ya fuera el diseñador, la empresa o el usuario, de la misma forma que un menor de edad o una mascota son responsabilidad de sus padres o dueños . Sin embargo, esto sigue trayendo problemas. Los grandes programas de software están diseñados por muchos programadores diferentes que trabajan para distintas empresas en diversos tiempos. Así, en muchas ocasiones, se hace muy difícil rastrear quién desarrolló cada parte del programa y qué parte de responsabilidad tiene esa parte en la ejecución de la acción moralmente reprobable. También tenemos el problema del secreto industrial: las empresas no querrán desvelar cómo funcionan sus IAs, e, incluso, podrían diseñar sus sistemas de forma intencionalmente opaca para eludir cualquier responsabilidad. Y, para colmar el vaso, tenemos el problema de la caja negra: los sistemas de deep learning son terriblemente opacos per se. Difíciles tiempos aguardan a los juristas que quieran poner orden aquí.

Una original propuesta es la del jurista neoyorquino David Vladeck: en caso de un coche autónomo será el propio coche el que cargue con la culpa. Se crearía una nueva figura jurídica, «coche autónomo», a la que se obligaría a tener un seguro. La prima de pago del seguro oscilaría en función de los accidentes que tuviese ese modelo en concreto, de forma que un modelo muy inseguro pagaría un precio tan elevado que a la empresa automovilística no le saldría rentable seguir produciéndolo, de modo que se fomentaría la carrera por diseñar coches cada vez más fiables. Es una idea.

En abril de 2019 el Allen Institute of Brain Science celebraba la culminación de un ambicioso proyecto de investigación: cartograficar cada una de las 100.000 neuronas y cada una de las 1.000 millones de sinapsis contenidas en un milímetro cúbico de la corteza cerebral de un ratón. Por el momento, se trata del conectoma (así se llama este tipo de «mapa») a nanoescala de mayores dimensiones, valga el oxímoron. Dentro de este granito de arena había unos cuatro kilómetros de fibras nerviosas. El equipo tomo imágenes de más de 25.000 secciones ultrafinas de tejido contenido en ese minúsculo volumen, generando un conjunto de datos (dataset) de dos petabytes, suficiente capacidad como para unos 50 millones de elepés en MP3: el faraón Mentuhotep III podría haberle dado al «play» en el año 2000 a. C. y todavía no se habría repetido ni una sola canción. Si quisiéramos mapear de forma análoga la corteza cerebral humana generaríamos un zetabyte: aproximadamente, la cantidad de información registrada en todo el mundo a día de hoy. Si a esos datos meramente morfológicos quisiéramos añadir datos más específicos, acerca de la tipología química de las sinapsis, pongamos por caso, necesitaríamos múltiplos de esa cifra. Si a esos datos quisiéramos añadir, adicionalmente, datos acerca de, por ejemplo, el citoesqueleto proteico que configura la estructura interna de la neurona – y no olvidemos que importantes especialistas sostienen que el mismo es crucial para la «vida mental del cerebro» – , generaríamos por cada neurona una cantidad de información similar a la requerida para mapear la anatomía neuronal del cerebro completo. Si a estas «fotos» quisiéramos añadir datos acerca de la actividad acaecida cada segunda en cualquiera de estos niveles de organización, necesitaríamos, sencillamente, elevar una cifra astronómica a otra absurda. Se trata de hechos que no debieran descuidar los que fantasean con «simulaciones computacionales del cerebro».

Arias, Asier. Introducción a la Ciencia de la conciencia. Catarata. Madrid, 2021. p. 223-224.

Desde luego, vienen bastante bien unas dosis de realismo acerca de las posibilidades de construir cerebros artificiales. Pero que no cunda el desánimo. No hace falta tener un mapa de grano tan sumamente fino para comprender el funcionamiento de nuestra mente. A fin de cuentas, podemos explicar bastante bien el funcionamiento del brazo, sin tener un mapa de todas y cada una de las fibras musculares y óseas que lo componen. Lo interesante entonces no es el realismo del mapa en sí, porque la explicación de su funcionamiento estará a otros niveles explicativos superiores. Por eso nunca me han impresionado demasiado todos estos proyectos titánicos de mapeo cerebral. Como se ha mencionado muchas veces, ya tenemos desde hace años todo el conectoma de la Caenorhabditis elegans, que solo tiene 302 neuronas y unas 8.000 conexiones sinápticas, y no somos capaces de predecir su conducta ¿por que íbamos a sacar algo en claro de cerebros exponencialmente más complicados? En el fondo, se trata de una miope obcecación reduccionista. Y es que el reduccionismo es una estrategia siempre saludable, menos cuando deja de serlo.

P.D.: puedes descargarte una aplicación del Allen Institute para ver mapas del cerebro en 3D aquí. Y también tienen un mapa muy chulo de la conectividad del cerebro del ratón aquí.