Del rigor de la ciencia

En aquel imperio, el arte de la cartografía logró tal perfección que el mapa de una sola provincia ocupaba toda una ciudad, y el mapa del imperio, toda una provincia. Con el tiempo esos mapas desmesurados no satisfacieron y los colegios de cartógrafos levantaron un Mapa del imperio, que tenía el tamaño del imperio y coincidía puntualmente con él. Menos adictas al estudio de la cartografía, las generaciones siguientes entendieron que ese dilatado mapa era inútil y no sin impiedad lo entregaron a las inclemencias del sol y de los inviernos. En los desiertos del oeste perduran despedazadas ruinas del mapa, habitadas por animales y por mendigos; en todo el país no hay otra reliquia que las disciplinas geográficas. Suárez de Miranda: Viajes de varones prudentes. Libro Cuarto. Cap. XLV, Lérida, 1658.

Borges, cuento recogido en El hacedor

Maravillosa crítica a la teoría de la verdad como adecuación o correspondencia. La verdad no es un espejo que refleja el mundo tal y como es, ya que entonces conocer no sería otra cosa que el absurdo de duplicar la realidad dos veces. Y quizá, toda la historia de la filosofía no sean más que ruinas, reliquias de cartografías que intentaron tal despropósito.

Os dejo el texto leído por el propio autor.

Inteligencia Artificial y Futuro Próximo

Publicado: 21 enero 2020 en Sin categoría
Etiquetas:, ,

Si no tenéis plan para el sábado 1 de febrero y estáis por Madrid ¡Tenéis que venir a la presentación del libro del año! En un lugar tan emblemático para la vida intelectual madrileña como es el café Manuela, Ricardo Sanz, Antonio Orbe y un servidor, presentaremos nuestro último libro. Será a partir de las 12:30… ¡Hora ideal para tomarte el aperitivo! Además, el acto estará presentado por el divertidísimo Vicente garcía Pla, profesor de la Universidad Francisco Vitoria. Podrás conocer y charlar con los autores, preguntarnos lo que te de la gana, llevarte un ejemplar firmado y dedicado, o, simplemente, pasar un rato entretenido escuchando a gente hablar de máquinas pensantes.

Todo comenzó en otoño de 2017, cuando el Foro del Futuro Próximo organizó un ciclo de debates en torno a lo que considerábamos el tema de nuestro tiempo: la inteligencia artificial. Antonio Orbe se encargó de invitar a un florido elenco de intelectuales que, desde muy diversas perspectivas, nos ofrecieran su enfoque. Así, no solo tuvimos a ingenieros, sino a escritores, filósofos, guionistas de cine, expertos en literatura de ciencia ficción, representantes de empresas como Google o IBM, etc. La verdad es que la cosa salió bastante bien y los debates fueron muy interesantes.

Entonces Ricardo Sanz nos propuso a Antonio Orbe y a mí, hacer un libro en donde se recogieran los aspectos más relevantes allí tratados. Además, la idea parecía sugerente en el sentido en que podríamos aportar tres enfoques muy diversos, ya que cada uno pertenecemos a especialidades diferentes: ingeniería, psicología y filosofía respectivamente. Así que nos pusimos manos a la obra y después de un par de años de intenso trabajo, dimos a luz a la criatura. Espero que os guste. El libro está en versión papel y otra, más económica, en eBook.

Ya adjunte en su momento los vídeos, pero vuelvo hacerlo por si os perdisteis alguno (Son más de nueve horas de metraje total… ¡Ideales para un fin de semana de maratón de conferencias!):

¿Qué tecnología de la IA nos afecta más?

 

¿Pueden pensar las máquinas?

 

¿Las películas IA son fantasía o anticipación?

 

¿Cómo cambiara la IA nuestro futuro?

 

Para un trabajo que realicé para la asignatura Bases Neurológicas de la Cognición del Máster en Ciencias Cognitivas que imparte la Universidad de Málaga, tuve que enumerar una serie de características que yo considerada imprescindibles para crear una máquina que imitara el funcionamiento del cerebro humano. Concedo que son principios muy generales, pero creo que no hay que perderlos de vista porque son, esencialmente, verdaderos, y uno se encuentra por ahí, más veces de lo que querría, con teorías de la mente que se alejan, muy mucho, de ellos.

  1. El cerebro es un kludge (klumsy: torpe, lame: poco convincente, ugly: feo, dumb: tonto, but good enough: pero bastante bueno) fruto de la evolución biológica. Tal como defiende el neurocientífico David Linden (Linden, 2006), si aplicamos los principios de funcionamiento de la selección natural, el diseño del cerebro dista mucho de ser una máquina perfecta fruto del trabajo racional de ingenieros, siendo más bien un cúmulo de chapuzas, de soluciones, muchas veces poco eficientes, que lo único que han pretendido es aumentar el fitness del organismo dado un ecosistema concreto. Teniendo en cuenta que los ecosistemas cambian debido, por ejemplo, a cambios en las condiciones climáticas o por aumentos o disminuciones en las poblaciones de competidores, lo que hoy podría ser una excelente adaptación, mañana puede ser una carga inútil. Es por eso que nuestro cerebro puede estar lleno de órganos rudimentarios (adaptaciones que perdieron su función pero que no fueron eliminados) y exaptaciones (antiguas adaptaciones que se están rediseñando en la actualidad para una nueva función), o de las famosas pechinas de Jay Gould y Richard Lewontin (elementos que solo obedecen a necesidades estructurales de auténticas adaptaciones). También hay que tener en cuenta que el cerebro no es una máquina acabada, sino que, al seguir siendo afectado por la selección natural, sigue construyéndose, siempre siendo un estado intermedio. El cerebro, al contrario que cualquier máquina diseñada por el hombre, tiene una larga historia biológica, lo cual, dicho sea de paso, dificulta mucho la labor de ingeniería inversa necesaria para su estudio.
  2. El cerebro como una máquina de movimiento. La gran diferencia entre el reino animal y el vegetal fue, originariamente, la capacidad de movimiento. Se da el hecho de que las plantas no tienen sistema nervioso y esto se explica, precisamente, por su quietud: si apenas te mueves no necesitas un complejo sistema que ligue tu percepción al control del movimiento. Por tanto, el sistema nervioso surge con la función biológica de coordinar la percepción con el sistema motor. Podemos entonces entender que muchas de las funciones cognitivas actuales son exaptaciones de funciones perceptivo-motoras. O dicho de otro modo: nuestro cerebro se construyó a partir de otro que únicamente servía para percibir y moverse, por lo que parece esencial, comprender bien cómo eso puede afectar al diseño del cerebro. Pensemos como sería construir un ordenador personal a partir de las piezas de un automóvil.
  3. El cerebro como máquina de visión. El órgano de los sentidos que mejor servía para moverse eficazmente en el mundo animal, ha sido la visión (con honrosas excepciones como la ecolocalización de los murciélagos). Y es por ello que los animales más evolucionados como los mamíferos superiores tienen los mejores sistemas visuales de toda la biosfera ¿Qué es lo que ve, lo que percibe nuestro cerebro? En este sentido es muy interesante la teoría de la interfaz (Hoffman, 1998 y 2015) del científico cognitivo Donald Hoffman ¿Percibimos la realidad tal cómo es? No. En primer lugar hay que tener en cuenta que el cerebro no es una máquina con infinitos recursos sino que tiende a optimizarlos para competir en situaciones de escasez. Percibir toda la realidad sería un enorme derroche cuando solo tiene que percibir necesario para aumentar sus posibilidades de supervivencia y reproducción: alimento, presas/depredadores y parejas sexuales. Todo lo demás, lo que es indiferente a los factores evolutivos no tiene por qué ser percibido. Y después, tampoco hace falta percibir lo que se percibe tal y como es, sino que nos bastaría con una etiqueta, con un símbolo que, sencillamente, identificara la función de lo percibido. Es por eso que Hoffman nos habla de nuestra percepción como una interfaz, como el típico escritorio de Windows lleno de iconos. Pensemos que cada icono es un símbolo que representa una función (Abrir el programa determinado), pero ese símbolo no tiene nada que ver (no se parece en nada a su función), pero es muy práctico y eficiente: un pequeño dibujito vale como etiqueta para indicarme que debo hacer clic en ella para ejecutar un programa (el cual puede ser tremendamente complejo en sí mismo). Por otro lado, el órgano de los sentidos que más información proporciona al ser humano, es con diferencia, la visión (el córtex visual ocupa casi un tercio del volumen del cerebro), por lo que a la hora de establecer cómo procesamos la información y cómo realizamos acciones cognitivas o conductuales, habría que tener muy en cuenta que, principalmente, trabajamos con información visual, por lo que habría que tener muy en cuenta sus propiedades y peculiaridades con respecto a otros tipos de información.
  4. La división entre rutinas y subrutinas. En su famosa obra The society of mind (1986), el informático Marvin Minsky nos describía el cerebro como un gran conjunto de pequeños módulos funcionales que realizan tareas relativamente sencillas pero que, trabajando coordinadamente, hacen emerger una conducta muy inteligente. Esto nos da dos ideas: en primer lugar nos sirve para establecer la distinción entre procesos conscientes y subconscientes. La tarea de esos sencillos módulos funcionales (que quizá podrían identificarse con clusters de redes neuronales) ocurriría a nivel inconsciente, siendo únicamente el resultado, lo que aparece a nivel consciente (o, si no, solo el trabajo de ciertos tipos de módulos encargados, precisamente, de los procesos conscientes). Y, en segundo lugar, da pie a todo el programa de investigación conexionista (en redes neuronales artificiales): buscar modelos matemáticos del funcionamiento del cerebro centrados en sus unidades básicas (la neurona) y en sus relaciones (las redes). Una neurona es una célula relativamente sencilla, pero millones de ellas funcionando en paralelo podrían dar lugar a comportamiento complejo. Como Rodney Brooks (Brooks, 1991) demostró en sus investigaciones en robótica, es posible hacer emerger comportamiento inteligente mediante un conjunto de dispositivos sin que exista ningún módulo de control que dirija la acción. Serían dispositivos automáticos que actúan siguiendo el patrón percepción-acción sin apenas procesamiento de la información. En este sentido la metáfora del funcionamiento de los programas informáticos actuales es perfecta: un programa llama constantemente a otros (llamados subrutinas) para que le den un valor, un resultado. El programa principal no sabe qué hacen ni cómo funcionan cada uno de estos subprogramas, pero le son útiles porque le dan el resultado que necesita para acometer una determinada tarea. Incluso puede ser el caso de que funcionen sin ningún tipo de comunicación con ningún centro de mando, sencillamente realizando una tarea de forma completamente autónoma.
  5. Conocer es actuar. Ha sido un gran error histórico (quizá el mayor error de la historia de la filosofía) entender el conocimiento desde la gnoseología platónico-aristotélica, es decir, entender que conocer consiste en volver a presentar (re-presentar) el mundo exterior a nosotros, abstrayendo una especie de esencia incluida en el objeto conocido y “colocándola dentro” de nuestro entendimiento. Esta concepción mixtifica, sobrenaturaliza la acción de conocer y, evidentemente, saca el estudio del conocimiento del ámbito científico. Conocer no es repetir el mundo exterior dentro de nuestro mundo interior, ya que eso nos llevaría a una cadena infinita de homúnculos. Conocer es un acto biológico con finalidades evolutivas que no tiene nada que ver con representar el mundo. Sería absurdo que nuestra percepción fuera como una cámara de fotos que solo intenta hacer una réplica lo más fidedigna posible de lo fotografiado porque ¿qué hacer luego con la foto? ¿Para qué queremos, solamente, una foto realista? La información obtenida mediante los sentidos es procesada, manipulada o transformada simbólicamente, para hacer cosas con ella, para intervenir en la realidad y no para describirla. Conocer es un proceso que tiene que entenderse exactamente igual que cualquier otro proceso biológico como la digestión o la acción del sistema inmunitario. Y, en un nivel inferior, el acto de conocimiento es una acción físico-química como cualquier otra. Cuando percibimos mediante la vista, el primer paso se da cuando fotones golpean las capas de discos membranosos de los fotorreceptores de nuestra retina, generando una cascada de disparos neuronales que forman patrones que posteriormente serán procesados por redes neuronales. En toda esta compleja red de procesos no se atrapa ninguna esencia ni se repite ni siquiera una supuesta estructura de la realidad, sino que se elabora un mapa funcional, se elabora todo un sistema para tomar decisiones de modo eficiente.
  6. Módulos cerebrales de reconocimiento de patrones (Kurzweil, 2013) Parece que lo que mejor saber hacer las últimas herramientas de la IA conexionista, las redes neuronales convolucionales, es encontrar patrones en entornos poco (o nada) formalizados, es decir, muy difusos. Así están venciendo uno de los grandes obstáculos de la IA: la visión artificial. Ya existen redes neuronales que distinguen rostros con suma fiabilidad, o que reconocen cualquier tipo de objeto que observan, estando ese objeto en diferentes posiciones, iluminado con diferentes intensidades de luz, incluso en movimiento. Esto sirve como fuerte indicio para apostar por una teoría computacional de la percepción y del conocimiento: si al utilizar redes neuronales artificiales conseguimos hacer máquinas que ven de una forma, aparentemente, muy similar a la nuestra, será porque nuestro cerebro también funciona así. Además, una de las teorías de la percepción más influyentes del siglo XX, la famosa Gestalt, ya afirmaba que la percepción no consistía en la suma de todos los estímulos visuales (como sostenía la escuela elementarista), sino en dar sentido, en comprender una estructura profunda de la imagen vista (en, según sus propios términos, obtener una gestalten). Ese sentido que otorga significado a lo observado bien puede entenderse como el reconocimiento de un patrón. Además, esta forma encaja perfectamente con la teoría de la interfaz de Hoffman: no percibimos todo ni lo real, sino una información (que será deseablemente la mínima) suficiente para responder adecuadamente.

Imagen del artista Pablo Castaño.

El conductismo, en cualquiera de sus versiones, siempre me ha parecido algo extravagante. En su versión débil, el conductismo epistemológico, sostiene que si bien la mente puede existir, la psicología ha de centrarse exclusivamente en la conducta observable y renunciar per secula seculorum a hablar de la psique humana en términos mentales. Debido a que el concepto de mente no se antoja muy científico a nuestros instrumentos de observación habituales, y el principal método de análisis mental, la introspección, no es muy fiable, prescindimos radicalmente de él, y solo observamos la conducta. Esto, ya de primeras, se intuye como un total despropósito pues… ¿cómo explicar la conducta de una persona prescindiendo absolutamente de lo que ocurre dentro de su cabeza? Pero es más, está la versión fuerte, el conductismo ontológico, el cual no solo no permite estudiar lo mental, sino que sostiene sin ambages, que la mente no existe. Algunos autores afirmarán que la mente es un pseudoconcepto, como antes lo fueron el flogisto, el calórico o el éter. Cuando la ciencia avanzó, fue desechándolos. Así, cuando las neurociencias progresen, toda la conducta humana podrá explicarse en su totalidad sin tener que hablar, en absoluto, de la mente.

De primeras, ya digo, todo parece muy exagerado, muy forzado. Sin embargo, cuando lees que pensadores del calibre de Rudolf Carnap, Gilbert Ryle, Dan Dennett, o incluso el mismísimo Ludwig Wittgenstein, lo han defendido, la idea no puede ser tan mala. Bien, vamos a ver qué virtudes puede tener:

  1. Eliminar una idea de mente mitológica y pseudocientífica. Parece muy saludable extirpar de la práctica científica conceptos como “alma”, “espíritu” o cualquier otra entidad “inmaterial, eterna e inmortal” que la tradición metafísica occidental ha usado continuamente.
  2. Prescindir de cualquier tipo de dualismo y de sus problemas. El conductismo ontológico es monista: solo existe la conducta observable, por lo que no hay que intentar explicar las, siempre controvertidas, relaciones entre mente y cuerpo. Así, para el conductista no hay ningún abismo ontológico entre la mente y el mundo (pues solo hay mundo), ni tampoco existe el escepticismo hacia las otras mentes (está en el mismo plano decir “Yo me siento triste” que “Él se siente triste”: ambas son conductas externas observables). El conductismo es radicalmente anticartesiano y al serlo se quita de todas sus dificultades.
  3. Se permite a la psicología ser independiente de las neurociencias. La conducta, y no el cerebro, es su objeto de estudio exclusivo. Así, la psicología puede ser una ciencia por derecho propio.

De acuerdo, ¿pero cómo soluciona el conductismo algo tan evidente como la causalidad mental? Si yo creo que va a llover y, en consecuencia, salgo a la calle con un paraguas, lo único que un conductista puede observar es mi salida a la calle con el paraguas ¿Cómo puede explicar el que yo cogiera el paraguas si no es apelando a mi creencia en que va a llover, algo que no es una conducta sino un pensamiento, algo tradicionalmente mental? Gilbert Ryle nos ofrece una solución: las creencias, deseos, etc. (lo que los filósofos llamamos actitudes proposicionales), son tan solo disposiciones conductuales, es decir, propensiones a realizar o no realizar una conducta. Por ejemplo, mi creencia en que va a llover queda definida como la disposición a realizar la conducta de coger un paraguas. Es una jugada maestra: todo lo que antes se consideraría como un contenido mental, pasa a ser definido exclusivamente en términos de conducta y, así, el conductismo sale airoso de lo que parecía ser su principal problema. Además, por si acaso nos encontráramos con la dificultad de explicar la variedad de conductas humanas que se dan ante la misma creencia (por ejemplo, mi creencia en que va a llover podría haber causado que yo cogiera un chubasquero en vez de un paraguas), Ryle nos habla de disposiciones conductuales de múltiples vías: una misma disposición puede manifestarse en diferentes conductas.

El segundo Wittgenstein hacía hincapié en el aspecto normativo de la disposición.  Mi creencia en que va a llover estipula qué conductas serían correctas o incorrectas. Si en vez de sacar un paraguas, salgo a la calle con una trompeta, evidentemente, habré ejecutado una conducta errónea. Muy interesantes son, al respecto, las consecuencias para la teoría de la verdad: que algo sea verdadero o falso no tiene nada que ver con ninguna adecuación de mis representaciones mentales a la realidad, ya que no existe ningún tipo de representación mental sensu stricto, sino en un ajuste entre mi conducta y la conducta correcta.  El debate, claro está, estará en determinar de dónde surge y quién determina qué es y qué no es correcto.

Bien, la propuesta es ingeniosa y tiene virtudes pero, sin embargo, sigue siendo terriblemente contraintuitiva ¿De verdad que no existe nada que podamos considerar mental? ¿De verdad que puede reducirse todo contenido mental, únicamente, a conducta? ¿De verdad que no tenemos mente? Hillary Putnam nos ofrece un sencillo experimento mental pare evidenciar lo difícil que se nos hace eliminar nuestra mente interior. Imaginemos un grupo de antiguos guerreros espartanos. Durante mucho tiempo se han entrenado en la habilidad de resistir el dolor sin realizar acción alguna más que la consecuente conducta verbal consistente en informar a los demás de que se siente dolor. Así, esos superespartanos, pueden ser gravemente heridos en combate pero no mostrarán más conducta de dolor que mover sus labios y decir “Me duele”. Hasta aquí no hay ningún problema con el conductismo. El dolor seguiría siendo una disposición conductual a proferir una determinada conducta verbal. Putnam nos dice entonces que imaginemos a los super-superespartanos, una élite dentro de los superespartanos que, tras durísimos entrenamientos, habrían conseguido incluso eliminar cualquier necesidad de proferir palabra alguna para referirse al dolor. Los super-superespartanos serían tan duros que, a pesar de que les sacarán una muela sin anestesia, no mostrarían el más mínimo indicio externo de dolor. Y aquí sí que hay problemas para el conductismo: si no hay ni conducta externa observable ni propensión conductual alguna, no hay nada; sin embargo, nos parece evidente que los super-superespartanos sentirían dolor igual que cualquier otro ser humano. Ergo, la mente no es reductible a conducta.

El conductismo se parece a un zapatero que quiere meter un pie muy grande (la mente) en un zapato muy pequeño (la conducta), e intenta mil y un peripecias para que encaje pero nunca lo consigue. El conductismo es un nuevo ejemplo de la expresión intentar meter con calzador.

Ilustración de Emmanuel MacConnell.

Uno de los argumentos más famosos contra el funcionalismo como teoría de la mente es el argumento del espectro invertido. Supongamos que tenemos a un individuo cuyo espectro de color con respecto al rojo y al verde están invertidos. Desde su nacimiento, él ve rojas las hojas de los árboles o el césped del parque, mientras que ve verde la sangre o las cerezas. Pero, curiosamente, cuando aprendió los colores no tuvo ningún problema. Cuando le enseñaron un muñeco de Elmo y le dijeron que era rojo, aunque él lo veía verde, aprendió a llamarlo “rojo”. Así, todos los objetos que veía verdes los llamó “rojos” y viceversa, no teniendo ningún problema para desenvolverse en el mundo. De hecho, este sujeto podría llegar a pasar absolutamente toda su vida viendo todo de forma invertida sin darse cuenta de que percibe de forma muy diferente a los demás.

¿Por qué este argumento pretende refutar el funcionalismo? Porque el funcionalismo define los estados mentales en términos funcionales, es decir, por tener un rol causal entre entradas sensoriales y salidas conductuales. Si decimos que el quale (la cualidad subjetiva) de la sensación del color no tiene ninguna incidencia en el comportamiento (no cumple ninguna función) y, a su vez, mantenemos que el quale es una parte del estado mental, hay partes del estado mental que no se explican por su rol causal. Por lo tanto, el funcionalismo en su versión fuerte (el que sostiene que la definición de un estado mental se agota en su rol causal) sería falso.

Aparentemente, parece un argumento sólido y difícil de objetar. De hecho, para Putnam constituye una de las claras evidencias para desechar el funcionalismo. Tenemos múltiples intentos de rebatirlo en la obra de Dennett (en su “Quining Qualia” de 1988) o de Chalmers (véase todo el capítulo 7 de La Mente Consciente), y ha sido también muy estudiado por autores como Block (1990), Shoemaker (1982), Cole (1990) o Harman (1990). A mi juicio, ninguno ha conseguido refutarlo contundentemente.

No obstante, susodicho argumento no derriba una versión débil del funcionalismo que podríamos definir, a vote pronto, como aquel que defiende que los qualia tienen funciones, aunque la explicación funcional no agote todo lo que es el quale. Los colores tienen una evidente función: la distinción y categorización de los objetos. Precisamente, el argumento del espectro invertido funciona porque al cambiar el quale (el verde por el rojo o viceversa) no incidimos en la función: el sujeto puede seguir categorizando los objetos en clases sin ningún problema. Solo en el caso en que la inversión del espectro no fuera completa (el sujeto cambia solo algunos objetos de color) la función se vería alterada: aunque acertaría en algunos casos, en otros el sujeto diría que son verdes objetos que todo el mundo ve rojos, y viceversa. Entonces ¿Qué es lo que tienen los qualia que sí los hace funcionales? En el caso del color estaría la capacidad de generar contraste. Si, por ejemplo, nuestro espectro visual solo atendiera a una pequeña gama de tonos de verde, todos muy parecidos entre sí, nos sería muy difícil diferenciar objetos. Por el contrario, si pensamos en el rojo y en el verde, son dos colores que se diferencian paradigmáticamente bien. Así, vemos clara la función de, al menos, una cualidad fenoménica del quale.

No obstante, volvemos a subrayar, que algunas propiedades de los qualia sean funcionales no justifica la versión fuerte del funcionalismo: que todo en el qualia es función. Podríamos pensar en un individuo que viera todo en un espectro de tonalidades de gris, desde el blanco nuclear hasta el negro azabache, de modo que conservara la capacidad de generar contraste para ser funcionalmente operativo, pero que no viera ningún otro color (como ya ejemplificamos en este estupendo ejemplo de Olivers Sacks). De nuevo entonces surgiría la cuestión: ¿para qué la experiencia subjetiva de rojo, verde o azul?

Lo que sí se refuta aquí es el epifenomenalismo (en su versión fuerte): la tesis de que la consciencia es solo un residuo, un epifenómeno, de auténticas funciones, pero que carece por completo de función (que, extrañamente, según esta youtuber es la última palabra) . Nada más lejos de la realidad. He puesto el ejemplo del color porque es, filosóficamente hablando, más peliagudo; pero si ponemos otros ejemplos, la función del quale se ve muy clara. Si hablamos del dolor, su función es más que evidente. Sydney Shoemaker nos ofrece tres funciones de los qualia:

  1. Causar determinada conducta: “Sabe amargo, es posible que esté en mal estado. Lo escupo”.
  2. Causar la creencia de que algo va mal en el organismo: “Me duele la muela, tendré una infección que he de curar”.
  3. Causar la creencia cualitativa de que se está en un estado y no en otro: esta es la que hemos defendido hoy aquí. Me es muy útil diferenciar objetos por sus colores, al igual que me es útil diferenciar las cosas que me proporcionan placer de aquellas que me proporcionan dolor.

Las propiedades del quale sin función quizá deberían entenderse a la forma de las cualidades de los seres vivos sin función adaptativa, siguiendo el celebérrimo artículo de Gould y Lewontin (1979) sobre las pechinas de la catedral de San Marcos (del que ya hablamos aquí). Los qualia tienen propiedades funcionales pero también contienen elementos epifenoménicos (epifenomalismo versión débil), quizá necesarios a algún nivel para realizar tal función (igual que las pechinas de la cúpula de una catedral)  o, sencillamente, como un subproducto inevitable (igual que el ruido es un epifenómeno inevitable del funcionamiento normal de un motor de explosión).

Dado todo lo dicho, la postura filosófica más saludable parece la sugerida por Chalmers cuando habla de funcionalismo no reduccionistaY un programa de investigación, igualmente saludable, sería el de indagar más en las propiedades funcionales de las características fenoménicas de los qualia. Quizá se podría ir, progresivamente, arrinconando epifenómenos y mostrar que, verdaderamente, ver en colores verde y rojo sí que tiene algún tipo de función que, a día de hoy, no atinamos a encontrar.

Cuando Descartes abre la Edad Moderna con su cogito ergo sum, nos viene a decir que el único punto indestructible, el único cimiento lo suficientemente sólido para construir el gran edificio del saber es el “Yo”, entendido como la totalidad del mundo psíquico de una persona. Todo lo que pienso puede ser falso, pero el hecho de que pienso es indudable, una verdad claradistinta.

Esta idea se ha tendido a interpretar, demasiadas veces, como que, aunque no tengamos certeza ni siquiera de la existencia de los objetos percibidos, sí que la tenemos con respecto de sus cualidades subjetivas, es decir, de lo que “aparece en mi mente” cuando yo percibo el objeto. Es posible que la manzana que percibo como roja no sea realmente roja, pero “la rojez” que yo percibo es absolutamente real y nadie podría negarme que, al menos en mi representación mental, la manzana es indudablemente roja. Sería posible que en el universo no hubiera nada rojo, pero yo estoy completamente seguro de que “en algún lugar de mi mente” yo estoy viendo algo rojo. En consecuencia, los informes introspectivos que un sujeto hace sobre sus representaciones mentales, sobre su mundo subjetivo, solían considerarse como infalibles. Nada más lejos de la realidad o, como mínimo, tendría que decirse que los informes introspectivos son tan dudosos como los informes del mundo exterior. No hay ninguna razón para darles esa primacía epistemológica. Hagamos un pequeño experimento.

El ángulo de nuestro foco de atención visual es muy pequeño. Fije el lector la vista en la letra X del centro de la tabla. Ahora intente identificar las letras que hay alrededor sin mover los ojos. Lo normal será que no pueda pasar de las ocho letras inmediatamente circundantes a la X. El resto de la tabla queda completamente borrosa.

Ahora apliquemos este pequeño descubrimiento a la percepción de una imagen real. Cuando observamos, por ejemplo, las Meninas de Velázquez, creemos que vemos algo así:

Cuando, verdaderamente, si nuestra atención se centra en la infanta Margarita, lo que vemos se parece más a esto:

Nuestro campo visual es mucho más borroso y desenfocado de lo que creemos experimentar y, por tanto, la cualidad de “claridad”, “enfoque”, “límite preciso” que parece tener nuestra experiencia visual, es tan solo una ilusión. Ergo, no podemos fiarnos, al menos siempre, de la veracidad de nuestras propias representaciones. Aunque parezca muy extraño, es posible no percatarse de lo que uno cree que se está percatando.

Pero podemos indagar un poco más. No solo ocurre que no puedo estar seguro de que veo lo que veo, sino que el informe lingüístico que hago cuando hablo de ello tiene serias limitaciones. Es lo que los filósofos de la mente llaman la inefabilidad de los qualia. Fíjese el lector en la siguiente escala de azules. En general, podemos distinguir bien unos tonos de otros.

Sin embargo, si queremos explicar a otra persona la diferencia entre unos colores u otros, pronto nos encontramos con que nuestro lenguaje es paupérrimo para esta tarea. Solamente se nos ocurre decir que unos colores son levemente más claros que otros o, en el caso de este ejemplo, podríamos referirnos a otros colores, diciendo que tal o cual azul tiene un toque más verdoso o más violeta. Ya está, no hay más palabras ¿Es nuestra ignorancia a nivel pictórico la causante de esta pobreza léxica? No, un profesional del color tampoco tiene muchas más expresiones que nosotros. Y es que la única forma de saber qué es un color (a nivel fenomenológico) es percibirlo directamente, porque sus propiedades son inefables. El ejemplo que siempre se utiliza por su calidad ilustrativa es que no podemos enseñarle a un ciego de nacimiento qué es el color azul. Imagine el lector cómo podríamos explicarle las diferencias entre los distintos tonos de azul ¡Imposible!

Una de las razones de ello es que las diferentes modalidades sensoriales (vista, olfato, tacto, etc.) son absolutamente irreductibles las unas a las otras. A no ser que seamos sinestésicos, no podemos explicar una experiencia sonora en términos de colores, sabores u olores. Solo podemos hablar de cada modalidad sensorial apelando a elementos dentro de la propia modalidad: puedo hablarle a alguien de un grupo de música que me gusta, refiriendo a la música de otros grupos musicales parecidos, pero no de otra manera.

Según un, ya clásico, estudio de Hasley y Chapanis de 1951, los humanos somos capaces de discriminar  unos 150 tonos de color subjetivamente diferenciados entre los 430 y los 650 nanómetros. Sin embargo, si se nos pide identificarlos con precisión, solo somos capaces de hacerlo con unos 15 tonos. Por ejemplo, si miramos la escala de azules somos perfectamente capaces de distinguir unos tonos de otros. Pero si se nos pidiera que seleccionáramos un color (por ejemplo el PMS 293) y después se nos mostrara otra escala con muchos otros tonos de color azul desordenados con ese color entre ellos, nos resultaría difícil encontrarlo. De la misma manera pasa con el sonido: un oyente promedio es capaz de discriminar unas 1.400 variaciones de tono, pero solo puede reconocer de forma aislada unas 80. Somos muchísimo mejores diferenciando colores o tonos musicales que reconociéndolos. En la percepción hay mucho de lo que no sabemos, o no podemos, hablar.

El problema de la inefabilidad supone un gran desafío a la ciencia. Si solo tenemos acceso a nuestros estados subjetivos mediante la introspección, y si tanto ésta puede ser engañosa (El filósofo Daniel Dennett compara la consciencia con un hábil ilusionista), como nuestro lenguaje incapaz de hablar de ella, tendremos serios problemas para generar conocimiento de algo que, curiosamente, es lo más cercano e inmediato que tenemos.

Suele decirse que un buen método para saber si estás soñando consiste en pellizcarse. Si duele estás despierto y si no, estás soñando. Nada más lejos de la verdad: si estás soñando, a no ser que hayas sido entrenado en sueños lúcidos por Stephen Laberge, no sabes que estás soñando y no hay forma de saberlo. Por decirlo poéticamente, los sueños son unas prisiones perfectas: no puedes escapar de ellos porque, precisamente, no sabes que estás en uno de ellos. A esta propiedad la llamamos en filosofía de la mente transparencia.

La transparencia no es única de los sueños, sino que también es propia de nuestra percepción de la realidad. Todos nosotros nacemos realistas ingenuos (Naïve realism), pensamos que lo que observamos por nuestros sentidos es la auténtica y pura realidad al desnudo. Creemos que el árbol que tenemos delante de nuestros  ojos tiene esas formas y colores de un modo absolutamente objetivo. Es por eso que si viviéramos en la matrix de las Wachowski, no habría forma de escapar de allí hasta que Morfeo viniera a rescatarnos (solo pueden salvarte desde fuera, tú nunca podrías salir desde dentro). Pero, ¿es que acaso lo que percibimos no es el mundo real? ¿El árbol que veo delante de mis ojos no está, realmente, delante de mis ojos? No.

El primer argumento contra el realismo ingenuo va referido al tiempo. Creemos que lo que percibimos visualmente ahora mismo, está pasando, realmente, ahora mismo. Creemos que tenemos un acceso directo al presente. Sin embargo, esto es imposible: el cerebro necesita un tiempo para  procesar la información. Cuando vemos cualquier objeto, desde que la información visual golpea la retina y viaja por el nervio óptico, pasando por distintas áreas visuales y por el hipotálamo, hasta llegar a las zonas de asociación, pasan, como mínimo, unas milésimas de segundo. Por tanto, la representación mental que emerge en mi consciencia tiene, necesariamente, cierto lag, llega con retraso. No tenemos acceso directo al presente, sino solo a un pasado reciente. El árbol no está delante de nosotros, tan solo estaba delante de nosotros.

Otro argumento que a mí me parece muy sugerente (en la historia de la filosofía hay multitudes de ellos) es el basado en la teoría de la evolución que ya trajimos aquí con la teoría de la interfaz de Donald Hoffman.  Si la evolución biológica termina por premiar diseños eficientes, parece mucho más eficiente que no gastemos tantos recursos en percibir toda la realidad tal y cómo es, sino que utilicemos señales, símbolos, iconos, etiquetas, esquemas que nos permitan saber delante de qué estamos sin tener que saberlo todo. Si un tigre dientes de sable viene a devorarme, no hace falta que perciba todo lo que realmente es un tigre dientes de sable, sino solo lo necesario para saber que tengo que huir rápidamente de allí. Hoffman sostiene que nuestra mente es como el escritorio de nuestro ordenador, en donde los iconos representan los objetos que percibimos. El icono del reproductor de vídeo no se parece en nada a toda la serie de procesos electrónicos que suceden dentro del ordenador cuando ves un vídeo. Verdaderamente, a no ser que seamos ingenieros, no tenemos ni idea de cómo funciona todo ese mecanismo interno de voltajes, circuitos y transistores. Sin embargo, el icono funciona: cuando yo hago clic en él, el vídeo se escucha.

Pero aquí cabe otra pregunta: ¿por qué la evolución nos hizo realistas ingenuos? ¿Por qué hizo que la realidad se nos hiciera transparente? ¿Por qué engañarnos cual genio maligno cartesiano? Una posible respuesta nos la da Thomas Metzinger en la misma línea que Hoffman: porque requeriría un nuevo coste metabólico sin una finalidad evolutiva clara ¿Para qué me sirve saber que el icono “Tigre dientes de sable” no representa a un tigre dientes de sable real? Lo único que tengo que saber es que es muy peligroso y que hay que huir.

Aunque claro, aquí podemos entrar en un peligroso círculo vicioso: ¿Por qué yo he sido capaz, ahora, de darme cuenta de que no percibo la realidad tal y como es? ¿Por qué la evolución ha permitido que Hoffman y Metzinger lleguen a esta conclusión si no hay finalidad evolutiva alguna para ello? La respuesta está en que esta conclusión es el efecto colateral o secundario de otras habilidades que sí que tienen función evolutiva clara: nuestra capacidad de razonamiento, el lenguaje, la imaginación, etc. nos valen para sobrevivir, pero también para hacer otras cosas que no nos valen para nada. Es lo que llamamos el excedente cognitivo, si bien, para desarrollar esta idea convincentemente, requeriríamos muchas más explicaciones. Dese cuenta el lector que estamos ante una teoría no falsable en términos popperianos: afirmamos que todo tiene un origen biológico evolutivo, cuando lo encontramos todos contentos, pero cuando no, decimos que es un efecto colateral, exaptación, órgano rudimentario, etc. con un origen, igualmente, evolutivo. Siempre tenemos respuestas para todo y así siempre tenemos razón. Sospechoso. Hay que mejorar las explicaciones, afinar más: hay que profundizar mucho más en la teoría de la evolución. No me canso de afirmar que solo hemos tocado su superficie.

La transparencia solo se aplica a la observación directa de la realidad, al mundo que percibimos. Los demás contenidos de nuestra mente no son transparentes: cuando pienso, recuerdo, imagino, hablo… en los contenidos de esos procesos mentales no hay transparencia. Diferenciamos perfectamente la imagen mental de un coche de un coche de verdad. De la misma forma, la palabra “coche” no es un coche. Aquí la función evolutiva es clara: difícilmente sobreviviríamos si no supiésemos diferenciar el recuerdo de un tigre dientes de sable de uno de verdad. Y gran parte de la disfuncionalidad que causan ciertos trastornos psiquiátricos va en esta línea: los objetos mentales se vuelven transparentes, no hay forma de saber que no son reales.

 

He leído en varias ocasiones, con torcida perplejidad, a expertos en áreas tecnológicas afirmar, con suma tranquilidad, que la tecnología ni es buena ni mala, que todo depende del uso que se le dé. Así, un cuchillo puede servir tanto para cortar el tan necesario alimento, como para apuñalar al prójimo. Por consiguiente, los empresarios-ingenieros-fabricantes quedan exonerados de toda culpa por diseñar cualquier artefacto, cayendo la totalidad de la responsabilidad en el usuario. Grave error para, como es habitual, metérnosla doblada.

La tecnología no es, de ningún modo, neutra éticamente. Veamos una serie de argumentos para dejarlo claro como el agua:

1.Toda tecnología requiere unos materiales y un coste energético, por lo que cabe preguntarse: ¿Cuán de escasos son esos recursos?  Si son escasos ¿no se necesitarán para otro objetivo éticamente más importante que el que yo les voy a dar? ¿Cómo de difícil es su extracción? ¿Se pondrán en peligro vidas para ello? Famoso es el debate acerca de los materiales con los que se construyen nuestros teléfonos móviles: ¿es ético producir y consumirlos sabiendo de donde vienen sus componentes? En lo que respecta a la IA, hasta hace poco nadie parecía caer en su elevado coste medioambiental cuando la enorme necesidad de capacidad de cómputo dada la notoria ineficiencia del deep learning es muy patente. La IA no es ecofriendly, y eso merece una profunda reflexión.

2. Toda tecnología requiere un proceso de producción: ¿dónde y quién lo realiza? ¿Los trabajadores reciben un salario justo y sus condiciones laborales son adecuadas? Mucho se ha debatido sobre las condiciones laborales de las fábricas asiáticas, donde se produce, prácticamente, todo la tecnología que consumimos. A través de Pinker, he leído estos días sobre la interesante, y polémica, idea de la curva de Kuznets: tras un periodo de gran desigualdad, cuando los países llegan a un alto nivel de desarrollo, la desigualdad se reduce. Quizá no justifique éticamente esa desigualdad, pero en ausencia de alternativas viables en esos países, es posible que sea la mejor opción (si bien también se ha discutido si su base empírica se sostiene).

3. Toda tecnología genera residuos, por lo que cabe preguntarse: ¿que residuos va a generar la nuestra? ¿Son biodegradables? ¿Cuál será su impacto medioambiental? ¿Dónde se almacenan y en qué condiciones? Así, tenemos el gran debate sobre la idoneidad de los coches eléctricos. Por un lado parecía que eran mucho más ecológicos, pero cuando caemos en lo que contamina generar la electricidad que consumen, vemos que no lo son tanto. En está línea está la polémica con respecto a las centrales nucleares. Yo creo firmemente que el sector ecologista que las critica está equivocado. Si hacemos un balance de pros y contras, y a falta de que la energía solar mejore, son una magnífica opción y una buena forma de luchar contra el cambio climático.

4. Toda tecnología tiene efectos secundarios no previstos por los diseñadores. Por eso todo proyecto tecnológico tiene que ir acompañado de una buena evaluación de riesgos. Ya hablamos aquí hace tiempo de la elegante definición de eficiencia tecnológica de Quintanilla: una máquina es eficiente si utiliza los medios más económicos para llegar a sus objetivos y a nada más que a sus objetivos. Esta última parte es la clave: hay que intentar que no se nos escape nada, y si no podemos evitar que se nos escape (realmente, es muy difícil predecir a medio y largo plazo cómo estará el tema), al menos, hacer una sesuda reflexión sobre ello y ponderar razonablemente si merece o no la pena.

5. Toda tecnología tiene posibles usos perversos ¿cuáles son y cuál puede ser su gravedad? ¿Hasta dónde puedo garantizar que no se lleven a cabo? Por ejemplo, parece evidente que si yo creo un método de edición genética que permite a cualquier persona del mundo, sin conocimientos de bioquímica, crear en su casa un virus letal, no deberé sacar a la luz tal tecnología. Y aquí es donde mejor se ve la no neutralidad ética de la tecnología: no es éticamente lo mismo diseñar una vacuna que una bomba de hidrógeno, porque los posibles usos perversos de la segunda son mucho mayores que los de la primera. Resulta muy curioso como en el caso de la IA, se haga más mención al uso perverso que “ella misma” hará contra nosotros (la famosa rebelión de las máquinas), más que del uso perverso que muchos humanos harán de ella. Y, del mismo modo, también resulta curioso que se sobredimensionen sus peligros y usos negativos (los killer robots o los algoritmos sesgados) cuando sus usos positivos son infinitamente más beneficiosos para la humanidad que estos posibles perjuicios. En la IA, igual que pasa con la ingeniería genética, se está ponderando muy mal su uso futuro.

6. Toda tecnología tiene un grado de impacto global: no es lo mismo un invento que hago en mi casa y se queda allí, que algo que tenga muchísimas repercusiones a todos los niveles. Por ejemplo, yo invento un cereal transgénico cuyas cualidades abaratan muchísimo sus costes de producción y, por tanto, su precio final. Supongamos que existe un pequeño país cuyo principal producto de exportación es el cereal. Entonces, he de prever qué efectos sobre la economía de ese país tendrá que yo saque al mercado mi producto. Si que yo me forre implica que condene a un país a la hambruna y a la miseria, he de repensar mi estrategia y buscar otras vías. Además, en un mundo globalizado donde todo está interconectado, hay que tener en cuenta que lo que uno hace en Londres, puede tener repercusiones en Tokio, es decir, que el grado de impacto de cualquier cosa que se haga es, potencialmente, mucho mayor que antaño, por lo que, igualmente, el grado de responsabilidad crecerá a la par.

El error de pensar en la neutralidad de la técnica está en pensar entendiendo los diversos agentes y elementos sociales de forma aislada cuando, verdaderamente, nada se da de forma aislada. Tanto más cuando un desarrollo tecnológico es, en la actualidad, una tarea inmensa. Así creo que una buena forma de entender la globalidad o localidad de cualquier evento es la teoría de sistemas: entender los fenómenos sociales como sistemas o partes de los mismos, siendo un sistema un conjunto de elementos y de interrelaciones entre ellos y otros sistemas. De este modo podemos extender nuestra responsabilidad ética cuando creamos algo: no solo hay que estudiar lo que ocurrirá en nuestro sistema al introducir el nuevo elemento, sino qué consecuencias tendrá en los demás.

Imagen del artista callejero Ludo.

 

En una romántica búsqueda de conseguir un sistema jurídico perfecto, vamos a crear un juez robot que no se vea influido por esos sesgos que hacen que los humanos fallemos una y otra vez en la sagrada tarea de impartir justicia. A primera vista, sencillamente, podríamos dotar a un algoritmo con la base de datos lo más potente posible sobre casos anteriores que crearon jurisprudencia. Entonces, ante cualquier decisión, nuestro juez electrónico solo tendría que buscar en su memoria el caso que más se asemejara al presente y aplicar la misma sentencia. Bien, pero pronto comenzarían los problemas, dado que las, a priori, pequeñas diferencias entre los casos pasados y los actuales, pueden ser mucho más grandes de lo que parecen, y ante esa novedad no prevista, nuestro programa debería ser capaz de dar una justa respuesta. Nos encontraremos casos en los que ni las sentencias anteriores ni la ley parecen dar una respuesta clara y concisa, por lo que nuestro robot necesitará reflexionar. Es por eso que suele decirse que las leyes no se aplican sino que se interpretan.

Entonces, no nos quedará otra que programar al robot con una serie de directrices que le sirvan para interpretar toda nueva circunstancia, una serie de principios de justicia. Hagámoslo: para que consideremos una condena  como justa, tiene que darse una serie de condiciones que nuestro robot debería tener grabada a fuego en su placa base:

  1. Conocimiento: el juez robot ha de contar con toda la información relevante para determinar la sentencia. Es por eso que muchas veces se habla de “falta de pruebas”, cuando no hay información suficiente para determinar si el sospechoso es culpable o no. Importante es entonces saber que casi nunca se cuenta con toda la información: a pesar de que estemos casi seguros de que el asesino es el mayordomo, nadie más que asesino y asesinado estuvieron presentes en el momento del crimen. Entonces, casi toda condena entraña una incertidumbre que hay que determinar si es asumible o no.
  2. Imparcialidad: el juez robot no ha de beneficiar a ninguna de las partes interesadas debido a cualquier motivo que no esté estrictamente relacionado con el asunto a juzgar. Aquí el problema no estaría ya en la corrupción pura y dura que asola los sistemas judiciales de medio mundo, sino en los sesgos inconscientes ocultos en la mente del juez. Esto es, precisamente, lo que se intenta subsanar con los jueces robóticos, y aunque la prensa amarillista nos haya mostrado siempre lo contrario, la inteligencia artificial es una tecnología muy apropiada para evitarlos. No hay nada más fácil, si quieres construir una máquina que no sea racista, que hacerla ciega al color de piel.
  3. Proporcionalidad: el castigo debe ser proporcional al delito cometido. No es justo que me condenen a diez años de trabajos forzados por robar una barra de pan, ni tampoco es justo que me condenen a un día de cárcel por un triple asesinato.
  4. Estabilidad o consistencia: en casos similares que se dan en otro momento del tiempo, los castigos han de ser similares. La justicia no ha de cambiar con el tiempo, ya que crearíamos agravios comparativos entre casos iguales. Si miramos la historia de la humanidad vemos que eso no se ha cumplido para nada, y que los castigos por las mismas penas han ido cambiando. Antes, por regla general, eran muchísimo más duras y las prisiones bastante menos humanas que las de hoy. La explicación, algo presuntuosa por parte de nuestro presente eso sí, está en decir que en el pasado se equivocaban y que nosotros hemos perfeccionado el sistema para hacerlo más justo, de modo que el agravio comparativo se da solo hacia los que tuvieron la mala fortuna de ser juzgados en el pasado.

Vamos a centrarnos en el 3, en el principio de proporcionalidad. Explicarlo es muy fácil, pero llevarlo a la práctica es harto complejo. Sencillamente dice que el castigo a aplicar debe ser proporcional a la magnitud del delito. La proporcionalidad más perfecta es la lex talionis, el bíblico “ojo por ojo, diente por diente”: aplicar al culpable del delito exactamente lo mismo que le ha hecho a la víctima. En algunos casos es relativamente sencillo. Si me han robado 100 euros, han de devolvérmelos con un plus añadido por el perjuicio que me ocasionó no tenerlos durante el tiempo que se tardó en la devolución (por ejemplo, sumando unos intereses). Sin embargo, los problemas surgen en nada que nos paramos a pensar un segundo: ¿una misma cantidad de dinero tiene el mismo valor para todo el mundo? ¿Son iguales 100 euros para un indigente que para un multimillonario? Eso es lo que pienso cuando voy conduciendo por la carretera y me pasa un Porsche a 170 Km/h.

Y la dificultad se hace más patente cuando comenzamos a intentar medir la proporcionalidad de ciertos daños, más cuando la sensibilidad al sufrimiento de cada individuo difiere significativamente. Por ejemplo, si yo insulto públicamente a una persona, lo proporcional sería que esa persona me insultara de la misma forma. No obstante, yo puedo ser un personaje público al que los insultos no le afectan demasiado (incluso, podría ser que los buscara a propósito con tal de que se hable de mí), mientras que el otro agraviado puede ser muy sensible al escarnio público, por lo que aquí la proporcionalidad no se conseguiría en un insulto por insulto. Como no podemos medir con precisión la cantidad de sufrimiento que proporciona tal o cual castigo, esta proporcionalidad es netamente imposible, cuánto más en esta época de ofendiditos en la red. Podría ser que a mí me provocara importantes daños emocionales ver rostros de gente poco agraciada físicamente en Instagram ¿Deberían compensarme los feos por el daño que me ocasionan? ¿Dónde está el límite entre lo que es razonable que ofenda y lo que no?

Tirando más del hilo nos encontramos con aún más problemas. Si suponemos que el crimen más grave es el asesinato, el castigo proporcional no podría ser más exacto que la pena de muerte pero, ¿cómo castigar proporcionalmente a alguien que ha asesinado a dos o más personas? Si con un asesinato el criminal tiene asegurada la pena de muerte, cuando ya ha matado a una persona, todos los demás crímenes que cometa le saldrán gratis. O, si no somos favorables a la pena de muerte pero sí a la cadena perpetua, tenemos el caso de que la pena será mucho más leve para un anciano o un enfermo terminal que morirán en la cárcel habiendo cumplido muy poco tiempo de condena, que para un joven con veinte años y una salud de hierro.

En la sociedad actual, las nuevas tecnologías de la información suponen novedades que deberían tenerse en cuenta a la hora de legislar, si queremos mantener lo más posible el principio de proporcionalidad. En el celebérrimo caso de la manada, los acusados fueron castigados con unos daños de cárcel supuestamente proporcionales al delito cometido. Independientemente con si esa sanción fue justa o no, los acusados fueron también sometidos a un linchamiento público por parte de los medios. Las redes sociales permitieron que sus fotos y datos biográficos fueran conocidos por todo el mundo, y que se hablara en el tono que se quisiera sobre ellos. Es decir, al clásico castigo carcelario se le añadió el nuevo castigo de vapuleamiento en la red que, muchos, podrían considerar incluso peor, o quizá más dañino a largo plazo, que el primero. En otros tiempos en los que no existían nuestros hipertrofiados medios de comunicación, un delincuente, una vez que pagaba su pena, podría empezar de nuevo sin que todo el mundo supiera de su turbio pasado, pero ahora eso es casi imposible. Entonces, cualquier juez robótico que se precie debería tener en cuenta dicho plus, quizá compensando al criminal con menos tiempo en prisión (si además del principio de proporcionalidad quiere mantener el principio de estabilidad). No deja de resultar chocante como hemos vuelto a formas de justicia medievales. Antes de la llegada del Estado Moderno, a los criminales se los linchaba públicamente, cuando no se los ahorcaba en la plaza del pueblo. Entonces, el nuevo contrato social estipuló que la capacidad de castigar delitos era una función exclusiva del Estado, evitando que nadie pudiera tomarse la justicia por su mano. Ahora, paradójicamente, volvemos a torturas medievales gracias a altas tecnologías.

Como vemos, crear un juez robot es algo muchísimo más completo de lo que hubiera soñado Leibniz, y aunque creo que es perfectamente posible, en contra de los que piensan que la justicia humana es algo irreductible a la automatización, no es algo que se vaya a conseguir en dos tardes. Impartir justicia es una tarea que requiere una muy profunda comprensión de la realidad de la que están lejos nuestra mejores inteligencias artificiales. Otra cosa, muy saludable, es que los jueces dispongan de software que le ayude en sus sentencias, como ya ocurre, no sin polémica eso sí, con el programa Compas en Estados Unidos.

Otro camino, que es el que se está usando ahora, es el de abandonar la programación simbólica y utilizar deep learning.  Así, se le da la base de datos a la red neuronal y se la va entrenando para que sus sentencias sean similares a las de los jueces profesionales. Aunque el porcentaje de aciertos suele ser muy alto, aquí nos encontramos con un gravísimo problema: la black box. Los algoritmos de deep learning no pueden explicar el porqué de sus resultados y eso, hablando de decidir sobre la condena de un ser humano, es inaceptable. No podemos tolerar de ningún modo que un software tome decisiones tan importantes sin que sepamos por qué lo ha hecho.  Hasta que tengamos una auténtica IA explicada, no podemos utilizar las redes neuronales para impartir justicia.

En nuestros sistemas liberales, la mayoría de la gente (exceptuando a los igualitaristas más radicales) está dispuesta a aceptar cierto nivel de desigualdad social o económica, siempre que se parta del principio de igualdad de oportunidades. Robert Nozick lo explicaba muy bien con su famoso argumento de Wilt Chamberlain. Supongamos que nos gusta mucho el baloncesto y estamos dispuestos a pagar cierto dinero por ir a ver a jugar a los Lakers. Supongamos también que el beneficio de esas entradas se reparte equitativamente entre todos los jugadores. Sin embargo, Wilt Chamberlain es excepcionalmente bueno, por lo que él propone que si queremos verlo jugar, paguemos un pequeño extra en nuestras entradas que iría íntegramente para su bolsillo. A la mayoría de la gente le parece un buen trato, ya que ver a Chamberlain jugar es todo un espectáculo por el que merece la pena pagar un poco más de dinero. Entonces, Chamberlain gana más dinero que sus compañeros de equipo, se ha generado una desigualdad económica, pero en ella no parece haber nada éticamente reprobable: el público eligió libremente pagar una entrada más cara por ver a Chamberlain, y podríamos decir que Chamberlain merece más dinero ya que su talento y dedicación al equipo es mayor que el del resto de los jugadores. Además, se respetó perfectamente el principio de igualdad de oportunidades: todos los jugadores de los Lakers compitieron en igualdad para ser los mejores del equipo y Chamberlain lo consiguió sin ninguna duda.

El argumento de Nozick es muy ilustrativo para explicar por qué en nuestras sociedades alguien como Leonel Messi, que lo único que hace, aunque lo haga excepcionalmente bien, es darle patadas a un balón, cobre muchísimo más que un científico que está investigando la cura contra el cáncer. Parece algo muy injusto pero, realmente, no lo es: nosotros, al poner el partido en la tele, comprar su camiseta o ir al estadio a verlo, estamos eligiendo democráticamente que merece más la pena ver jugar a Messi que invertir en investigación para la cura de enfermedades. Si somos imbéciles, al menos, nadie nos está obligando a serlo. Nozick defiende el derecho a decidir por encima de la obligación moral de ayudar a los otros. Nos merecemos, con total justicia, la sociedad que tenemos pero, al menos, la habríamos elegido nosotros.

Pero la idea a la que queremos llegar es esta: ¿es cierta, o al menos posible o deseable, la igualdad de oportunidades? Si echamos un somero vistazo a la realidad social que nos rodea vemos que, con total contundencia, la igualdad de oportunidades no existe. Un chico proveniente de una familia rica y culta que le proporciona todas las facilidades para que estudie, no parte en igualdad de condiciones que otro de familia humilde, que comparte su minúscula habitación con otros tres hermanos, que no tiene ni siquiera un buen escritorio donde estudiar, y al que su padre le repite una y otra vez que no pierda el tiempo con los libros y que se ponga ya a trabajar y a ganar dinero.

¿Cómo podríamos solucionar algo así? Completamente imposible: habría que aislar a todo recién nacido de sus influencias familiares, educándolo estatalmente en una especie de comuna tal y como soñaba Platón, lo cual no parece para nada deseable. A mí me gusta muchísimo más una sociedad con una gran diversidad de familias que inculquen a sus hijos los más distintos valores y objetivos vitales, que otra en la que todos los niños sean educados por igual en la competencia por maximizar el éxito socio-económico.

Pero es que ni aún así habría igualdad de oportunidades porque, de nuevo, cada niño no partiría desde la misma posición. A día de hoy tenemos cada vez más evidencias que relacionan el cociente intelectual o la capacidad de esfuerzo de una persona con sus genes. Entonces, cuando una persona nace con unos genes que le dan un CI más alto que el de sus competidores, ya no parte desde la misma línea de salida, sino que tiene una ventaja crucial. Yo, como profesor, me encuentro constantemente ante la injusticia de tener que poner buena nota a alumnos vagos pero muy inteligentes, mientras que suspendo a otros que trabajan mucho más que ellos, pero que están menos dotados intelectualmente. Tener o no talento es consecuencia de la lotería genética, y no hay nada más injusto que la lotería.

Segundo mito del liberalismo: la meritocracia. De nuevo, parece razonable aceptar desigualdades siempre y cuando el que recibe más lo haga en función de su mérito. Solo nos parecería injusto el hecho de que alguien obtenga más que los demás si no lo merece. Echemos, de nuevo, un vistazo a nuestra sociedad: ¿se da una clara meritocracia? De nuevo, parece que no ¿Por qué? El fallo reside aquí en las diferencias de remuneración: no existe una correspondencia entre la distribución de los beneficios y el mérito.

Un ejemplo: Messi cobra unos 40 millones de euros, mientras que el sueldo anual de un médico en España puede rondar los 30.000 euros. Hacemos el sencillo cociente y comprobamos que Messi cobra 1.300 veces más que un médico. Es difícil cuantificar el mérito de lo que hace un futbolista de élite pero por mucho que le demos vueltas, no creo que tenga 1.300 veces más mérito que lo que hace un médico. En nuestro mundo la distribución de la riqueza es, claramente, injusta y no obedece a criterios de mérito (seguramente, influye muchísimo más la suerte que el talento como sostiene este estudio). Esta página te ofrece ver en qué posición estás con respecto al resto del mundo en función de tus ingresos (curioso que si eres un mileurista en España estás dentro del 7% de las personas más ricas del planeta).

La igualdad de oportunidades y la meritocracia, dos principios básicos sin los cuales nadie aceptaría el liberalismo como sistema de distribución de bienes sociales y económicos son mitos. Y, evidentemente, la idea de que se autorregulan de alguna manera sin la injerencia de los estados mediante la mano invisible de Adam Smith es, igualmente, un mito.

Entonces, ¿ya está? ¿Nos lanzamos a las calles para destruir los cimientos de nuestro sistema? De ninguna manera. Que estos dos principios básicos sean imposibles, y ni siquiera deseables si los aplicáramos con todo su rigor, no implica que no puedan utilizarse como ideales regulativos. Lo explico: nunca los conseguiremos plenamente, pero eso no quita que tengamos que estar constantemente intentándolo ya que, dada cualquier situación concreta, será más justa si en ella se dan que si no. De hecho, no podemos renunciar a ellos porque nadie querría vivir en la plena injusticia. Imaginad un mundo en el que no exista en absoluto respeto por la igualdad ni por la meritocracia… ¡Sería algo así como volver al estado natural de Hobbes en donde homo homini lupus!

¿Y cuál es la forma de llevar esto a la práctica? Cuando se entra en discusiones en las que se defiende o ataca la educación pública, creo que el gran argumento a su favor está aquí: servir de trampolín socio-económico. La educación pública será el gran catalizador de la igualdad de oportunidades y de la meritocracia. Va a permitir que individuos mejoren su situación en base a su mérito y talento y, al fomentar esa movilidad social, sirve para reducir la desigualdad extrema. Sirve, en este sentido, como un re-distribuidor de riqueza y estatus social. Por eso es tan sumamente importante defender nuestros sistemas educativos, y no llego a entender la pequeña partida presupuestaria que un país como España les administra.

Con esto no estoy diciendo, huelga decir, que no debería existir la educación privada. Me parece totalmente saludable que exista, sobre todo porque es muy positivo que existan centros de enseñanza alternativos al modelo oficial del estado, de modo que se fomente la divergencia de formas de ser y pensar. Además, con ella se posibilita el derecho de los padres a elegir qué tipo de educación deben recibir sus hijos. No obstante, la educación privada debería ser minoritaria o, al menos menos importante que la pública, debido a que una sociedad donde la privada fuera mayoritaria la función esencial de trampolín social quedaría diluida.

Nozick defiende la idea de un estado mínimo que, por un lado parece muy aceptable pero por otro no. Sostiene que solo debe existir el estado necesario para mantener los derechos fundamentales (que para él, esencialmente, es el derecho a la propiedad). Estoy de acuerdo en que es cierto que el estado no debe engordarse innecesariamente (y de hecho sucede muchísimo, siendo un síntoma inequívoco de corrupción), pero difiero en lo que debe considerarse por “mínimo”, porque para mí hay tres elementos que jamás podrían ser completamente privados: sanidad, educación y justicia. Nozick argumenta a favor de una sanidad y una educación completamente privadas, pero no consigue hacerlo con solvencia cuando nos referimos a la justicia. Y es que no hay por dónde cogerlo: ¿cómo sería posible una justicia privada? ¿Cómo podríamos tener un sistema de justicia privado que diera el mismo servicio a pobres y a ricos?