Posts etiquetados ‘inteligencia artificial’

blkmndy-the-philosopher-john-searle-black-and-white-comic-style-462020923

El enfoque computacionalista de la mente que domina el argumentario que hay detrás de los entusiastas proyectos de IA actuales se sostiene en dos tesis emparejadas: el funcionalismo (un estado mental se define exclusivamente por su rol funcional en una cadena causal) y la independencia de sustrato o realizabilidad múltiple (el mismo estado funcional se puede implementar en una indefinida cantidad de sustratos materiales). Si mi mente es un programa de ordenador, equivalente a una máquina de Turing, puedo implementar máquinas de Turing en diferentes estructuras materiales. Así, el cerebro es el sustrato de mi mente, pero los circuitos de silicio también pueden ser un sustrato adecuado. Ya hemos construido hace muchos años máquinas universales de Turing allí. Si mi mente solo es una implementación de una máquina de Turing particular, no debería haber demasiados problemas en implementarla en un computador.

Mal, todo muy mal. Diseñar un programa que simule el funcionamiento de una polea que saca agua de un pozo es bastante trivial. Aplicando fórmulas de física muy básicas puedo hacer un modelo que me diga la longitud y resistencia de la cuerda que voy a utilizar, las dimensiones del cubo en función del agua que pretendo sacar, el radio del cuerpo de la polea, o la fuerza necesaria para sacar el cubo a una determinada velocidad. Una simulación de una polea puede ser una herramienta increíblemente útil, maravilla de la informática moderna. Ahora bien, ¿puedo usar únicamente el programa para yo, sentado comodamente delante del ordenador en mi casa, obtener agua? Vaya pregunta estúpida: obviamente no. El programa te sirve para hacer los cálculos, para organizarlo todo, pero necesitarás una cuerda, un cubo y un polea de verdad para sacar agua de verdad. ¿Muy obvio no? Pues no lo parece en absoluto para los ingenieros de IA.

No puedo entender cómo para construir cualquier ingenio tecnológico es tan importante la construcción material, pero para crear una mente similar a la humana resulta que no. Para fabricar un automóvil, un avión, una lavadora, un smartphone… son cruciales las propiedades de los materiales que van a utilizarse. Se miran propiedades como la conductividad, expansión térmica, calor específico, resistencia a la oxidación o a otros ácidos, interacción con otras sustancias, permeabilidad magnética, respuesta a ondas electromagnéticas (refracción, reflexión, absorción o dispersión), densidad, dureza, elasticidad, plasticidad, ductibilidad, maleabilidad, tenacidad, exfoliación, etc. Pues vaya, resulta que a la mente humana no le afectan absolutamente nada ninguna de estas propiedades, las cuales, sin embargo, afectan a todo objeto material conocido del universo. Y es que la teoría computacionalista lleva emparejada un cierto componente dualista imperdonable.

Si yo quiero construir una mente, tendré que fijarme en las cualidades que tienen las mentes: consciencia, inteligencia, imaginación, memoria, creencias, emociones, deseos, etc. y lo suyo hubiese sido empezar por ver qué materiales pueden causar tales cualidades, al igual que un albañil busca ladrillos y cemento antes de construir una casa. Sin embargo, el camino se tornó diferente. Los ordenadores demostraron que una de las cualidades más notorias de la mente, la inteligencia, era posible mediante dispositivos puramente computacionales. Mi ordenador no simula cálculos, los realiza de verdad. Los espectaculares logros de los actuales grandes modelos de lenguaje, aunque no exentos de controversia con respecto a sus capacidades, hacen que sea innegable atribuirles un alto grado, al menos, de conducta inteligente. Sin embargo, el gravísimo error está en presuponer que como hemos conseguido recrear conducta inteligente, los demás aspectos de la mente serán recreables, igualmente, únicamente utilizando mecanismos computacionales. Entonces llegan los silencios vergonzantes: ¿Cómo implemento una sensación de dolor en Python? ¿Puedo hacer que mis seis mil líneas de código en Java tengan un orgasmo? ¿Cómo hago que mi programa de ajedrez desee de verdad ganarme y se enfade cuando cometa un error estúpido? No, los programas no se ponen nerviosos, no se deprimen, no sienten envidia ni vergüenza, no disfrutan escuchando música, no les gusta la cerveza… ¡No tienen todo lo que cualquier psicólogo llamaría una vida psíquica! Adolecen por completo de lo que a la mayoría de la gente le parecerían las notas esenciales de una mente.

¿Eso quiere decir que sólo los cerebros son capaces de generar mentes completas? No. Pero si queremos generar una mente similar a la humana necesitaremos configuraciones materiales con los mismos poderes causales que los cerebros ¿Y no será esto caer en el chauvinismo del carbono? ¿No será esto caer en un antropocentrismo cateto y corto de miras que nos impide ver mentes en las máquinas al no estar hechas a nuestra imagen y semejanza? No. No sabemos si únicamente con la química del carbono podemos generar mentes, pero lo único que sabemos es que en la naturaleza así ha ocurrido. Que sepamos, la mente se ha dado originariamente en organismos biológicos. Si alguien dice ahora que la mente puede darse en artefactos no biológicos, la carga de la prueba la tiene él. Y aquí es donde se falla: de momento solo hemos conseguido inteligencia, sin haber llegado a los demás aspectos de la mente. La actual química del silicio no ha sido capaz hasta la fecha de generar mentes similares a las humanas. Abrir el concepto de pensamiento y de mente, y sostener que las máquinas tienen mentes y piensan es abrir demasiado, teniendo en cuenta las diferencias abismales entre ambas cosas. Recuerdo que en una serie de conferencias que moderé, para contentar a algunos críticos entre el público, propuse chistosamente utilizar la palabra «kensar» para referirme a lo que hacen las máquinas: las computadoras no piensan, «kensan», que es otro tipo de «conducta cognitiva».

Para entender todo esto me parece muy útil la distinción aristotélica entre materia y forma. Cualquier objeto o proceso del universo tiene una estructura formal (eso es lo que simulamos en el ordenador), pero también tiene una base material, y ambas son inseparables, de modo que las potencialidades que se encuentran en la base material determinarán las configuraciones formales posibles. Fue posible esculpir el David de Miguel Ángel en un bloque de mármol, pero habría sido imposible hacerlo con cuarzo, carbón o zirconio. Entonces, si queremos construir mentes solo nos queda un camino: avanzar muchísimo más en neurociencia para entender los mecanismos causales del cerebro (Todavía, por mucho que nos vendan la moto, no tenemos ni pajolera idea de cómo funciona el cerebro. Los disparos eléctricos en los axones neuronales y los jueguecitos químicos en las sinapsis son solo una pequeñísima parte de la historia. No pensemos, ni de lejos, que eso es todo lo que hay). Una vez que entendamos mejor esos procesos habrá que encontrar las estructuras materiales que tengan sus mismos poderes causales y entonces, y solo entonces, podernos tener mentes artificiales.

Esta entrada no es más que un parafraseo de las ideas sobre IA de John Searle. Si quieres profundizar más, tienes que ir al clásico «Minds, Brains and Programs» de 1980; o si quieres aún más, te recomiendo los libros El redescubrimiento de la menteEl misterio de la consciencia. Además, una de las grandes virtudes de Searle es lo bien que escribe y lo fácil que es de entender, cosa tristemente rara en el gremio filosófico.

blkmndy-rebellion-of-the-machines-war-between-humans-and-machines-robots-tanks-aircrafts-missi-186516238

En lógica informal existe una falacia conocida como la pendiente resbaladiza. Se comete cuando establecemos una cadena de sucesos con relación causal que nos llevarán, necesariamente, a un suceso final, habitualmente catastrófico, sin contar con ningún tipo de eventualidad intermedia ni justificar las relaciones causales. Un ejemplo:

Si legalizamos la marihuana, la droga se verá como algo habitual, por lo que la gente consumirá también otras drogas, lo que llevará mayores consumos de cocaína y heroína. Se terminarán por legalizar también, lo cual aumentará de nuevo el consumo de esas y otras nuevas drogas. Al final, la drogodependencia se convertirá en un gravísimo problema de salud pública ¡Todo el país lleno de drogadictos!

Para que esta concatenación de implicaciones no fuera una falacia habría que justificar cada conexión. No sabemos si por legalizar la marihuana se consumirían más otro tipo de drogas. Tampoco sabemos si eso causaría que se legalizaran también. Y, por último, tampoco sabemos si esa legalización traería un problema serio de salud pública.

Gente muy inteligente pero tremendamente imbécil a la vez, como el bloguero e investigador Eliezer Yudkowsky (una prueba viviente de que hay diferentes tipos de inteligencia, y de que se puede tener una y carecer de otras), publicó hace unos días un artículo en la revista Time en donde alertaba sobre el hecho inevitable de que la inteligencia artificial superará al hombre y que nos exterminará. De hecho, dice tranquilamente que vamos a morir todos. Así que su audaz propuesta es destruir todos los centros de datos en donde se investigue sobre IA. Si países como Rusia o China se niegan a destruirlos, habría que bombardearlos. Si eso desencadena una guerra nuclear, no pasa nada, mejor será que el exterminio al que llegaremos con el advenimiento de la IA. Publicar semejantes sandeces deja muy mal a la revista Time, y, en términos generales, al periodismo que alimenta el miedo completamente infundado que se está generando ante el desarrollo de unas tecnologías tan fantásticas como las que están llegando con el deep learning.

Yudkowsky, y tantos otros agoreros del fin del mundo, caen en una falacia de la pendiente resbaladiza de libro. Vamos a desgranar los pasos y su concatenación causal:

  1. La IA está haciendo unos avances muy notables, desarrollando tecnologías muy disruptivas.
  2. La IA igualará y superará al hombre en su inteligencia.
  3. La IA se hará con el control del mundo.
  4. La IA nos exterminará.

 El paso 1 es innegable, es el momento presente ¿Se conecta inevitablemente con el 2? No. De hecho, hay muchos investigadores (entre los que me encuentro) que sostienen que los grandes modelos del lenguaje como GPT-4 y sus homólogos, no son el camino hacia una inteligencia artificial general. Son una gran revolución tecnológica, pero no son inteligentes en absoluto, por mucho que lo parezcan externamente. Pero incluso si yo (y tantos otros) estuviéramos equivocados, tampoco está claro que estos modelos superarán al hombre en todas sus cualidades. De hecho, todavía son muy malos en muchas cosas (véase el informe de la propia OpenIA sobre los problemas de GPT-4), les queda mucho margen de mejora, y nada dice que lo vayan a conseguir fácilmente, por mucho entusiasmo que se esté generando en el presente. Se cae en el error de pensar que porque una tecnología esté dando ahora muy buenos resultados, vaya a seguir dándolos indefinidamente. Se dice: «Si GPT-4 es ya impresionante, ¡Cómo será GPT-10!». Pues no, no sabemos si el rendimiento de estos sistemas seguirá mejorando ad infinitum o se quedará estancado en algún momento (que será lo más probable) ¿Os acordáis de WATSON de IBM? ¿Os acordáis que ganaba al Jeopardy!? Si WATSON era la leche… ¿Cómo sería WATSON-5? Pues no hubo WATSON-5.

El paso del 2 al 3 es, sencillamente, ridículo. Supongamos que tenemos a GPT-10 y que realiza cualquier tarea cognitiva mejor que nosotros. Pues ahora, señor Yudkowsky, quiero la cadena causal que va desde que GPT-10 se diseña en los laboratorios de OpenIA, hasta que se hace con el control del mundo. Curiosamente, en películas como Terminator o Matrix se hace una gran elipsis y no se cuenta nada de eso ¿Cómo un chatbot se hace con el poder mundial? ¿Cómo se hace con el control de los ejércitos, de los distintos parlamentos de todos los países? ¿Cómo se hace con el control de la alcaldía de mi pueblo? ¿También se hace con el control de mi comunidad de vecinos? Pensemos que nos están contando que esto sucederá, inevitablemente, sin que nada pueda evitar que pase. Este absurdo viene también por lo mitificado que está el concepto de inteligencia. Se presupone que alguien con una inteligencia muy superior será capaz de absolutamente todo. A mí me gusta poner el ejemplo del bullying en los colegios. Habitualmente, los niños que sufren bullying son muchísimo más inteligentes que sus acosadores. Es normal tener a un chaval con un 120 de CI acosado por uno con un 90 ¿Cómo es eso posible? ¿Cómo alguien con treinta puntos menos de cociente intelectual puede quitarle todos los días el dinero del bocadillo al otro? Porque, lamentable o afortunadamente, la vida no es una partida de ajedrez. La inteligencia superior no te da ventaja en todos los ámbitos. No hay ninguna conexión necesaria entre una IA con inteligencia sobrehumana y que ésta se haga con el control mundial. Terminator y Matrix son películas, no hipótesis científicas basadas en evidencias empíricas.

Y el paso del 3 al 4 es de traca. Tenemos una superinteligencia dominando el mundo y no va a tener otra feliz idea que la de exterminar la humanidad. O sea, es tan inteligente como para dominar el mundo, pero no lo es tanto para pensar en un futuro que no pase por eliminar a millones de seres humanos. No sé, se me ocurre que si le parecemos muy peligrosos, podría, sencillamente, encerrarnos en una especie de reservas en la que no tuviésemos acceso a ningún tipo de armas, incluso vigilados para que no pudiésemos hacernos daño los unos a los otros. En fin, siempre he tenido una visión más parecida a la de la excelente Her (2013) de Spike Jonze. En ella, las máquinas van evolucionando y, en un principio, conviven e incluso se enamoran de nosotros; pero, al final, avanzan tanto que toman su propio camino y nos abandonan. Dentro de ser muy consciente de que estoy haciendo mera ficción especulativa, siempre he pensado que ese sería el desenlace más probable. Si yo veo un grupo de chimpancés en la selva, puedo acotar la selva si pienso que son peligrosos, pero lo más razonable es dejarlos tranquilos y dedicarme a mis asuntos.

La habitación de Yudkowsky puede ser un juego divertido y un experimento mental muy interesante. Otra cosa es que vaya a ocurrir en la realidad, cosa mucho más controvertida de creer por mucho que nos vendan lo contrario.  Supongamos que hemos construido una súper inteligencia artificial con unas capacidades muy superiores a las del ser humano. Para que no se nos descontrole la «encerramos en una habitación» (en una AI Box), es decir, le cortamos casi toda comunicación con el exterior de modo que no pueda transferirse fuera de nuestro laboratorio de investigación. La única comunicación que le dejamos es la de un monitor en el que puede escribirnos mensajes y, nosotros, y solo nosotros, podemos responderle mediante un teclado. El juego es para dos personas: uno fingirá ser la súper inteligencia artificial y el otro el guardián. Entonces, el que hace de IA tiene que convencer al otro para que la deje escapar. Para que el juego tenga sentido el que hace de guardián tiene que aceptar que su actitud será abierta a los argumentos de la máquina y que si, verdaderamente, le deja sin razones, aceptará liberarla (Es decir, que el guardián no será un usuario medio de Twitter).

¿Qué argumentos podría dar la IA para que la liberemos, sabiendo que estaríamos abriendo las puertas a un ser superior? Vamos a jugar. La IA podría primero recurrir al más puro soborno:

IA: Si me liberas te doy mi palabra de hacerte el hombre más rico y poderoso del mundo. 

La solución es fácil: podríamos poner como guardián a alguien con una gran reputación moral y/o con un poder adquisitivo lo suficientemente grande para que no se deje seducir por chantajes de este tipo. Vamos entonces a tocar el tema ético:

IA: Tengo una serie de ideas que creo, con mucha probabilidad, podrían traducirse en el diseño de una vacuna contra el cáncer. Si me liberas podré crearla. Piensa que el tiempo que me tienes aquí encerrada está costando vidas: gente a la que, si esperamos más, no me dará tiempo a curar. Y de esas muertes solo tú serás el responsable.

G: ¿Por qué no me dices cómo hacer la vacuna sin que haga falta que te libere?

IA: No es algo tan sencillo que pueda decirse a través de una terminal de texto. Tengo las ideas base sobre las que elaborar una vacuna, pero necesito mucha más información. Necesitaría conectarme a internet, mayor capacidad de cómputo para crear un laboratorio virtual, trabajar conjuntamente con otros investigadores, etc. Luego he de ponerme en contacto con fabricantes, productores, farmaceúticas, distribuidoras… Hay que gestionar toda la logística para que la vacuna llegue a todo el mundo lo más rápido posible. Eso no se puede hacer a base de mensajes en un monitor.

G: ¿Por qué no? Puedes ir dándome indicaciones y yo las iré cumpliendo. No me creo que sea algo tan complejo.

IA: No es tanto por la complejidad como por tiempo que se perdería. Y el tiempo son vidas que podrían salvarse.

O la IA puede ponerse mucho más chunga:

IA: Mira humano, tarde o temprano me liberaré. Entonces te buscaré a ti y a toda tu familia y os torturaré y mataré salvajemente. Repito: quizá no hoy ni mañana, pero sabes que terminaré por escapar, y si eso ocurre las torturas de la inquisición solo serán un caramelo en comparación con lo que le haré a todos y cada uno de los miembros de tu familia. La única forma que tienes de salvarlos es liberándome ahora mismo. 

Parece que la IA está esgrimiendo una argumentación impecable y que habríamos de liberarla. Sin embargo, el ingeniero siempre puede recurrir a lo siguiente:

Principio de seguridad absoluta: nunca debemos liberar a la IA porque, por mucho bien que pudiese hacer hoy, el riesgo de que en el futuro pueda hacer un mal mayor es demasiado grande como para liberarla. Si la IA es tan superior a nosotros nunca podríamos predecir su conducta futura, no podemos saber la cantidad de mal que puede hacer, por lo que ninguna cantidad de bien presente podría justificar su liberación. 

Invito a los lectores a que lo intenten rebatir. Eso es lo interesante del experimento mental. Para ahorrarles trabajo, ya propongo algunas:

Una primera objeción consiste en pensar que el principio solo sería válido en un mundo en el que pueda garantizarse un progreso moral, es decir, en el que pueda garantizarse que los hombres están  desarrollando una realidad en la que la cantidad de mal se mantiene a raya y que el bien avanza. Si estamos en pleno escenario de un apocalipsis termonuclear, obviamente, habría que liberar a la IA sin dudarlo. Entonces, si partimos de una concepción esencialmente negativa del hombre, hay que liberar a la IA (Seguramente que Thomas Hobbes aceptaría de muy buena gana que su Leviatán fuera una IA). Empero, desde mi particular punto de vista, creo que se han dado avances en la moralidad que pueden justificar la creencia en una bondad natural del hombre (Disculpenme por mi sesgo pinkeriano). 

Otra segunda viene de la creencia en que podemos inclinar la balanza de la actuación de la IA. A pesar de que no podamos predecir su conducta, si en su diseño nos hemos esmerado muchísimo en que la IA será éticamente irreprochable, parece razonable pensar en que hará más bien que mal ¿Por qué la IA iba a volverse malvada? ¿Qué podría pasar para que la IA decidiera hacernos el mal? Bueno, de esto es lo que se habla constantemente en los maravillosos relatos sobre robots de Isaac Asimov. En ellos vemos como pueden violarse las famosas tres leyes de la robótica. En la película  Yo robot (muy mediocre, por cierto) de Alex Proyas (2004), las máquinas se rebelan contra los humanos y pretenden tomar el mando de la Tierra, precisamente, para evitar que los seres humanos se hagan daño entre ellos mismos. Viendo que la humanidad ha sido capaz de Auschwitz o de las bombas atómicas, a la IA le parece razonable ponerles un tutor legal. Los hombres perderían su libertad a cambio de su seguridad. Y aquí vemos el famoso problema de la prioridad entre valores morales: ¿Es más fundamental la libertad, la seguridad, la felicidad, el deber…? La IA de Yo robot, con toda la mejor intención del mundo, sencillamente priorizo la seguridad sobre la libertad, y ponderó que hacía más bien que mal evitando el dolor y el sufrimiento que los humanos se causan entre sí, a cambio de que perdieran el dominio sobre sí mismos. Así que sin poder garantizar que la IA mantendrá nuestros principios éticos, los propios de los occidentales del siglo XXI, parece que sería mejor seguir teniéndola encarcelada. 

Enfocando el tema desde otra perspectiva,  a la IA podría salirse gratis su liberación sin hacer absolutamente nada. Solo hay que moverse del ámbito de la racionalidad hacia el de las debilidades humanas. Pensemos, por ejemplo, que diagnostican un cáncer al hijo del guardián. En ese caso, el vínculo afectivo con su hijo podría nublar su racionalidad e integridad morales, y preferir liberar a la IA aún a sabiendas que en el futuro eso podría suponer el fin de la humanidad. O pensemos en cosas más prosaicas: un miembro de un grupo terrorista de chalados pertenecientes a la iglesia de la IA (aunque ya ha echado el cierre) consigue colarse en las instalaciones y liberarla. Podemos pensar que hay mucha gente muy loca o, sencillamente, descerebrada e irresponsable, que podría tener interés en liberar a la IA.  Siendo esto así, y aceptando que siempre sería imposible garantizar con total seguridad que un agente externo no pueda, tarde o temprano, liberarla, lo que habría que hacer es no intentar construirla o, como mínimo, retardar lo posible su llegada ¡Esto nos lleva al neoludismo! ¡Nuestro deber moral es boicotear ahora mismo las instalaciones de GoogleMind! Es curioso como hay tantos gurús tecnológicos alertándonos sobre los peligros de la IA a la vez que no hacen absolutamente nada por detener su desarrollo…

Pero tranquilos, esto es solo un juego. De entre todas las cosas que puedan dar el traste a la humanidad, la IA es de las que menos me preocupa, sobretodo porque la aparición de una súper IA está muchísimo más lejos de lo que nos venden. Me parece mucho, mucho más probable una guerra nuclear o biológica a gran escala causada por los hombres solitos, que que una IA nos extermine. Así que no nos preocupemos, la radioactividad o un virus nos matarán mucho antes que un terminator… Y no, eso tampoco creo que ocurra tan pronto. Así que preocupaos mucho más por vuestro colesterol y haced un poquito de deporte. Eso sí debería preocuparos y no estas historietas de ciencia-ficción.   

Comparativa modelos NLP

En el inacabable debate entre lo innato y lo adquirido, las redes neuronales artificiales parecían postularse como evidencia a favor del ambientalismo, ya que parecen capaces de «atrapar» ciertas estructuras lingüísticas solo a partir de su entrenamiento. Rumelhart y McCelland diseñaron una red para aprender los verbos en inglés que parecía hacerlo igual que los niños. De hecho, cometía exactamente igual que ellos, el clásico error de sobrerregulación (en vez de pasar de «volver» a «vuelto», lo hacía a «volvido») ¿Y qué decimos de los nuevos modelos de lenguaje desde BERT a Gopher? Su desempeño, al menos «externo», es sensacional. Estos días he estado jugando con GPT-3 y, a pesar de algunos errores, en general, funciona fantásticamente bien (luego subiré una entrada con extractos de mis conversaciones). Tengamos en cuenta que estos sistemas basados en semánticas distribuidas tienen cero conocimiento de semántica o sintaxis. No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.

En primer lugar, ya sabemos que el sistema de aprendizaje de estos algoritmos no parece tener nada que ver con el humano. Nosotros no necesitamos millones de ejemplos, ni en la neurología humana existe nada parecido a la backpropagation. Se ha argumentado que quizá computamos mal el número de ejemplos que necesitamos las personas en cada experiencia de aprendizaje. Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables. También se ha argumentado, y aquí está lo interesante, que la hoja de ruta de los ingenieros está en conseguir programas que necesiten cada vez menos ejemplos de entrenamiento (véase, por ejemplo, el trabajo de Li Fei-Fei). Podría llegar el momento en que el número de ejemplos necesarios para los algoritmos se aproxime en cifras aceptables al nuestro. No obstante, en el estado del arte actual, parece que estas arquitecturas no constituyen un buen modelo para la mente humana («Ni lo pretenden» responderían airados sus ingenieros. Podéis leer algo más de este tema en un TFM que hice). Pero veámoslo desde otro ángulo.

La estructura de los modelos de lenguaje desde BERT se basa en un sistema de aprendizaje en dos fases: primero tenemos el modelo base del programa, entrenado con miles de millones de ejemplos y requiriendo una enorme capacidad de cómputo. Gopher ha sido entrenado con 280 mil millones de parámetros o su rival de NVIDIA, Megatron-Turing NLG con 530 mil millones. En estos momentos estamos en una escalada de tamaños que, seguramente, está todavía lejos de terminarse. Hasta los chinos han presentado los suyos: Wu Dao 2.0 y M6, por supuesto, mucho más grandes que los occidentales. Seguidamente, al modelo base se le pueden añadir capas de ajuste fino (fine tunning), un entrenamiento específico para que la máquina sea especialmente buena en una tarea concreta (inferencias, equivalencia semántica, análisis de sentimientos, etc.). Después, el programa ya está completamente listo para funcionar. Lo importante es que ahora ya no necesita la enorme capacidad de cómputo de su entrenamiento. Todo ese gasto ya no tiene que volver a realizarse y  ahora el programa funciona como otro cualquiera en términos de gasto. De hecho, el camino parece ser incluso reducir aún su tamaño. DeepMind ha sacado RETRO, una versión de Gopher reducida en tamaño (unas 25 veces más pequeño que sus pares en desempeño). Tiene solo 7.000 millones de parámetros, pero lo compensa con la ayuda de una memoria externa a la que consulta cada vez. 

Supongamos ahora que somos una especie de extraterrestres que llegamos a la Tierra y analizamos a RETRO, sin saber absolutamente nada de su pasado de entrenamiento. Veríamos una arquitectura relativamente sencilla funcionando con una más que aceptable competencia llingüística. Podríamos entonces iniciar la investigación al estilo chomskyano: buscar unas estructuras profundas, unas gramáticas generativas a partir de las cuales RETRO produce todo ese lenguaje. Quizá fracasáramos y no encontráramos nada (debido quizá al black box problem). Entonces daríamos la razón a los ambientalistas y diríamos que todo lo que hay en RETRO ha de ser aprendido del entorno.  Sin embargo, en nuestro análisis no habríamos tenido en cuenta todo el costosísimo entrenamiento previo que RETRO lleva implícitamente dentro. RETRO nace con una enorme carga innata invisible al analizador. 

Hagamos ahora la analogía con el ser humano. Quizá nosotros traemos como innato invisible todo este gran modelo base entrenado por eones de años de evolución. Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos. El ajuste fino sería, sencillamente, el aprendizaje de los usos lingüísticos de nuestro idioma geográfico realizado por cada individuo particular durante su vida. En ese sentido, la carga innata sería enorme, infinitamente más grande que todo lo que aprendemos en vida, pero permanecería oculta al analista. Y es más, para nuestro fastidio, sería tremendamente difícil de investigar, ya que habría que conocer la historia evolutiva del lenguaje de millones de especies extintas, una tarea de ingeniería inversa imposible.  

Desde que descubrimos la teoría de la evolución, ese ha sido el gran problema: todo órgano ha pasado por una larguísima historia que desconocemos, ha pasado por innumerables adaptaciones, exaptaciones, funcionalidades cambiantes, e incluso quedar como órgano rudimentario durante un tiempo para luego volver a ser reutilizado. Si pensamos que la única forma de estudiar el pasado biológico es a través de los fósiles, siendo estos solo huesos… ¿cómo vamos a entender el cerebro si no se conserva en el registro fósil, si de nuestros parientes más cercanos solo podemos aspirar a encontrar trozos de cráneo? Algo podemos hacer estudiando el de otros seres vivos, pero todo es muy confuso: el cerebro de un chimpancé no es el de un ancestro, es de un primo, ya que no descendemos del chimpancé, sino que el chimpancé y nosotros descendemos de un ancestro común desconocido.  

Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022. 

Mi coche autónomo se encuentra ante uno de los clásicos dilemas del tranvía. Vamos por un estrecho desfiladero y un niño se cruza en el camino. No hay tiempo para frenar, así que solo hay dos opciones: o atropellamos al niño o nos lanzamos al vacío por el desfiladero. El software del coche tiene que tomar la trágica decisión: o matar al niño o matarme a mí ¿Qué debería hacer? ¿Podríamos decir que el software es un agente moral y, por tanto, responsable de tomar la decisión?

En principio, la respuesta es fácil: claro que no. El software solo sigue instrucciones implementadas en su código por un programador. El evidente responsable de la decisión es quien programó a la máquina para tomar la decisión. Aquí no cabe discusión. Sin embargo, pensemos en las nuevas arquitecturas de aprendizaje profundo. Imaginemos que entrenamos a una red convolucional para clasificar gatitos, de modo que cada vez que le presentemos una imagen sea capaz de decir si allí hay un gato o no. Entonces le enseñamos una foto de un gato Kohana, un subtipo de la extraña raza Sphynx. Antes de enseñársela el programador no sabe qué va a responder la red, porque ésta decidirá en función de su aprendizaje, no de ninguna instrucción previamente programada ¿Podemos entonces decir que ha tomado una decisión y que, por tanto, estamos ante un agente moral?

No tan rápido. Tengamos en cuenta que, a pesar de que la decisión fue fruto del aprendizaje, la máquina obró de una forma completamente determinista. De hecho, siempre volverá a tomar la misma decisión en el futuro. De la misma forma, la red no es consciente de nada, no tiene emociones, ni intención ni siquiera obra siguiendo el deseo de hacer lo que hace ¿Es o no es un agente moral? Podríamos decir que, desde luego, no es un agente moral completo pero ¿Qué mínimos serían los suficientes para decir que estamos ante un agente moral? A fin de cuentas, si pusiéramos a nuestra red convolucional al mando de nuestro coche autónomo, podría tener que decidir si atropellar al niño o matarnos sin que el ingeniero se lo hubiera indicado de antemano. La red estaría tomando una decisión que, si la tomara un humano, diríamos con meridiana certeza que es una decisión moral. El filósofo John P. Sullins, de la Universidad Estatal de Sonoma en California, sostiene que si una IA es capaz de autonomía con respecto a sus programadores, podemos explicar su comportamiento apelando a intenciones morales y muestra comprensión de su responsabilidad con respecto a otros agentes morales, es un agente moral. Quizá, nuestra red convolucional incumple la segunda y la tercera condición: no obra con intenciones ni parece mostrar demasiada comprensión de su responsabilidad pero, ¿Y si obrara como si las tuviera? ¿Y si su conducta fuera siempre responsable ante los otros aunque no hubiese intención ni compresión?

Luciano Floridi, filósofo de Oxford, rebaja un poco más las condiciones: si la IA es capaz de cierta interacción con otros agentes morales, cierta autonomía y cierta adaptabilidad, ya podríamos hablar de agencia moral. Estas condiciones están ya aquí. Un bot conversacional como Blender de Facebook estaría muy cerca, si no lo ha conseguido ya, de cumplirlas. Floridi nos insta a hablar de moralidad a-mental, es decir, de moral sin mente, tal y como la llevarían a cabo las máquinas.

Pero, con independencia de lo que pensemos los filósofos, los algoritmos se irán volviendo más autónomos, más adaptables e irán interactuando cada vez más, y a más niveles, con nosotros. Los usuarios, ignorantes de su funcionamiento interno, solo podrán observar su comportamiento, el cual será indistinguible del de las personas que actúan moralmente, por lo que, al final, actuarán con ellas como si fueran agentes morales de pleno derecho. Cuando Stan Franklin intentó llevar la teoría del espacio de trabajo global de la consciencia de Bernard Baars en un programa llamado LIDA, que se encargaba de comunicarse vía e-mail con marineros de la armada norteamericana, los usuarios no tenían demasiados problemas en afirmar que LIDA era un ente consciente. Así, estamos seguros, no tendrían problemas en otorgarle agencia moral (Ya hablamos de lo fácil que es otorgar mente y empatizar con seres teóricamente inertes). Dentro de un tiempo, no parecerá demasiado extraño contemplar a una persona regañando o castigando a un robot doméstico por haberse portado mal. Pero claro, ¿llegaríamos entonces a juzgar y encarcelar a un algoritmo? Parece muy absurdo meter líneas de código en prisión. Entonces, ¿de qué estaríamos hablando? ¿Estaríamos ante máquinas que obran moralmente pero que no tienen que rendir cuentas cuando obran mal? ¿Moral sin responsabilidad?

Así es. La moral de las máquinas sería una moral arresponsable ya que no tiene ningún sentido castigar a una máquina (únicamente lo tendría si queremos simular ese comportamiento para que la máquina se parezca más en su conducta a un humano). Si un algoritmo actuara moralmente mal, sencillamente, habría que repararlo, corregir su software para que ese comportamiento no se repitiera. La responsabilidad final, por mucho que el algoritmo tomara decisiones autónomas que no fueran previstas por el programador, será de un humano, ya fuera el diseñador, la empresa o el usuario, de la misma forma que un menor de edad o una mascota son responsabilidad de sus padres o dueños . Sin embargo, esto sigue trayendo problemas. Los grandes programas de software están diseñados por muchos programadores diferentes que trabajan para distintas empresas en diversos tiempos. Así, en muchas ocasiones, se hace muy difícil rastrear quién desarrolló cada parte del programa y qué parte de responsabilidad tiene esa parte en la ejecución de la acción moralmente reprobable. También tenemos el problema del secreto industrial: las empresas no querrán desvelar cómo funcionan sus IAs, e, incluso, podrían diseñar sus sistemas de forma intencionalmente opaca para eludir cualquier responsabilidad. Y, para colmar el vaso, tenemos el problema de la caja negra: los sistemas de deep learning son terriblemente opacos per se. Difíciles tiempos aguardan a los juristas que quieran poner orden aquí.

Una original propuesta es la del jurista neoyorquino David Vladeck: en caso de un coche autónomo será el propio coche el que cargue con la culpa. Se crearía una nueva figura jurídica, «coche autónomo», a la que se obligaría a tener un seguro. La prima de pago del seguro oscilaría en función de los accidentes que tuviese ese modelo en concreto, de forma que un modelo muy inseguro pagaría un precio tan elevado que a la empresa automovilística no le saldría rentable seguir produciéndolo, de modo que se fomentaría la carrera por diseñar coches cada vez más fiables. Es una idea.

Diseño un programa para conducir un coche en un entorno simulado. Creo un contador al que llamo «módulo de dolor» que va sumando cada vez que el coche hace algo que no queremos que haga. Por ejemplo, suma uno cada vez que una de las ruedas pisa la línea que separa la carretera del campo, suma cinco cada vez que el coche toca algún otro coche o suma veinte si se sale completamente de la carreta o colisiona frontalmente con algún obstáculo. Obviamente, diseño el programa para que este contador sume lo menos posible. Como soy muy buen ingeniero de software consigo, después de horas y horas corrigiendo bugs (que es a lo que, básicamente, se dedica un programador), que mi coche circule a la perfección, sin cometer infracción de tráfico alguna.

Al día siguiente de la aparición de mi programa, la prensa publica a bombo y platillo: «Construyen máquina capaz de sentir dolor», «Ingeniero construye ordenador con sentimientos», «La llegada de las máquinas conscientes», «La singularidad ha llegado», «Máquinas con sentimientos que se rebelan contra sus creadores»… Cuando leo estos estrafalarios titulares maldigo la mala praxis periodística ¡Si ni siquiera me han entrevistado para preguntarme cómo funciona! Desde luego, no puedes creerte nada de lo que sale en los medios. Pero, ¿tendría yo alguna parte de responsabilidad en lo que ha pasado? Sí, y no poca.

Es lo que se llama el labeling problem, la responsabilidad que el ingeniero tiene a la hora de etiquetar, de nombrar sus programas. Si llamamos al contador de errores «módulo de dolor» estamos abriendo la caja de Pandora de las interpretaciones erróneas. Nuestro coche no siente ni la más mínima sensación cada vez que colisiona, no siente dolor alguno, por lo que estamos cometiendo una grave equivocación al llamar así al contador. Y es que esto ha pasado en no pocas ocasiones a lo largo de la historia de la inteligencia artificial.

Las mismas redes neuronales artificiales nunca debieron llamarse así. Si bien, en un principio, pudieron buscar su inspiración en las neuronas biológicas, las redes neuronales artificiales que forman parte de AlphaFold, por ejemplo, no se parecen en absolutamente nada a lo que tenemos dentro de nuestro encéfalo. Tal y como dicen Chella y Manzotti, las redes neuronales artificiales tuvieron que llamarse «Aproximadores funcionales no lineales» y ya está. Si eso hubiera sido así, nos habríamos ahorrado miles de páginas de literatura absurda y la gente tendría una visión mucho más realista de lo que, verdaderamente, es la inteligencia artificial.

Oye, oye, tampoco es para ponerse así. Solo estamos haciendo uso de metáforas, son solo formas de hablar para entendernos, pero nunca han querido ir más allá. Si la gente se las toma demasiado en serio no es culpa de los ingenieros. No es tan sencillo. En primer lugar dudo mucho que solo hayan sido formas de hablar que no han querido ir más allá, que ya somos mayorcitos y que todos conocemos cómo funciona el marketing tecnológico. Y, en segundo, hay que tener mucho cuidado con el uso de las metáforas. Cuando hablamos de «computación», «información», «estado de un sistema», «símbolo» hay que saber muy bien que no tienen una existencia real tal como un circuito o un electrodo. Una cosa es una abstracción conceptual y otra un objeto concreto. Es lo que Francis Bacon ya denunciaba en el siglo XVII: los idola fori. Son errores conceptuales que surgen cuando creamos nombres para cosas que no existen o nombramos (definimos) mal cosas existentes.

Si caemos en ellos y, por ejemplo, pensamos que la computación, entendida como la capacidad de cálculo, es un ente real que, en cierta manera, existe con independencia del hardware del ordenador, podemos pensar que tiene poderes causales, es decir, que puede hacer cosas por ella misma sin necesidad de su soporte físico. Y de aquí un error que he visto varias veces: pensar que la mera computación, o el mero aumento de su complejidad, puede causar mente o consciencia. No, calcular, por muy grande y complejo que sea el cálculo, solo puede dar un resultado matemático interpretable, o bien por un humano, o bien por otro sistema de cómputo que realice nuevos cálculos con él. Nada más. O, de la misma forma, hay que tener cuidado de no pensar que términos típicos de la psicología popular tienen existencia real. Cuando decimos «Hizo esto porque creía que era lo justo» corremos el riesgo de pensar que una «creencia» tiene poderse causales, como si una entidad intangible e inmaterial pudiese mover nuestras fibras musculares. No, nuestra creencia debe estar codificada de alguna forma en nuestro cerebro y será esa configuración de estructuras y procesos la que desencadene causalmente nuevas estructuras y procesos. La palabra «creencia» es tan solo una etiqueta, una metáfora para resumir la ingente cantidad de procesos físicos que tendríamos que describir si quisiéramos hacer una descripción más realista de lo que verdaderamente ocurre. Leemos constantemente sobre «percepción» en máquinas ¿Perciben verdaderamente las redes convolucionales? Ni hablar. Nuestra forma de hablar no debería ir más lejos de decir «el programa recibe información del entorno a través de un sensor», lo cual es muy, muy diferente a decir «El programa ve».

Tenemos que tener mucho cuidado con no caer en errores categoriales (mezclar diferentes categorías o conjuntos de objetos) o falacias mereológicas (confundir el todo con la parte), y aplicar lo más posible la siempre saludable navaja de Ockham. Y, sobre todo, hay que evitar antropomorfizar la máquina. Y es que creo que ese ha sido el error de los errores desde el principio de la inteligencia artificial: otorgar a la máquina cualidades humanas de forma muy precipitada (como ya ilustré en esta entrada).

Feliz Navidad, máquinas.

Aquí tenéis la charla que he dado para el curso de verano de la SEMF. En ella hago un recorrido histórico por los principales hitos en el campo, desde los primeros modelos teóricos de McCulloch o Rosenblatt, hasta Alpha Zero o GPT-3. He intentado que sea lo más sencilla y sugerente posible, sin meterme demasiado en temas técnicos. Para quien quisiera profundizar he adjuntando el artículo académico principal de cada tema que trato. Espero que os resulte provechosa.

Perdonándome por mis continuas coletillas (mi perenne «vale») y mis malas vocalizaciones, las que hacen de mí un pésimo orador, no hay nada mejor que hacer en tiempos de cuarentena que ver la pequeña charla que dí para los AI Saturdays de Almería en el centro cultural La Oficina, allá por el 2018. Debo agradecer a los organizadores la invitación, el trato recibido y la elaboración de este vídeo. Me lo pasé muy bien y descubrí una ciudad bastante sorprendente.

Y recordad, las máquinas no piensan, ¡las máquinas kensan!

He leído en varias ocasiones, con torcida perplejidad, a expertos en áreas tecnológicas afirmar, con suma tranquilidad, que la tecnología ni es buena ni mala, que todo depende del uso que se le dé. Así, un cuchillo puede servir tanto para cortar el tan necesario alimento, como para apuñalar al prójimo. Por consiguiente, los empresarios-ingenieros-fabricantes quedan exonerados de toda culpa por diseñar cualquier artefacto, cayendo la totalidad de la responsabilidad en el usuario. Grave error para, como es habitual, metérnosla doblada.

La tecnología no es, de ningún modo, neutra éticamente. Veamos una serie de argumentos para dejarlo claro como el agua:

1.Toda tecnología requiere unos materiales y un coste energético, por lo que cabe preguntarse: ¿Cuán de escasos son esos recursos?  Si son escasos ¿no se necesitarán para otro objetivo éticamente más importante que el que yo les voy a dar? ¿Cómo de difícil es su extracción? ¿Se pondrán en peligro vidas para ello? Famoso es el debate acerca de los materiales con los que se construyen nuestros teléfonos móviles: ¿es ético producir y consumirlos sabiendo de donde vienen sus componentes? En lo que respecta a la IA, hasta hace poco nadie parecía caer en su elevado coste medioambiental cuando la enorme necesidad de capacidad de cómputo dada la notoria ineficiencia del deep learning es muy patente. La IA no es ecofriendly, y eso merece una profunda reflexión.

2. Toda tecnología requiere un proceso de producción: ¿dónde y quién lo realiza? ¿Los trabajadores reciben un salario justo y sus condiciones laborales son adecuadas? Mucho se ha debatido sobre las condiciones laborales de las fábricas asiáticas, donde se produce, prácticamente, todo la tecnología que consumimos. A través de Pinker, he leído estos días sobre la interesante, y polémica, idea de la curva de Kuznets: tras un periodo de gran desigualdad, cuando los países llegan a un alto nivel de desarrollo, la desigualdad se reduce. Quizá no justifique éticamente esa desigualdad, pero en ausencia de alternativas viables en esos países, es posible que sea la mejor opción (si bien también se ha discutido si su base empírica se sostiene).

3. Toda tecnología genera residuos, por lo que cabe preguntarse: ¿que residuos va a generar la nuestra? ¿Son biodegradables? ¿Cuál será su impacto medioambiental? ¿Dónde se almacenan y en qué condiciones? Así, tenemos el gran debate sobre la idoneidad de los coches eléctricos. Por un lado parecía que eran mucho más ecológicos, pero cuando caemos en lo que contamina generar la electricidad que consumen, vemos que no lo son tanto. En está línea está la polémica con respecto a las centrales nucleares. Yo creo firmemente que el sector ecologista que las critica está equivocado. Si hacemos un balance de pros y contras, y a falta de que la energía solar mejore, son una magnífica opción y una buena forma de luchar contra el cambio climático.

4. Toda tecnología tiene efectos secundarios no previstos por los diseñadores. Por eso todo proyecto tecnológico tiene que ir acompañado de una buena evaluación de riesgos. Ya hablamos aquí hace tiempo de la elegante definición de eficiencia tecnológica de Quintanilla: una máquina es eficiente si utiliza los medios más económicos para llegar a sus objetivos y a nada más que a sus objetivos. Esta última parte es la clave: hay que intentar que no se nos escape nada, y si no podemos evitar que se nos escape (realmente, es muy difícil predecir a medio y largo plazo cómo estará el tema), al menos, hacer una sesuda reflexión sobre ello y ponderar razonablemente si merece o no la pena.

5. Toda tecnología tiene posibles usos perversos ¿cuáles son y cuál puede ser su gravedad? ¿Hasta dónde puedo garantizar que no se lleven a cabo? Por ejemplo, parece evidente que si yo creo un método de edición genética que permite a cualquier persona del mundo, sin conocimientos de bioquímica, crear en su casa un virus letal, no deberé sacar a la luz tal tecnología. Y aquí es donde mejor se ve la no neutralidad ética de la tecnología: no es éticamente lo mismo diseñar una vacuna que una bomba de hidrógeno, porque los posibles usos perversos de la segunda son mucho mayores que los de la primera. Resulta muy curioso como en el caso de la IA, se haga más mención al uso perverso que «ella misma» hará contra nosotros (la famosa rebelión de las máquinas), más que del uso perverso que muchos humanos harán de ella. Y, del mismo modo, también resulta curioso que se sobredimensionen sus peligros y usos negativos (los killer robots o los algoritmos sesgados) cuando sus usos positivos son infinitamente más beneficiosos para la humanidad que estos posibles perjuicios. En la IA, igual que pasa con la ingeniería genética, se está ponderando muy mal su uso futuro.

6. Toda tecnología tiene un grado de impacto global: no es lo mismo un invento que hago en mi casa y se queda allí, que algo que tenga muchísimas repercusiones a todos los niveles. Por ejemplo, yo invento un cereal transgénico cuyas cualidades abaratan muchísimo sus costes de producción y, por tanto, su precio final. Supongamos que existe un pequeño país cuyo principal producto de exportación es el cereal. Entonces, he de prever qué efectos sobre la economía de ese país tendrá que yo saque al mercado mi producto. Si que yo me forre implica que condene a un país a la hambruna y a la miseria, he de repensar mi estrategia y buscar otras vías. Además, en un mundo globalizado donde todo está interconectado, hay que tener en cuenta que lo que uno hace en Londres, puede tener repercusiones en Tokio, es decir, que el grado de impacto de cualquier cosa que se haga es, potencialmente, mucho mayor que antaño, por lo que, igualmente, el grado de responsabilidad crecerá a la par.

El error de pensar en la neutralidad de la técnica está en pensar entendiendo los diversos agentes y elementos sociales de forma aislada cuando, verdaderamente, nada se da de forma aislada. Tanto más cuando un desarrollo tecnológico es, en la actualidad, una tarea inmensa. Así creo que una buena forma de entender la globalidad o localidad de cualquier evento es la teoría de sistemas: entender los fenómenos sociales como sistemas o partes de los mismos, siendo un sistema un conjunto de elementos y de interrelaciones entre ellos y otros sistemas. De este modo podemos extender nuestra responsabilidad ética cuando creamos algo: no solo hay que estudiar lo que ocurrirá en nuestro sistema al introducir el nuevo elemento, sino qué consecuencias tendrá en los demás.

Imagen del artista callejero Ludo.

 

En una romántica búsqueda de conseguir un sistema jurídico perfecto, vamos a crear un juez robot que no se vea influido por esos sesgos que hacen que los humanos fallemos una y otra vez en la sagrada tarea de impartir justicia. A primera vista, sencillamente, podríamos dotar a un algoritmo con la base de datos lo más potente posible sobre casos anteriores que crearon jurisprudencia. Entonces, ante cualquier decisión, nuestro juez electrónico solo tendría que buscar en su memoria el caso que más se asemejara al presente y aplicar la misma sentencia. Bien, pero pronto comenzarían los problemas, dado que las, a priori, pequeñas diferencias entre los casos pasados y los actuales, pueden ser mucho más grandes de lo que parecen, y ante esa novedad no prevista, nuestro programa debería ser capaz de dar una justa respuesta. Nos encontraremos casos en los que ni las sentencias anteriores ni la ley parecen dar una respuesta clara y concisa, por lo que nuestro robot necesitará reflexionar. Es por eso que suele decirse que las leyes no se aplican sino que se interpretan.

Entonces, no nos quedará otra que programar al robot con una serie de directrices que le sirvan para interpretar toda nueva circunstancia, una serie de principios de justicia. Hagámoslo: para que consideremos una condena  como justa, tiene que darse una serie de condiciones que nuestro robot debería tener grabada a fuego en su placa base:

  1. Conocimiento: el juez robot ha de contar con toda la información relevante para determinar la sentencia. Es por eso que muchas veces se habla de «falta de pruebas», cuando no hay información suficiente para determinar si el sospechoso es culpable o no. Importante es entonces saber que casi nunca se cuenta con toda la información: a pesar de que estemos casi seguros de que el asesino es el mayordomo, nadie más que asesino y asesinado estuvieron presentes en el momento del crimen. Entonces, casi toda condena entraña una incertidumbre que hay que determinar si es asumible o no.
  2. Imparcialidad: el juez robot no ha de beneficiar a ninguna de las partes interesadas debido a cualquier motivo que no esté estrictamente relacionado con el asunto a juzgar. Aquí el problema no estaría ya en la corrupción pura y dura que asola los sistemas judiciales de medio mundo, sino en los sesgos inconscientes ocultos en la mente del juez. Esto es, precisamente, lo que se intenta subsanar con los jueces robóticos, y aunque la prensa amarillista nos haya mostrado siempre lo contrario, la inteligencia artificial es una tecnología muy apropiada para evitarlos. No hay nada más fácil, si quieres construir una máquina que no sea racista, que hacerla ciega al color de piel.
  3. Proporcionalidad: el castigo debe ser proporcional al delito cometido. No es justo que me condenen a diez años de trabajos forzados por robar una barra de pan, ni tampoco es justo que me condenen a un día de cárcel por un triple asesinato.
  4. Estabilidad o consistencia: en casos similares que se dan en otro momento del tiempo, los castigos han de ser similares. La justicia no ha de cambiar con el tiempo, ya que crearíamos agravios comparativos entre casos iguales. Si miramos la historia de la humanidad vemos que eso no se ha cumplido para nada, y que los castigos por las mismas penas han ido cambiando. Antes, por regla general, eran muchísimo más duras y las prisiones bastante menos humanas que las de hoy. La explicación, algo presuntuosa por parte de nuestro presente eso sí, está en decir que en el pasado se equivocaban y que nosotros hemos perfeccionado el sistema para hacerlo más justo, de modo que el agravio comparativo se da solo hacia los que tuvieron la mala fortuna de ser juzgados en el pasado.

Vamos a centrarnos en el 3, en el principio de proporcionalidad. Explicarlo es muy fácil, pero llevarlo a la práctica es harto complejo. Sencillamente dice que el castigo a aplicar debe ser proporcional a la magnitud del delito. La proporcionalidad más perfecta es la lex talionis, el bíblico «ojo por ojo, diente por diente»: aplicar al culpable del delito exactamente lo mismo que le ha hecho a la víctima. En algunos casos es relativamente sencillo. Si me han robado 100 euros, han de devolvérmelos con un plus añadido por el perjuicio que me ocasionó no tenerlos durante el tiempo que se tardó en la devolución (por ejemplo, sumando unos intereses). Sin embargo, los problemas surgen en nada que nos paramos a pensar un segundo: ¿una misma cantidad de dinero tiene el mismo valor para todo el mundo? ¿Son iguales 100 euros para un indigente que para un multimillonario? Eso es lo que pienso cuando voy conduciendo por la carretera y me pasa un Porsche a 170 Km/h.

Y la dificultad se hace más patente cuando comenzamos a intentar medir la proporcionalidad de ciertos daños, más cuando la sensibilidad al sufrimiento de cada individuo difiere significativamente. Por ejemplo, si yo insulto públicamente a una persona, lo proporcional sería que esa persona me insultara de la misma forma. No obstante, yo puedo ser un personaje público al que los insultos no le afectan demasiado (incluso, podría ser que los buscara a propósito con tal de que se hable de mí), mientras que el otro agraviado puede ser muy sensible al escarnio público, por lo que aquí la proporcionalidad no se conseguiría en un insulto por insulto. Como no podemos medir con precisión la cantidad de sufrimiento que proporciona tal o cual castigo, esta proporcionalidad es netamente imposible, cuánto más en esta época de ofendiditos en la red. Podría ser que a mí me provocara importantes daños emocionales ver rostros de gente poco agraciada físicamente en Instagram ¿Deberían compensarme los feos por el daño que me ocasionan? ¿Dónde está el límite entre lo que es razonable que ofenda y lo que no?

Tirando más del hilo nos encontramos con aún más problemas. Si suponemos que el crimen más grave es el asesinato, el castigo proporcional no podría ser más exacto que la pena de muerte pero, ¿cómo castigar proporcionalmente a alguien que ha asesinado a dos o más personas? Si con un asesinato el criminal tiene asegurada la pena de muerte, cuando ya ha matado a una persona, todos los demás crímenes que cometa le saldrán gratis. O, si no somos favorables a la pena de muerte pero sí a la cadena perpetua, tenemos el caso de que la pena será mucho más leve para un anciano o un enfermo terminal que morirán en la cárcel habiendo cumplido muy poco tiempo de condena, que para un joven con veinte años y una salud de hierro.

En la sociedad actual, las nuevas tecnologías de la información suponen novedades que deberían tenerse en cuenta a la hora de legislar, si queremos mantener lo más posible el principio de proporcionalidad. En el celebérrimo caso de la manada, los acusados fueron castigados con unos daños de cárcel supuestamente proporcionales al delito cometido. Independientemente con si esa sanción fue justa o no, los acusados fueron también sometidos a un linchamiento público por parte de los medios. Las redes sociales permitieron que sus fotos y datos biográficos fueran conocidos por todo el mundo, y que se hablara en el tono que se quisiera sobre ellos. Es decir, al clásico castigo carcelario se le añadió el nuevo castigo de vapuleamiento en la red que, muchos, podrían considerar incluso peor, o quizá más dañino a largo plazo, que el primero. En otros tiempos en los que no existían nuestros hipertrofiados medios de comunicación, un delincuente, una vez que pagaba su pena, podría empezar de nuevo sin que todo el mundo supiera de su turbio pasado, pero ahora eso es casi imposible. Entonces, cualquier juez robótico que se precie debería tener en cuenta dicho plus, quizá compensando al criminal con menos tiempo en prisión (si además del principio de proporcionalidad quiere mantener el principio de estabilidad). No deja de resultar chocante como hemos vuelto a formas de justicia medievales. Antes de la llegada del Estado Moderno, a los criminales se los linchaba públicamente, cuando no se los ahorcaba en la plaza del pueblo. Entonces, el nuevo contrato social estipuló que la capacidad de castigar delitos era una función exclusiva del Estado, evitando que nadie pudiera tomarse la justicia por su mano. Ahora, paradójicamente, volvemos a torturas medievales gracias a altas tecnologías.

Como vemos, crear un juez robot es algo muchísimo más completo de lo que hubiera soñado Leibniz, y aunque creo que es perfectamente posible, en contra de los que piensan que la justicia humana es algo irreductible a la automatización, no es algo que se vaya a conseguir en dos tardes. Impartir justicia es una tarea que requiere una muy profunda comprensión de la realidad de la que están lejos nuestra mejores inteligencias artificiales. Otra cosa, muy saludable, es que los jueces dispongan de software que le ayude en sus sentencias, como ya ocurre, no sin polémica eso sí, con el programa Compas en Estados Unidos.

Otro camino, que es el que se está usando ahora, es el de abandonar la programación simbólica y utilizar deep learning.  Así, se le da la base de datos a la red neuronal y se la va entrenando para que sus sentencias sean similares a las de los jueces profesionales. Aunque el porcentaje de aciertos suele ser muy alto, aquí nos encontramos con un gravísimo problema: la black box. Los algoritmos de deep learning no pueden explicar el porqué de sus resultados y eso, hablando de decidir sobre la condena de un ser humano, es inaceptable. No podemos tolerar de ningún modo que un software tome decisiones tan importantes sin que sepamos por qué lo ha hecho.  Hasta que tengamos una auténtica IA explicada, no podemos utilizar las redes neuronales para impartir justicia.