Cuando Descartes abre la Edad Moderna con su cogito ergo sum, nos viene a decir que el único punto indestructible, el único cimiento lo suficientemente sólido para construir el gran edificio del saber es el “Yo”, entendido como la totalidad del mundo psíquico de una persona. Todo lo que pienso puede ser falso, pero el hecho de que pienso es indudable, una verdad claradistinta.

Esta idea se ha tendido a interpretar, demasiadas veces, como que, aunque no tengamos certeza ni siquiera de la existencia de los objetos percibidos, sí que la tenemos con respecto de sus cualidades subjetivas, es decir, de lo que “aparece en mi mente” cuando yo percibo el objeto. Es posible que la manzana que percibo como roja no sea realmente roja, pero “la rojez” que yo percibo es absolutamente real y nadie podría negarme que, al menos en mi representación mental, la manzana es indudablemente roja. Sería posible que en el universo no hubiera nada rojo, pero yo estoy completamente seguro de que “en algún lugar de mi mente” yo estoy viendo algo rojo. En consecuencia, los informes introspectivos que un sujeto hace sobre sus representaciones mentales, sobre su mundo subjetivo, solían considerarse como infalibles. Nada más lejos de la realidad o, como mínimo, tendría que decirse que los informes introspectivos son tan dudosos como los informes del mundo exterior. No hay ninguna razón para darles esa primacía epistemológica. Hagamos un pequeño experimento.

El ángulo de nuestro foco de atención visual es muy pequeño. Fije el lector la vista en la letra X del centro de la tabla. Ahora intente identificar las letras que hay alrededor sin mover los ojos. Lo normal será que no pueda pasar de las ocho letras inmediatamente circundantes a la X. El resto de la tabla queda completamente borrosa.

Ahora apliquemos este pequeño descubrimiento a la percepción de una imagen real. Cuando observamos, por ejemplo, las Meninas de Velázquez, creemos que vemos algo así:

Cuando, verdaderamente, si nuestra atención se centra en la infanta Margarita, lo que vemos se parece más a esto:

Nuestro campo visual es mucho más borroso y desenfocado de lo que creemos experimentar y, por tanto, la cualidad de “claridad”, “enfoque”, “límite preciso” que parece tener nuestra experiencia visual, es tan solo una ilusión. Ergo, no podemos fiarnos, al menos siempre, de la veracidad de nuestras propias representaciones. Aunque parezca muy extraño, es posible no percatarse de lo que uno cree que se está percatando.

Pero podemos indagar un poco más. No solo ocurre que no puedo estar seguro de que veo lo que veo, sino que el informe lingüístico que hago cuando hablo de ello tiene serias limitaciones. Es lo que los filósofos de la mente llaman la inefabilidad de los qualia. Fíjese el lector en la siguiente escala de azules. En general, podemos distinguir bien unos tonos de otros.

Sin embargo, si queremos explicar a otra persona la diferencia entre unos colores u otros, pronto nos encontramos con que nuestro lenguaje es paupérrimo para esta tarea. Solamente se nos ocurre decir que unos colores son levemente más claros que otros o, en el caso de este ejemplo, podríamos referirnos a otros colores, diciendo que tal o cual azul tiene un toque más verdoso o más violeta. Ya está, no hay más palabras ¿Es nuestra ignorancia a nivel pictórico la causante de esta pobreza léxica? No, un profesional del color tampoco tiene muchas más expresiones que nosotros. Y es que la única forma de saber qué es un color (a nivel fenomenológico) es percibirlo directamente, porque sus propiedades son inefables. El ejemplo que siempre se utiliza por su calidad ilustrativa es que no podemos enseñarle a un ciego de nacimiento qué es el color azul. Imagine el lector cómo podríamos explicarle las diferencias entre los distintos tonos de azul ¡Imposible!

Una de las razones de ello es que las diferentes modalidades sensoriales (vista, olfato, tacto, etc.) son absolutamente irreductibles las unas a las otras. A no ser que seamos sinestésicos, no podemos explicar una experiencia sonora en términos de colores, sabores u olores. Solo podemos hablar de cada modalidad sensorial apelando a elementos dentro de la propia modalidad: puedo hablarle a alguien de un grupo de música que me gusta, refiriendo a la música de otros grupos musicales parecidos, pero no de otra manera.

Según un, ya clásico, estudio de Hasley y Chapanis de 1951, los humanos somos capaces de discriminar  unos 150 tonos de color subjetivamente diferenciados entre los 430 y los 650 nanómetros. Sin embargo, si se nos pide identificarlos con precisión, solo somos capaces de hacerlo con unos 15 tonos. Por ejemplo, si miramos la escala de azules somos perfectamente capaces de distinguir unos tonos de otros. Pero si se nos pidiera que seleccionáramos un color (por ejemplo el PMS 293) y después se nos mostrara otra escala con muchos otros tonos de color azul desordenados con ese color entre ellos, nos resultaría difícil encontrarlo. De la misma manera pasa con el sonido: un oyente promedio es capaz de discriminar unas 1.400 variaciones de tono, pero solo puede reconocer de forma aislada unas 80. Somos muchísimo mejores diferenciando colores o tonos musicales que reconociéndolos. En la percepción hay mucho de lo que no sabemos, o no podemos, hablar.

El problema de la inefabilidad supone un gran desafío a la ciencia. Si solo tenemos acceso a nuestros estados subjetivos mediante la introspección, y si tanto esta puede ser engañosa (El filósofo Daniel Dennett compara la consciencia con un hábil ilusionista), como nuestro lenguaje incapaz de hablar de ella, tendremos serios problemas para generar conocimiento de algo que, curiosamente, es lo más cercano e inmediato que tenemos.

Suele decirse que un buen método para saber si estás soñando consiste en pellizcarse. Si duele estás despierto y si no, estás soñando. Nada más lejos de la verdad: si estás soñando, a no ser que hayas sido entrenado en sueños lúcidos por Stephen Laberge, no sabes que estás soñando y no hay forma de saberlo. Por decirlo poéticamente, los sueños son unas prisiones perfectas: no puedes escapar de ellos porque, precisamente, no sabes que estás en uno de ellos. A esta propiedad la llamamos en filosofía de la mente transparencia.

La transparencia no es única de los sueños, sino que también es propia de nuestra percepción de la realidad. Todos nosotros nacemos realistas ingenuos (Naïve realism), pensamos que lo que observamos por nuestros sentidos es la auténtica y pura realidad al desnudo. Creemos que el árbol que tenemos delante de nuestros  ojos tiene esas formas y colores de un modo absolutamente objetivo. Es por eso que si viviéramos en la matrix de las Wachowski, no habría forma de escapar de allí hasta que Morfeo viniera a rescatarnos (solo pueden salvarte desde fuera, tú nunca podrías salir desde dentro). Pero, ¿es que acaso lo que percibimos no es el mundo real? ¿El árbol que veo delante de mis ojos no está, realmente, delante de mis ojos? No.

El primer argumento contra el realismo ingenuo va referido al tiempo. Creemos que lo que percibimos visualmente ahora mismo, está pasando, realmente, ahora mismo. Creemos que tenemos un acceso directo al presente. Sin embargo, esto es imposible: el cerebro necesita un tiempo para  procesar la información. Cuando vemos cualquier objeto, desde que la información visual golpea la retina y viaja por el nervio óptico, pasando por distintas áreas visuales y por el hipotálamo, hasta llegar a las zonas de asociación, pasan, como mínimo, unas milésimas de segundo. Por tanto, la representación mental que emerge en mi consciencia tiene, necesariamente, cierto lag, llega con retraso. No tenemos acceso directo al presente, sino solo a un pasado reciente. El árbol no está delante de nosotros, tan solo estaba delante de nosotros.

Otro argumento que a mí me parece muy sugerente (en la historia de la filosofía hay multitudes de ellos) es el basado en la teoría de la evolución que ya trajimos aquí con la teoría de la interfaz de Donald Hoffman.  Si la evolución biológica termina por premiar diseños eficientes, parece mucho más eficiente que no gastemos tantos recursos en percibir toda la realidad tal y cómo es, sino que utilicemos señales, símbolos, iconos, etiquetas, esquemas que nos permitan saber delante de qué estamos sin tener que saberlo todo. Si un tigre dientes de sable viene a devorarme, no hace falta que perciba todo lo que realmente es un tigre dientes de sable, sino solo lo necesario para saber que tengo que huir rápidamente de allí. Hoffman sostiene que nuestra mente es como el escritorio de nuestro ordenador, en donde los iconos representan los objetos que percibimos. El icono del reproductor de vídeo no se parece en nada a toda la serie de procesos electrónicos que suceden dentro del ordenador cuando ves un vídeo. Verdaderamente, a no ser que seamos ingenieros, no tenemos ni idea de cómo funciona todo ese mecanismo interno de voltajes, circuitos y transistores. Sin embargo, el icono funciona: cuando yo hago clic en él, el vídeo se escucha.

Pero aquí cabe otra pregunta: ¿por qué la evolución nos hizo realistas ingenuos? ¿Por qué hizo que la realidad se nos hiciera transparente? ¿Por qué engañarnos cual genio maligno cartesiano? Una posible respuesta nos la da Thomas Metzinger en la misma línea que Hoffman: porque requeriría un nuevo coste metabólico sin una finalidad evolutiva clara ¿Para qué me sirve saber que el icono “Tigre dientes de sable” no representa a un tigre dientes de sable real? Lo único que tengo que saber es que es muy peligroso y que hay que huir.

Aunque claro, aquí podemos entrar en un peligroso círculo vicioso: ¿Por qué yo he sido capaz, ahora, de darme cuenta de que no percibo la realidad tal y como es? ¿Por qué la evolución ha permitido que Hoffman y Metzinger lleguen a esta conclusión si no hay finalidad evolutiva alguna para ello? La respuesta está en que esta conclusión es el efecto colateral o secundario de otras habilidades que sí que tienen función evolutiva clara: nuestra capacidad de razonamiento, el lenguaje, la imaginación, etc. nos valen para sobrevivir, pero también para hacer otras cosas que no nos valen para nada. Es lo que llamamos el excedente cognitivo, si bien, para desarrollar esta idea convincentemente, requeriríamos muchas más explicaciones. Dese cuenta el lector que estamos ante una teoría no falsable en términos popperianos: afirmamos que todo tiene un origen biológico evolutivo, cuando lo encontramos todos contentos, pero cuando no, decimos que es un efecto colateral, exaptación, órgano rudimentario, etc. con un origen, igualmente, evolutivo. Siempre tenemos respuestas para todo y así siempre tenemos razón. Sospechoso. Hay que mejorar las explicaciones, afinar más: hay que profundizar mucho más en la teoría de la evolución. No me canso de afirmar que solo hemos tocado su superficie.

La transparencia solo se aplica a la observación directa de la realidad, al mundo que percibimos. Los demás contenidos de nuestra mente no son transparentes: cuando pienso, recuerdo, imagino, hablo… en los contenidos de esos procesos mentales no hay transparencia. Diferenciamos perfectamente la imagen mental de un coche de un coche de verdad. De la misma forma, la palabra “coche” no es un coche. Aquí la función evolutiva es clara: difícilmente sobreviviríamos si no supiésemos diferenciar el recuerdo de un tigre dientes de sable de uno de verdad. Y gran parte de la disfuncionalidad que causan ciertos trastornos psiquiátricos va en esta línea: los objetos mentales se vuelven transparentes, no hay forma de saber que no son reales.

 

He leído en varias ocasiones, con torcida perplejidad, a expertos en áreas tecnológicas afirmar, con suma tranquilidad, que la tecnología ni es buena ni mala, que todo depende del uso que se le dé. Así, un cuchillo puede servir tanto para cortar el tan necesario alimento, como para apuñalar al prójimo. Por consiguiente, los empresarios-ingenieros-fabricantes quedan exonerados de toda culpa por diseñar cualquier artefacto, cayendo la totalidad de la responsabilidad en el usuario. Grave error para, como es habitual, metérnosla doblada.

La tecnología no es, de ningún modo, neutra éticamente. Veamos una serie de argumentos para dejarlo claro como el agua:

1.Toda tecnología requiere unos materiales y un coste energético, por lo que cabe preguntarse: ¿Cuán de escasos son esos recursos?  Si son escasos ¿no se necesitarán para otro objetivo éticamente más importante que el que yo les voy a dar? ¿Cómo de difícil es su extracción? ¿Se pondrán en peligro vidas para ello? Famoso es el debate acerca de los materiales con los que se construyen nuestros teléfonos móviles: ¿es ético producir y consumirlos sabiendo de donde vienen sus componentes? En lo que respecta a la IA, hasta hace poco nadie parecía caer en su elevado coste medioambiental cuando la enorme necesidad de capacidad de cómputo dada la notoria ineficiencia del deep learning es muy patente. La IA no es ecofriendly, y eso merece una profunda reflexión.

2. Toda tecnología requiere un proceso de producción: ¿dónde y quién lo realiza? ¿Los trabajadores reciben un salario justo y sus condiciones laborales son adecuadas? Mucho se ha debatido sobre las condiciones laborales de las fábricas asiáticas, donde se produce, prácticamente, todo la tecnología que consumimos. A través de Pinker, he leído estos días sobre la interesante, y polémica, idea de la curva de Kuznets: tras un periodo de gran desigualdad, cuando los países llegan a un alto nivel de desarrollo, la desigualdad se reduce. Quizá no justifique éticamente esa desigualdad, pero en ausencia de alternativas viables en esos países, es posible que sea la mejor opción (si bien también se ha discutido si su base empírica se sostiene).

3. Toda tecnología genera residuos, por lo que cabe preguntarse: ¿que residuos va a generar la nuestra? ¿Son biodegradables? ¿Cuál será su impacto medioambiental? ¿Dónde se almacenan y en qué condiciones? Así, tenemos el gran debate sobre la idoneidad de los coches eléctricos. Por un lado parecía que eran mucho más ecológicos, pero cuando caemos en lo que contamina generar la electricidad que consumen, vemos que no lo son tanto. En está línea está la polémica con respecto a las centrales nucleares. Yo creo firmemente que el sector ecologista que las critica está equivocado. Si hacemos un balance de pros y contras, y a falta de que la energía solar mejore, son una magnífica opción y una buena forma de luchar contra el cambio climático.

4. Toda tecnología tiene efectos secundarios no previstos por los diseñadores. Por eso todo proyecto tecnológico tiene que ir acompañado de una buena evaluación de riesgos. Ya hablamos aquí hace tiempo de la elegante definición de eficiencia tecnológica de Quintanilla: una máquina es eficiente si utiliza los medios más económicos para llegar a sus objetivos y a nada más que a sus objetivos. Esta última parte es la clave: hay que intentar que no se nos escape nada, y si no podemos evitar que se nos escape (realmente, es muy difícil predecir a medio y largo plazo cómo estará el tema), al menos, hacer una sesuda reflexión sobre ello y ponderar razonablemente si merece o no la pena.

5. Toda tecnología tiene posibles usos perversos ¿cuáles son y cuál puede ser su gravedad? ¿Hasta dónde puedo garantizar que no se lleven a cabo? Por ejemplo, parece evidente que si yo creo un método de edición genética que permite a cualquier persona del mundo, sin conocimientos de bioquímica, crear en su casa un virus letal, no deberé sacar a la luz tal tecnología. Y aquí es donde mejor se ve la no neutralidad ética de la tecnología: no es éticamente lo mismo diseñar una vacuna que una bomba de hidrógeno, porque los posibles usos perversos de la segunda son mucho mayores que los de la primera. Resulta muy curioso como en el caso de la IA, se haga más mención al uso perverso que “ella misma” hará contra nosotros (la famosa rebelión de las máquinas), más que del uso perverso que muchos humanos harán de ella. Y, del mismo modo, también resulta curioso que se sobredimensionen sus peligros y usos negativos (los killer robots o los algoritmos sesgados) cuando sus usos positivos son infinitamente más beneficiosos para la humanidad que estos posibles perjuicios. En la IA, igual que pasa con la ingeniería genética, se está ponderando muy mal su uso futuro.

6. Toda tecnología tiene un grado de impacto global: no es lo mismo un invento que hago en mi casa y se queda allí, que algo que tenga muchísimas repercusiones a todos los niveles. Por ejemplo, yo invento un cereal transgénico cuyas cualidades abaratan muchísimo sus costes de producción y, por tanto, su precio final. Supongamos que existe un pequeño país cuyo principal producto de exportación es el cereal. Entonces, he de prever qué efectos sobre la economía de ese país tendrá que yo saque al mercado mi producto. Si que yo me forre implica que condene a un país a la hambruna y a la miseria, he de repensar mi estrategia y buscar otras vías. Además, en un mundo globalizado donde todo está interconectado, hay que tener en cuenta que lo que uno hace en Londres, puede tener repercusiones en Tokio, es decir, que el grado de impacto de cualquier cosa que se haga es, potencialmente, mucho mayor que antaño, por lo que, igualmente, el grado de responsabilidad crecerá a la par.

El error de pensar en la neutralidad de la técnica está en pensar entendiendo los diversos agentes y elementos sociales de forma aislada cuando, verdaderamente, nada se da de forma aislada. Tanto más cuando un desarrollo tecnológico es, en la actualidad, una tarea inmensa. Así creo que una buena forma de entender la globalidad o localidad de cualquier evento es la teoría de sistemas: entender los fenómenos sociales como sistemas o partes de los mismos, siendo un sistema un conjunto de elementos y de interrelaciones entre ellos y otros sistemas. De este modo podemos extender nuestra responsabilidad ética cuando creamos algo: no solo hay que estudiar lo que ocurrirá en nuestro sistema al introducir el nuevo elemento, sino qué consecuencias tendrá en los demás.

Imagen del artista callejero Ludo.

 

En una romántica búsqueda de conseguir un sistema jurídico perfecto, vamos a crear un juez robot que no se vea influido por esos sesgos que hacen que los humanos fallemos una y otra vez en la sagrada tarea de impartir justicia. A primera vista, sencillamente, podríamos dotar a un algoritmo con la base de datos lo más potente posible sobre casos anteriores que crearon jurisprudencia. Entonces, ante cualquier decisión, nuestro juez electrónico solo tendría que buscar en su memoria el caso que más se asemejara al presente y aplicar la misma sentencia. Bien, pero pronto comenzarían los problemas, dado que las, a priori, pequeñas diferencias entre los casos pasados y los actuales, pueden ser mucho más grandes de lo que parecen, y ante esa novedad no prevista, nuestro programa debería ser capaz de dar una justa respuesta. Nos encontraremos casos en los que ni las sentencias anteriores ni la ley parecen dar una respuesta clara y concisa, por lo que nuestro robot necesitará reflexionar. Es por eso que suele decirse que las leyes no se aplican sino que se interpretan.

Entonces, no nos quedará otra que programar al robot con una serie de directrices que le sirvan para interpretar toda nueva circunstancia, una serie de principios de justicia. Hagámoslo: para que consideremos una condena  como justa, tiene que darse una serie de condiciones que nuestro robot debería tener grabada a fuego en su placa base:

  1. Conocimiento: el juez robot ha de contar con toda la información relevante para determinar la sentencia. Es por eso que muchas veces se habla de “falta de pruebas”, cuando no hay información suficiente para determinar si el sospechoso es culpable o no. Importante es entonces saber que casi nunca se cuenta con toda la información: a pesar de que estemos casi seguros de que el asesino es el mayordomo, nadie más que asesino y asesinado estuvieron presentes en el momento del crimen. Entonces, casi toda condena entraña una incertidumbre que hay que determinar si es asumible o no.
  2. Imparcialidad: el juez robot no ha de beneficiar a ninguna de las partes interesadas debido a cualquier motivo que no esté estrictamente relacionado con el asunto a juzgar. Aquí el problema no estaría ya en la corrupción pura y dura que asola los sistemas judiciales de medio mundo, sino en los sesgos inconscientes ocultos en la mente del juez. Esto es, precisamente, lo que se intenta subsanar con los jueces robóticos, y aunque la prensa amarillista nos haya mostrado siempre lo contrario, la inteligencia artificial es una tecnología muy apropiada para evitarlos. No hay nada más fácil, si quieres construir una máquina que no sea racista, que hacerla ciega al color de piel.
  3. Proporcionalidad: el castigo debe ser proporcional al delito cometido. No es justo que me condenen a diez años de trabajos forzados por robar una barra de pan, ni tampoco es justo que me condenen a un día de cárcel por un triple asesinato.
  4. Estabilidad o consistencia: en casos similares que se dan en otro momento del tiempo, los castigos han de ser similares. La justicia no ha de cambiar con el tiempo, ya que crearíamos agravios comparativos entre casos iguales. Si miramos la historia de la humanidad vemos que eso no se ha cumplido para nada, y que los castigos por las mismas penas han ido cambiando. Antes, por regla general, eran muchísimo más duras y las prisiones bastante menos humanas que las de hoy. La explicación, algo presuntuosa por parte de nuestro presente eso sí, está en decir que en el pasado se equivocaban y que nosotros hemos perfeccionado el sistema para hacerlo más justo, de modo que el agravio comparativo se da solo hacia los que tuvieron la mala fortuna de ser juzgados en el pasado.

Vamos a centrarnos en el 3, en el principio de proporcionalidad. Explicarlo es muy fácil, pero llevarlo a la práctica es harto complejo. Sencillamente dice que el castigo a aplicar debe ser proporcional a la magnitud del delito. La proporcionalidad más perfecta es la lex talionis, el bíblico “ojo por ojo, diente por diente”: aplicar al culpable del delito exactamente lo mismo que le ha hecho a la víctima. En algunos casos es relativamente sencillo. Si me han robado 100 euros, han de devolvérmelos con un plus añadido por el perjuicio que me ocasionó no tenerlos durante el tiempo que se tardó en la devolución (por ejemplo, sumando unos intereses). Sin embargo, los problemas surgen en nada que nos paramos a pensar un segundo: ¿una misma cantidad de dinero tiene el mismo valor para todo el mundo? ¿Son iguales 100 euros para un indigente que para un multimillonario? Eso es lo que pienso cuando voy conduciendo por la carretera y me pasa un Porsche a 170 Km/h.

Y la dificultad se hace más patente cuando comenzamos a intentar medir la proporcionalidad de ciertos daños, más cuando la sensibilidad al sufrimiento de cada individuo difiere significativamente. Por ejemplo, si yo insulto públicamente a una persona, lo proporcional sería que esa persona me insultara de la misma forma. No obstante, yo puedo ser un personaje público al que los insultos no le afectan demasiado (incluso, podría ser que los buscara a propósito con tal de que se hable de mí), mientras que el otro agraviado puede ser muy sensible al escarnio público, por lo que aquí la proporcionalidad no se conseguiría en un insulto por insulto. Como no podemos medir con precisión la cantidad de sufrimiento que proporciona tal o cual castigo, esta proporcionalidad es netamente imposible, cuánto más en esta época de ofendiditos en la red. Podría ser que a mí me provocara importantes daños emocionales ver rostros de gente poco agraciada físicamente en Instagram ¿Deberían compensarme los feos por el daño que me ocasionan? ¿Dónde está el límite entre lo que es razonable que ofenda y lo que no?

Tirando más del hilo nos encontramos con aún más problemas. Si suponemos que el crimen más grave es el asesinato, el castigo proporcional no podría ser más exacto que la pena de muerte pero, ¿cómo castigar proporcionalmente a alguien que ha asesinado a dos o más personas? Si con un asesinato el criminal tiene asegurada la pena de muerte, cuando ya ha matado a una persona, todos los demás crímenes que cometa le saldrán gratis. O, si no somos favorables a la pena de muerte pero sí a la cadena perpetua, tenemos el caso de que la pena será mucho más leve para un anciano o un enfermo terminal que morirán en la cárcel habiendo cumplido muy poco tiempo de condena, que para un joven con veinte años y una salud de hierro.

En la sociedad actual, las nuevas tecnologías de la información suponen novedades que deberían tenerse en cuenta a la hora de legislar, si queremos mantener lo más posible el principio de proporcionalidad. En el celebérrimo caso de la manada, los acusados fueron castigados con unos daños de cárcel supuestamente proporcionales al delito cometido. Independientemente con si esa sanción fue justa o no, los acusados fueron también sometidos a un linchamiento público por parte de los medios. Las redes sociales permitieron que sus fotos y datos biográficos fueran conocidos por todo el mundo, y que se hablara en el tono que se quisiera sobre ellos. Es decir, al clásico castigo carcelario se le añadió el nuevo castigo de vapuleamiento en la red que, muchos, podrían considerar incluso peor, o quizá más dañino a largo plazo, que el primero. En otros tiempos en los que no existían nuestros hipertrofiados medios de comunicación, un delincuente, una vez que pagaba su pena, podría empezar de nuevo sin que todo el mundo supiera de su turbio pasado, pero ahora eso es casi imposible. Entonces, cualquier juez robótico que se precie debería tener en cuenta dicho plus, quizá compensando al criminal con menos tiempo en prisión (si además del principio de proporcionalidad quiere mantener el principio de estabilidad). No deja de resultar chocante como hemos vuelto a formas de justicia medievales. Antes de la llegada del Estado Moderno, a los criminales se los linchaba públicamente, cuando no se los ahorcaba en la plaza del pueblo. Entonces, el nuevo contrato social estipuló que la capacidad de castigar delitos era una función exclusiva del Estado, evitando que nadie pudiera tomarse la justicia por su mano. Ahora, paradójicamente, volvemos a torturas medievales gracias a altas tecnologías.

Como vemos, crear un juez robot es algo muchísimo más completo de lo que hubiera soñado Leibniz, y aunque creo que es perfectamente posible, en contra de los que piensan que la justicia humana es algo irreductible a la automatización, no es algo que se vaya a conseguir en dos tardes. Impartir justicia es una tarea que requiere una muy profunda comprensión de la realidad de la que están lejos nuestra mejores inteligencias artificiales. Otra cosa, muy saludable, es que los jueces dispongan de software que le ayude en sus sentencias, como ya ocurre, no sin polémica eso sí, con el programa Compas en Estados Unidos.

Otro camino, que es el que se está usando ahora, es el de abandonar la programación simbólica y utilizar deep learning.  Así, se le da la base de datos a la red neuronal y se la va entrenando para que sus sentencias sean similares a las de los jueces profesionales. Aunque el porcentaje de aciertos suele ser muy alto, aquí nos encontramos con un gravísimo problema: la black box. Los algoritmos de deep learning no pueden explicar el porqué de sus resultados y eso, hablando de decidir sobre la condena de un ser humano, es inaceptable. No podemos tolerar de ningún modo que un software tome decisiones tan importantes sin que sepamos por qué lo ha hecho.  Hasta que tengamos una auténtica IA explicada, no podemos utilizar las redes neuronales para impartir justicia.

En nuestros sistemas liberales, la mayoría de la gente (exceptuando a los igualitaristas más radicales) está dispuesta a aceptar cierto nivel de desigualdad social o económica, siempre que se parta del principio de igualdad de oportunidades. Robert Nozick lo explicaba muy bien con su famoso argumento de Wilt Chamberlain. Supongamos que nos gusta mucho el baloncesto y estamos dispuestos a pagar cierto dinero por ir a ver a jugar a los Lakers. Supongamos también que el beneficio de esas entradas se reparte equitativamente entre todos los jugadores. Sin embargo, Wilt Chamberlain es excepcionalmente bueno, por lo que él propone que si queremos verlo jugar, paguemos un pequeño extra en nuestras entradas que iría íntegramente para su bolsillo. A la mayoría de la gente le parece un buen trato, ya que ver a Chamberlain jugar es todo un espectáculo por el que merece la pena pagar un poco más de dinero. Entonces, Chamberlain gana más dinero que sus compañeros de equipo, se ha generado una desigualdad económica, pero en ella no parece haber nada éticamente reprobable: el público eligió libremente pagar una entrada más cara por ver a Chamberlain, y podríamos decir que Chamberlain merece más dinero ya que su talento y dedicación al equipo es mayor que el del resto de los jugadores. Además, se respetó perfectamente el principio de igualdad de oportunidades: todos los jugadores de los Lakers compitieron en igualdad para ser los mejores del equipo y Chamberlain lo consiguió sin ninguna duda.

El argumento de Nozick es muy ilustrativo para explicar por qué en nuestras sociedades alguien como Leonel Messi, que lo único que hace, aunque lo haga excepcionalmente bien, es darle patadas a un balón, cobre muchísimo más que un científico que está investigando la cura contra el cáncer. Parece algo muy injusto pero, realmente, no lo es: nosotros, al poner el partido en la tele, comprar su camiseta o ir al estadio a verlo, estamos eligiendo democráticamente que merece más la pena ver jugar a Messi que invertir en investigación para la cura de enfermedades. Si somos imbéciles, al menos, nadie nos está obligando a serlo. Nozick defiende el derecho a decidir por encima de la obligación moral de ayudar a los otros. Nos merecemos, con total justicia, la sociedad que tenemos pero, al menos, la habríamos elegido nosotros.

Pero la idea a la que queremos llegar es esta: ¿es cierta, o al menos posible o deseable, la igualdad de oportunidades? Si echamos un somero vistazo a la realidad social que nos rodea vemos que, con total contundencia, la igualdad de oportunidades no existe. Un chico proveniente de una familia rica y culta que le proporciona todas las facilidades para que estudie, no parte en igualdad de condiciones que otro de familia humilde, que comparte su minúscula habitación con otros tres hermanos, que no tiene ni siquiera un buen escritorio donde estudiar, y al que su padre le repite una y otra vez que no pierda el tiempo con los libros y que se ponga ya a trabajar y a ganar dinero.

¿Cómo podríamos solucionar algo así? Completamente imposible: habría que aislar a todo recién nacido de sus influencias familiares, educándolo estatalmente en una especie de comuna tal y como soñaba Platón, lo cual no parece para nada deseable. A mí me gusta muchísimo más una sociedad con una gran diversidad de familias que inculquen a sus hijos los más distintos valores y objetivos vitales, que otra en la que todos los niños sean educados por igual en la competencia por maximizar el éxito socio-económico.

Pero es que ni aún así habría igualdad de oportunidades porque, de nuevo, cada niño no partiría desde la misma posición. A día de hoy tenemos cada vez más evidencias que relacionan el cociente intelectual o la capacidad de esfuerzo de una persona con sus genes. Entonces, cuando una persona nace con unos genes que le dan un CI más alto que el de sus competidores, ya no parte desde la misma línea de salida, sino que tiene una ventaja crucial. Yo, como profesor, me encuentro constantemente ante la injusticia de tener que poner buena nota a alumnos vagos pero muy inteligentes, mientras que suspendo a otros que trabajan mucho más que ellos, pero que están menos dotados intelectualmente. Tener o no talento es consecuencia de la lotería genética, y no hay nada más injusto que la lotería.

Segundo mito del liberalismo: la meritocracia. De nuevo, parece razonable aceptar desigualdades siempre y cuando el que recibe más lo haga en función de su mérito. Solo nos parecería injusto el hecho de que alguien obtenga más que los demás si no lo merece. Echemos, de nuevo, un vistazo a nuestra sociedad: ¿se da una clara meritocracia? De nuevo, parece que no ¿Por qué? El fallo reside aquí en las diferencias de remuneración: no existe una correspondencia entre la distribución de los beneficios y el mérito.

Un ejemplo: Messi cobra unos 40 millones de euros, mientras que el sueldo anual de un médico en España puede rondar los 30.000 euros. Hacemos el sencillo cociente y comprobamos que Messi cobra 1.300 veces más que un médico. Es difícil cuantificar el mérito de lo que hace un futbolista de élite pero por mucho que le demos vueltas, no creo que tenga 1.300 veces más mérito que lo que hace un médico. En nuestro mundo la distribución de la riqueza es, claramente, injusta y no obedece a criterios de mérito (seguramente, influye muchísimo más la suerte que el talento como sostiene este estudio). Esta página te ofrece ver en qué posición estás con respecto al resto del mundo en función de tus ingresos (curioso que si eres un mileurista en España estás dentro del 7% de las personas más ricas del planeta).

La igualdad de oportunidades y la meritocracia, dos principios básicos sin los cuales nadie aceptaría el liberalismo como sistema de distribución de bienes sociales y económicos son mitos. Y, evidentemente, la idea de que se autorregulan de alguna manera sin la injerencia de los estados mediante la mano invisible de Adam Smith es, igualmente, un mito.

Entonces, ¿ya está? ¿Nos lanzamos a las calles para destruir los cimientos de nuestro sistema? De ninguna manera. Que estos dos principios básicos sean imposibles, y ni siquiera deseables si los aplicáramos con todo su rigor, no implica que no puedan utilizarse como ideales regulativos. Lo explico: nunca los conseguiremos plenamente, pero eso no quita que tengamos que estar constantemente intentándolo ya que, dada cualquier situación concreta, será más justa si en ella se dan que si no. De hecho, no podemos renunciar a ellos porque nadie querría vivir en la plena injusticia. Imaginad un mundo en el que no exista en absoluto respeto por la igualdad ni por la meritocracia… ¡Sería algo así como volver al estado natural de Hobbes en donde homo homini lupus!

¿Y cuál es la forma de llevar esto a la práctica? Cuando se entra en discusiones en las que se defiende o ataca la educación pública, creo que el gran argumento a su favor está aquí: servir de trampolín socio-económico. La educación pública será el gran catalizador de la igualdad de oportunidades y de la meritocracia. Va a permitir que individuos mejoren su situación en base a su mérito y talento y, al fomentar esa movilidad social, sirve para reducir la desigualdad extrema. Sirve, en este sentido, como un re-distribuidor de riqueza y estatus social. Por eso es tan sumamente importante defender nuestros sistemas educativos, y no llego a entender la pequeña partida presupuestaria que un país como España les administra.

Con esto no estoy diciendo, huelga decir, que no debería existir la educación privada. Me parece totalmente saludable que exista, sobre todo porque es muy positivo que existan centros de enseñanza alternativos al modelo oficial del estado, de modo que se fomente la divergencia de formas de ser y pensar. Además, con ella se posibilita el derecho de los padres a elegir qué tipo de educación deben recibir sus hijos. No obstante, la educación privada debería ser minoritaria o, al menos menos importante que la pública, debido a que una sociedad donde la privada fuera mayoritaria la función esencial de trampolín social quedaría diluida.

Nozick defiende la idea de un estado mínimo que, por un lado parece muy aceptable pero por otro no. Sostiene que solo debe existir el estado necesario para mantener los derechos fundamentales (que para él, esencialmente, es el derecho a la propiedad). Estoy de acuerdo en que es cierto que el estado no debe engordarse innecesariamente (y de hecho sucede muchísimo, siendo un síntoma inequívoco de corrupción), pero difiero en lo que debe considerarse por “mínimo”, porque para mí hay tres elementos que jamás podrían ser completamente privados: sanidad, educación y justicia. Nozick argumenta a favor de una sanidad y una educación completamente privadas, pero no consigue hacerlo con solvencia cuando nos referimos a la justicia. Y es que no hay por dónde cogerlo: ¿cómo sería posible una justicia privada? ¿Cómo podríamos tener un sistema de justicia privado que diera el mismo servicio a pobres y a ricos?

Hoy un cuentecillo de ciencia ficción:

 

Macbeth:

She would have died hereafter.

There would have been a time for such a word-

Tomorrow, and tomorrow, and tomorrow,

Creeps in this petty pace from day to day,

To the last syllable of recorded time;

And all our yesterdays have lighted fools

The way to dusty death. Out, out, brief candle!

Life’s but a walking sahdow, a poor player

That struts and frets his hour upon theistage

And hen is heard no more. It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

***

Michael Chorost tenía un implante coclear en el interior de su cráneo que captaba una señal de radio de un pequeño receptor de audio instalado en su oído, la procesaba electrónicamente y transmitía la información al cerebro por medio de los nervios auditivos. Chorost podía desconectar el receptor de audio y conectar el dispositivo a un teléfono o reproductor de CD. Eso le permitía experimentar el sonido sin la presencia de ninguna onda de sonido en la sala en la que se encontraba. El sonido solo se reproducía en su cerebro sin ninguna vibración del aire, no existía fuera de él.

***

En 2013, el equipo de neurocientíficos del MIT dirigido por Xu Liu, consiguió introducir recuerdos falsos en el cerebro de ratones. Mediante una técnica denominada “optogenética”, que permitía activar o desactivar neuronas utilizando luz, consiguieron que los ratones sintieran miedo ante la posibilidad de una descarga eléctrica que jamás habían recibido y que, por tanto, era imposible que recordaran. Resulta llamativo que el primer recuerdo falso creado en un organismo fuera el miedo.

***

“Somos mirlos en los ojos de otros mirlos que se van”

Fragmento de la canción Héroes del sábado de la M.O.D.A.

***

¿Qué narrativa le ponemos al 22-43?

Vale, es difícil. Tiene treinta y cuatro capas. Si borramos a su mujer y a sus dos hijas tenemos que irnos muy atrás. Conoció a su esposa hace doce años, lo que nos lleva veinte capas al completo. El problema está en que tenemos que corregir muchísimas posibles incoherencias. El indicador de coherencia Veiger-Kuznets está a -0.24. A ver cómo cuadramos el hecho de trabajar como alto ejecutivo en la empresa de su suegro sin tener titulación académica ni para entrar como empleado de limpieza.

¿Qué te parece ésta, la 34A-3.765 a partir del vector 5.687.432? Se dio cuenta de que había perdido el tiempo, volvió a retomar los estudios. Para disminuir la incoherencia lo convertimos en una rata de biblioteca: en todos sus años de universidad no conoció a casi nadie.

Espera, su grado de extroversión es de 2.92, no encaja ¿Tenemos el permiso para modificar módulos nucleares de personalidad?

Sí, lo tenemos. El tío estaba realmente jodido. No le importaba nada con tal de olvidarlo todo.  Podemos convertirlo en tímido e introducirle trazas de fobia social.

Vale, pero no te pases. Recuerda que el cliente paga para ser más feliz. Si ahora lo convertimos en un agorafóbico no quedará muy contento. Que sea algo suave: sencillamente, se encuentra incómodo en lugares atestados de gente y disfruta mucho de su soledad.

Bien, cargo narración en los sectores 6C y 2WW ¿Correcto? Vamos también a borrar dos años completos aquí y aquí. Esos no parecen haber tenido demasiadas consecuencias en ningún hecho trascendente posterior.

Carga despacito. Recuerda lo sensible que es el hipotálamo. No queremos que el cliente termine con amnesia anterógrada.

Hay que meterle también el pack plus, la narrativa de Eduardo Vaquerizo. Es realmente magnífica. Es que Vaquerizo es el mejor escritor de narrativas neurales del mundo. Recrea emociones y sensaciones con una vivacidad increíble. Yo mismo me implanté un minipack de fin de semana. Ese de esquiar en Aspen y conocer a esa jovencita bielorrusa.

Y lo más interesante: sin que tu mujer se enterara. Jajaja.

Es que técnicamente, nunca he sido infiel a mi esposa ¿Por qué va a ser infidelidad acostarme con una chica que no existe? Jajaja.

Nunca he entendido lo de implantarte recuerdos manteniendo la consciencia de que son falsos ¿No te parece raro acordarte de cosas que nunca pasaron?

No pasa nada. Lo recuerdas exactamente igual que si hubiera ocurrido. Recuerdo perfectamente la montaña, los tejados nevados de las casas, los álamos, el viento frío en mi cara, los profundos ojos azules de la chica, el tacto de su pecosa piel… Mi mente no diferencia ese fin de semana de cualquier otro.

Ya, pero, no es verdad. Al implantarte falsos recuerdos estas creando conexiones causales en tu personalidad que vienen de la nada. Actuamos con respecto a nuestra experiencia pasada, esas narraciones configuran nuestro ser actual ¿No te parece inquietante modificarte a ti mismo a raíz de sucesos que nunca sucedieron?

No. De hecho, ese recuerdo me hace más feliz. No veo nada de malo en implantarnos falsos recuerdos si eso nos mejora. De hecho, gracias a ese fin de semana falso sé esquiar mejor.

¿Y no te lías? Cuando ya te has implantado un montón de falsos recuerdos… ¿No te perturba no saber cuáles fueron reales y cuáles no?

Tampoco es tan importante. Pero ya sabes que los recuerdos falsos están etiquetados, llevan la F-tag, de modo que siempre sabes que son falsos.

No sé… yo siempre digo con orgullo que soy cien por cien real: no tengo ni un solo recuerdo falso.

Tú lo que eres es virgen. Jaja. Te estás perdiendo un montón de cosas. La vida real es, en la mayoría de las veces, tan sombría y aburrida ¿Por qué no aliñarla con un toque de fantasía?

Es que no es exactamente fantasía, no es como leer un libro o ver una película, es meter en tu mente historias que nunca sucedieron… Es interferir en tu identidad biográfica.

¿Y qué haces cuando lees un libro? ¿Es que lo que lees no te influye? ¿No interfiere en tu identidad biográfica? Implantarse falsos recuerdos solo es dar un paso más.

Vale, terminamos. La historia es la de siempre: le han ascendido y comienza una nueva vida en una ciudad diferente. Se despertará en el vuelo que le lleva destino a Osaka. Las clásicas molestias cerebrales serán achacadas, como siempre, al jet lag. Terminamos por hoy. Mañana chequeamos las líneas de conexión interperiféricas, reparamos el daño neuronal y hacemos el análisis de niveles bioquímicos.

Cierro el compilador. Apagamos la consola y lo dejamos toda la noche cargando.

Vamos, te invito a una cerveza en el Diamond.

No, hoy no puedo. Mi mujer está muy pesada con el embarazo. Se ha vuelto bastante más territorial que de costumbre, así que nada de amigotes por un tiempo.

¿Seguro? Vamos, solo una birra y a casa.

No, no me tientes. De verdad que luego no hay quien la soporte.

Oye, una cosa: ¿cómo se llama?

¿Quién?

Tu mujer.

¿Mi mujer?

Sí, tu mujer.

Ya lo sabes, la conoces desde hace años ¿Por qué me lo preguntas?

Por nada, pero respóndeme, ¿Cómo se llama tu mujer?

¿Mi mujer?

Sí.

Jajaja… pues… joder… pues… espera.

El nombre de tu mujer.

Espera… jajaja… Eh… se me ha ido… espera…

Vamos, es muy fácil: su nombre.

Ya… no sé… lo tengo en la punta de la lengua.

Nada, chicos, otra vez, no ha funcionado.

No, pero… ¿qué pasa? ¿Por qué no la recuerdo?

Habrá que empezar de nuevo desde el vector 34.765.009 ¿Por qué falla siempre a partir de esa zona?

Un momento… explica… ¿qué pasa?

Lo siento tío. La chica de Aspen no es un falso recuerdo en tu mente sino al contrario: tú eres un falso recuerdo en la suya.

¿Cómo? No puede ser… jajaja. Venga tío no tiene gracia.

Sí, el nuevo minipack de fin de semana romántico para mujeres de Eduardo Vaquerizo. Tú eres el atractivo ingeniero de subjetividad infiel que conocen en la estación de esquí. Estamos probando tus líneas de coherencia.

Sí claro… venga tío… No puede ser… yo… yo…

Lo siento. Venga chicos, parar la simulación, vamos a ver si podemos depurar a partir del tercer breakpoint.

No puede ser… veo mi mano, es real… Yo… lo siento… siento el mundo que me rodea… yo… estoy vivo… o… existo… yo existo…

Una pena. Ha sido un placer. Reiniciamos.

 

It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

 

Condición necesaria, que no suficiente (ni mucho menos) para crear consciencia artificial: que la máquina tenga un automodelo, un mapa de sí misma ¿Y qué es el sí mismo? Bueno, sin meternos en complejas disquisiciones, pongamos de primeras, un mapa de su cuerpo ¿Y qué tipo de mapa? No una representación realista de su propia estructura, sino un mapa de relaciones dinámico. Para ser económicamente eficientes en términos de fitness biológico (seguimos la hipótesis de Hoffman), la máquina solo debe percibir las relaciones entre sus partes y el entorno que le permitan actuar con efectividad en él.  Y esto ya se hizo en 2006:

Las primeras máquinas automodélicas ya han aparecido. Investigadores en el campo de la vida artificial comenzaron a simular procesos evolucionistas hace tiempo, pero ahora tenemos una disciplina académica denominada “robótica evolutiva”. Josh Bongard, del Departamento de Ciencias de la Computación de la Universidad de Vermont, y sus colegas Víctor Zykov y Hod Lipson, han creado una estrella de mar artificial que desarrolla gradualmente un automodelo interno. Sus máquinas de cuatro patas utilizan relaciones de actuación-sensación para inferir directamente su propia estructura y luego utilizan ese modelo para generar locomoción. Cuando se le priva de parte de sus patas, la máquina adapta su automodelo y genera un paso alternativo – aprender a cojear. A diferencia de los pacientes con miembros fantasmas[…], puede reestructurar su presentación corporal posterior a la pérdida del miembro; por tanto, en cierto sentido, puede aprender. Como dice su creador, puede “recomponer su propia topología con un poco de información previa”, optimizando constantemente los parámetros de su automodelo resultante. La estrella de mar no solo sintetiza su automodelo interno, sino que también lo utiliza para generar comportamiento inteligente.

Thomas Metzinter, El túnel del Yo

 

¿Por qué lo que hicieron Bongard et al. fue un trabajo magnífico?

  1. La estrella de mar no tiene un automodelo dado desde el principio, sino que tiene que construirlo. Seguramente, los humanos no nacemos con el mapa de nuestro cuerpo completamente configurado, sino que lo construimos, como mínimo, parcialmente.
  2. Lo va reconfigurando constantemente, de modo que lo hace mejor que nosotros. La estrella de mar no tiene el “síndrome de la extremidad fantasma” como nos pasa a los humanos. No solo investigamos sobre la consciencia sino que encontramos la forma de subsanar sus errores.
  3. El automodelo le sirve para actuar en la realidad. No entendemos aquí el autoconocimiento como un epifenómeno, como un añadido sin función ni como un efecto secundario. Gracias al automodelo evalúa su estado y actúa en consecuencia. Creo que es el camino acertado para entender la función evolutiva de la consciencia.

Después del más que desagradable asunto de las gemelas modificadas genéticamente por el científico He Jiankui, ahora tenemos al biólogo ruso Denis Rebrikov, queriendo emular al chino. Estas locuras, reprochables a todos los niveles, parecen dar la razón a todos los bioconservadores que se manifiestan en contra de cualquier forma de edición genética. Parecen decirnos ¿Veis lo que pasa si jugamos a ser dioses? Todavía no hemos hecho casi nada más que empezar con la biología sintética, y ya nos saltamos toda norma moral a la torera.

Sin embargo, esto no es más que oportunismo. Ni el más tenaz transhumanista está a favor de lo que ha hecho Jiankui, principalmente, porque todavía no se sabe lo suficiente para predecir todos los efectos secundarios de la mutación de genes. Cuando hablamos de eugenesia en términos éticamente aceptables hablamos, claro está, de mejorar la salud y no de empeorarla. Creo que es obvio. Así, que un científico viole las normas éticas, e incluso las legales, no es razón suficiente para oponerse a una determinada tecnología, más cuando sus promesas son, con mucho, muy superiores a sus riesgos (por mucho que nos quieran vender lo contrario). Creo que en ciencia y tecnología hay que actuar basándose en lo que Max More definió en 2005 como principio proactivo: si consideramos la libertad en la innovación tecnológica como algo muy bueno para la humanidad, la carga de la prueba siempre debe recaer para aquellos que proponen medidas restrictivas. Entonces, dejando de lado los casos puntuales de He Jiankui y de Rebrikov, hoy voy a centrarme en dos de los argumentos más repetidos sobre el tema, de la mano de dos de los máximos bioconservadores de la actualidad: Leon Kass y Francis Fukuyama. El primero, que dirigió el Consejo Presidencial sobre Bioética del gobierno de los Estados Unidos,  hizo famoso su texto “La sabiduría de la repugnancia”. Leamos uno de los fragmentos más potentes:

La gente siente repugnancia frente a muchos aspectos de la clonación humana. Se echan atrás ante la perspectiva de producir en masa seres humanos, con grandes conjuntos de tipos iguales, dañados en su identidad; la idea de gemelos padre-hijo o madre-hija; la extraña posibilidad de que una mujer dé a luz y críe a quien es una copia genética de ella misma, de su esposo o incluso de su padre o madre difuntos; lo caprichoso y grotesco de concebir un niño como sustituto exacto de otro ya muerto; la creación utilitaria de copias genéticas embrionarias de uno mismo, para ser congeladas y desarrolladas en caso de necesitar tejidos homólogos u órganos para trasplante; el narcisismo de los que se clonarían a sí mismos, o la arrogancia de otros que sostienen que ellos saben tanto quien merece ser clonados, como qué genotipo le gustaría recibir a un niño que ha de ser creado; la exaltación frankensteiniana de crear vida humana y controlar de modo creciente su destino; es decir, el hombre jugando a Dios.

 

La argumentación de Kass es bien clara: no debemos permitir éticamente lo que nos produce repugnancia. Tengamos en cuenta que la sensación de repugnancia es un sistema de defensa creado por la evolución para evitar enfermedades o intoxicaciones. Es, entonces, un pedazo de “sabiduría biológica” avalada por eones de selección natural, y no cualquier criterio arbitrario. Kass estaría recurriendo al clásico iusnaturalismo que sostiene grosso modo que la naturaleza es sabia, y que es conveniente seguir sus designios. Esto es fácilmente desmontable desde la célebre falacia naturalista: que algo sea así en la naturaleza no quiere decir que deba ser así. Es el argumento típicamente utilizado contra el darwinismo social: si aceptamos que lo que hace la naturaleza es lo correcto, que el pez grande se coma al pez pequeño nos debería parecer bien cuando, precisamente, lo que nuestros sistemas jurídicos intentan es lo contrario: proteger a los débiles de las injusticias naturales.

Igualmente, apelar al sentimiento de repugnancia como criterio ético tiene más problemas. Estaríamos ante el viejo emotivismo, el cual, puede explicar bien el origen de la moral, pero es incapaz de justificarla. Si bueno es aquello que me causa un sentimiento agradable, no podríamos decirle a un sádico o a un psicópata que lo que hacen está mal. Igualmente, apelando a la repugnancia podríamos negar derechos a homosexuales o transexuales, a gente con sobrepeso o, sencillamente, poco agraciada físicamente o con algún tipo de deformidad. Dado que la sensación de repugnancia tiene diferentes intensidades y es, muchas veces, imposible de diferenciar de otras sensaciones como el rechazo, la extrañeza o la incomodidad, podríamos utilizarla para oponernos a las personas de otras razas, o distintas a nosotros por cualquier motivo. De hecho, Pinker en The stupidy of dignity critica que Kass encuentra repugnantes conductas como comer conos de helado, el cambio de sexo o que mujeres pospongan la maternidad o estén solteras acercándose a los treinta. Incluso tendríamos el problema de que la repugnancia, al ser, como mínimo, parcialmente educable, estaría sujeta a las mismas críticas que podemos hacerle al relativismo cultural: a un nazi que ha sido eficientemente adoctrinado en las juventudes hitlerianas, no podríamos reprocharle su rechazo a los judíos y su satisfacción ante su exterminio.

Pero es más, es que el argumento puede utilizarse para algo con lo que Kass no está nada de acuerdo: la eugenesia ¿Qué hay que cause un sentimiento mejor que contemplar a personas sanas, bellas o inteligentes? Si bien en el proceso de creación en laboratorio podríamos sentirla, los frutos de la eugenesia serían lo contrario a la repugnancia, representando todo lo agradable del ser humano. Podríamos hacer un cálculo de costos y beneficios, y entender que esa repulsión inicial es suplida con creces por el sentimiento de agrado conseguido.

El otro gran argumento es el dado por Fukuyama en su El fin del hombre (2002). Este politólogo estadounidense está en contra de la clonación o la eugenesia apelando a lo que el denomina Factor X, una especie de esencia humana que no debemos trastocar bajo ningún concepto ¿Y qué es? Fukuyama utiliza la x, precisamente, para denotar su carácter vago, ambiguo, casi indefinible o incognoscible por definición. El Factor x no es el uso del lenguaje, ni la inteligencia, ni la capacidad de sentir, ni ninguna otra capacidad o cualidad que, tradicionalmente, se haya situado como la esencia humana por encima de las demás.  El Factor x es, en cierto sentido, todas ellas conjuntamente. Fukuyama quiere escapar de las clásicas críticas que históricamente se han hecho a todo aquel que ha querido reducir la esencia humana a un único factor. Por ejemplo, si defines al ser humano por su inteligencia, una persona con un grave retraso mental ya no sería humana, o si lo defines por su consciencia, alguien en coma ya dejaría de serlo. Sin embargo, si la esencia del hombre no es nada tangible y, a la vez, lo es todo, no caeremos en ningún tipo de reduccionismo.

En el fondo, los malabares de Fukuyama no dejan de ser una forma soterrada, o no tanto, de volver al viejo concepto de espíritu o alma inmortal. Para criticar el naturalismo de sus enemigos darwinistas, Fukuyama saca lo esencial del hombre del plano natural al metafísico. Ya está, no hay más, volvemos a formas de pensar muy viejas: una naturaleza humana espiritual inviolable. El problema es que Fukuyama parece no entender que, dada la teoría de la evolución, la naturaleza humana no es algo dado, sino que está en continuo cambio. De aquí a 100.000 años la naturaleza humana será muy diferente a la que es ahora ¿Y hacia donde irán esos cambios? En gran parte al azar ciego del barajeo de genes en el que consiste la reproducción sexual ¿Es mejor dejar que la suerte decida sobre nuestra naturaleza? Imaginemos que la selección natural premia genes más agresivos, egoístas o estúpidos… ¿Sería ético no hacer nada por evitarlo? Agarrarse a la idea de dignidad humana basada en sacralizar su naturaleza es un grave error. No debemos nada a la naturaleza humana porque en ella hay cosas muy malas. Recordemos que los que construyeron Auschwitz tenían ese mismo Factor x que no hay que tocar bajo ningún concepto.

Podríamos imaginar que el cerebro humano estuviese compuesto de una única red neuronal global no estructurada de forma modular, es decir, sin partes especializadas en realizar tareas concretas. Las plantas tienen un tipo de estructura fractal en la que no existen de forma única órganos, ni ningún tipo de unidades funcionales especializadas: tienen muchas hojas, muchas flores, muchas raíces, etc. De este modo pueden resistir la destrucción de gran parte de su organismo antes de morir. Por el contrario, nuestro cuerpo fallece inexorablemente cuando se dañan órganos de los que sólo disponemos la unidad: corazón, hígado, páncreas, cerebro… Tener partes muy diferenciadas te hace muy sensible al fallo, mientras que si tu organismo es una constante repetición de lo mismo, la tolerancia al error es mucho más alta.

Entonces, pensemos en un cerebro no modular, un cerebro que se basa en la repetición de la misma estructura funcional (la neurona) una y otra vez. La destrucción de una de sus partes solo provocaría un degradado de la función global, pero no su total pérdida. Además, pensemos en un cerebro completamente interconectado, de modo que existen múltiples rutas alternativas de flujo de información. Si quiero mandar un mensaje de la neurona A a la B y algo daña la ruta habitual, la información siempre podría encontrar otros caminos para llegar. Además, esta estructura se parece bastante a nuestros sistemas de redes neuronales artificiales, en las que la información se guarda de un modo distribuido y no en ningún punto en concreto de la red ¡Molaría mucho que nuestro cerebro fuera así!

Eso además, pensaban Karl Lashley y Paul Weiss, dando base neuronal a la vieja tesis del ilustrado John Locke, que sostenía que somos una tabula rasa, que nuestro cerebro es, al nacer, una “hoja en blanco” indefinidamente moldeable por el aprendizaje. Lo cual, como ya escribimos en la Nueva Ilustración Evolucionista, servía como base neurológica al conductismo de Watson. Lashley hizo experimentos extirpando tejido cerebral a ratas y comprobando cómo les afectaba la pérdida a la realización de diferentes tareas. Comprobó que la localización de la pérdida no tenía importancia. Lo que, realmente, afectaba a la conducta de las ratas era únicamente la cantidad de cerebro extirpado. De aquí dedujo dos principios: acción en masa (el rendimiento cognitivo depende del rendimiento global de todo el cerebro) y equipotencialidad (cualquier parte del cerebro es capaz de realizar las tareas de las demás). El cerebro de las ratas tiene la misma estructura que los vegetales.

Las diferencias de inteligencia entre los seres humanos y el resto de los primates se explicaban, únicamente, apelando a la diferencia de volumen cerebral: más tamaño otorgaba más inteligencia. Sin embargo, aquí empezaron los problemas.  Cuando las técnicas de conteo neuronal se hicieron más precisas, se descubrió que el córtex cerebral humano tenía únicamente 1,25 veces más neuronas que el de un chimpancé, mientras que era 2,75 veces más grande. Nuestro cerebro creció de tamaño pero el aumento de neuronas no fue proporcional ¿Por qué? Porque si tu cerebro crece de tamaño, los axones de tus neuronas se hacen más largos, por lo que el impulso nervioso tarda más tiempo en llegar de una neurona a otra, lo que se traduce en lentitud y poca eficiencia. Es por ello que nuestro cerebro tuvo que especializarse localmente y hacerse modular. Un cerebro no modular sólo puede funcionar bien hasta un tamaño crítico a partir del cual se tiene que especializar.

Leamos estas reflexiones del popular cosmólogo Max Tegmark:

[…] una consciencia artificial del tamaño de un cerebro podría tener millones de veces más experiencias que nosotros por segundo, puesto que las señales electromagnéticas viajan a la velocidad de la luz, millones de veces más rápido que las señales neuronales. Sin embargo, cuanto mayor fuese la IA, más lentos tendrán que ser sus pensamientos para que la información tenga tiempo de fluir entre todas sus partes […] Así, cabria esperar que una IA “Gaia” del Tamaño de la Tierra solo tuviese unas diez experiencias conscientes por segundo, como un humano, y que una IA del tamaño de una galaxia solo pudiese tener un pensamiento global aproximadamente cada 100.000 años (por lo tanto, no más de unas cien experiencias durante toda la historia del universo transcurrida hasta ahora).

Max Tegmark, Vida 3.0

Tegmark utiliza este ejemplo para ilustrarnos sobre la lentitud de los procesos conscientes en comparación con los inconscientes. Sin embargo, podemos utilizarlo para defender la idea a la que yo quería llegar: el absurdo de una consciencia o inteligencia cósmica ¿Qué tipo de inteligencia sería aquella que tiene una experiencia consciente cada 100.000 años y que solo ha tenido unas cien en toda su vida? Por mucho que nos diera por fantasear con la posibilidad de algo así para contar relatos de ciencia ficción, la verdad es que una inteligencia con tan pocas experiencias no podría ser demasiado inteligente. Es más ¡sería muy imbécil! Para cuestiones de inteligencia el tamaño sí importa, y lo ideal para tener una inteligencia similar o superior a la nuestra es mantener un diseño optimizado entre tamaño y modularidad. Lo ideal, tal como bien expresa Tegmark, sería un tamaño aproximado al de nuestro cerebro pero con una circuitería similar a la de los computadores de silicio. Por el contrario, un tamaño gigantesco debería ser hipermodularizado para ser eficiente, tanto que no podría tener un módulo de control o mando consciente eficaz. Es más, una inteligencia del tamaño del universo tendría unos módulos tan alejados los unos de los otros que, de nuevo, su coordinación para cualquier actividad seria lentísima. Pensemos que si la información puede viajar a la velocidad de la luz, y tenemos dos módulos, uno en cada extremo del universo (visible), el mensaje tardaría noventa mil millones de años luz en llegar… ¡varias veces la edad del propio universo!

No amigos, no hay ni habrá ninguna consciencia cósmica. Otro mito heredado de mezclar las religiones tradicionales con la ciencia ficción.

Campañas contra los robots asesinos, muchos desarrolladores e investigadores diciendo que la IA puede ser un gran peligro (hace unos días lo hizo Bengio), la famosa carta del Future of Life Institute en la que personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y todo el resto de la flor y nata del stablishment tecnológico norteamericano en la que alertaban sobre el peligro de los desarrollos bélicos de la IA, e incluso el Secretario General de la ONU, Antonio Guterres, hablando de la prohibición de las LAW (Lethal Autonomous Weapons). Raymond Kurzweil escribiendo sobre la singularidad tecnológica y sobre máquinas conscientes para el 2029, Nick Bostrom alertándonos de la gravedad de los problemas a los que llegaremos cuando ocurra la “explosión de inteligencia”: momento en el que surja una IA cuya inteligencia nos supere y se dedique a hacerse más inteligente a sí misma, lo cual llevará a un proceso de crecimiento exponencial… ¡Las máquinas se harán con el mando del mundo y tendrán que decidir si somos una amenaza para ellas o no!

Mucho revuelo, pero ¿hay que tomarse esto en serio? ¿Hay que comenzar a preocuparse por la rebelión de las máquinas asesinas? Ni hablar. Veamos:

  1. No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes. Ni la más mínima. Invito al lector a que lea propuestas como CLARION, OpenCog, LIDA, etc. y que juzgue por sí mismo si son conscientes o no, o sí, al menos, están cerca de conseguirlo.
  2. En lo referente a una Inteligencia Artificial General, el asunto no está mucho mejor. Hay proyectos e ideas (véase CYC, SOAR o el actual IMPALA) pero, igualmente, están lejísimos de que podamos tener una IA capaz de acercarse a la polivalencia de nuestras mentes de primate. El Frame Problem sigue sin resolverse concluyentemente y nuestras más avanzadas arquitecturas de aprendizaje profundo tienen mucho menos sentido común que un niño de tres años.
  3. Entonces, sin base experimental ni teórica alguna… ¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores? Curiosa forma de argumentar: del conjunto vacío de premisas deducimos todo lo que nos da la gana.
  4. Es por ello que es absolutamente imposible realizar ningún tipo de predicción al respecto. Es una solemne estupidez hablar de fechas. Sería algo así como preguntarle a un hombre de la Edad Media por la aparición del vuelo a reacción. Los que se atreven a hacerlo se lo inventan sin ningún criterio, así de claro. Igual da decir 2029, 2087, 2598 o 15345.
  5. Lo que sí tenemos en IA son excelentes hiperespecialistas: inteligencias capaces de hacer a nivel sobrehumano tareas muy concretas como por ejemplo, jugar al ajedrez o al Go (actuar en entornos muy formalizados), analizar y modificar imágenes, o buscar patrones en ingentes cantidades de datos… pero nada más. Si tienes una red convolucional increíblemente buena detectando un tipo de tumor en radiografías de pulmones y quieres que aprenda otra cosa, solo tienes un camino: borrarlo todo y volver a entrenar a la red desde el principio.
  6. El deep learning ha supuesto un gran empujón a un campo que, siendo honestos, ha tenido casi más inviernos que primaveras. Las distintas versiones de Alpha (Go, Zero, Star…) son impresionantes, y el generador de textos recientemente aparecido GPT-2 es lo mejor que nunca he visto… a falta de que hagan público cómo funciona. Sin embargo, a pesar de que estos logros son alucinantes, hay que entender que la ciencia avanza, en la inmensa mayoría de los casos, a base de pequeños pasos.
  7. Se cae en un error muy común a la hora de entender el progreso científico. Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito. Así, si creamos máquinas un poquito inteligentes, en un futuro, seremos capaces de hacerlas superinteligentes… ¿Por qué? En ciencia es muy común encontrar programas de investigación muy prometedores que terminan por volverse degenerativos y abandonarse. Verdaderamente, no sabemos qué pasará con la IA al igual que no sabemos lo que pasará con ninguna otra tecnología ¿Alguien pudo predecir el éxito de Apple, Twitter, Yotube…? Como bien afirma el analista Nassim Taleb, una de las características de nuestra época es nuestra mas que patente incapacidad de predicción: sucesos altamente improbables suceden por doquier.
  8. Pero, dado que nosotros solo somos quarks organizados de una determinada manera y nuestra mente surge de colocar quarks de un determinado modo… ¿no será entonces cuestión de tiempo que descubramos tal colocación y entonces creemos una IA a imagen y semejanza de nosotros y, ya puestos, la haremos mejor que nosotros? Por supuesto, pero esta argumentación es de lo más vacío que puede decirse. No es algo muy alejado de sentenciar: todo lo que sea posible terminará por pasar. Vale, tómate un café ¿Podremos viajar más allá de la Vía Láctea y colonizar el universo? ¿Podremos hacer un zoo de dinosaurios al estilo de Parque Jurásico? ¿Podremos hacer máquinas del tiempo o teletransportarnos? En teoría no vemos que sean imposibles… ¿Centramos entonces todo el debate mediático en torno a estos temas?
  9. Andrew Ng dice que debatir ahora sobre la rebelión de las maquinas es equivalente a debatir sobre el problema de la superpoblación en Marte. Es posible que sea un tema muy interesante y evocador, pero no puede tener la cobertura mediática que se le está dando. Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo.
  10. En el fondo se está jugando con una falacia informal, la ad ignorantiam: sacar conclusiones a favor o en contra de algo por el hecho de que no se ha demostrado lo contrario. Como, en el fondo, nadie puede estar en desacuerdo con el punto 6… pues el punto 6 es cierto. Dos cosas: en primer lugar que algo sea irrefutable no quiere decir ni que sea cierto ni que merezca la pena nuestra atención. El famoso ejemplo de la tetera de Russell viene aquí a pelo: sería posible que ahora mismo en un anillo de Saturno existiera una tetera orbitando alrededor del planeta. Si alguien asegura que es absurdo que allí halla una tetera, no tenemos más que decirle que intente demostrar que no es así. Como no podrá, ya está, nuestra afirmación es verdadera. Como nadie ha demostrado que no sea posible crear una IA de inteligencia sobrehumana, la inteligencia sobrehumana llegará y, es más, se rebelará contra nosotros.
  11. La carga de la prueba la tiene siempre el que afirma: así los defensores de la rebelión de la IA deberían aportar la suficiente evidencia empírica tanto acerca de la fabricación de máquinas sobrehumanas como de la supuestamente necesaria rebelión de éstas. Como hemos afirmado en 1 y en 2, no existe tal evidencia de lo primero, cuánto menos de lo segundo: ¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física? Creo que James Cameron (Terminator) y las hermanas Wachowski (Matrix) han hecho mucho daño.
  12. Pero es que es más: existe evidencia en contra. Hay multitud de argumentos que diferencian la mente humana de un computador y que subrayan la imposible reducción de la primera al segundo. Las críticas a la IA Fuerte han llegado desde todos lados. Por citar los más notorios, tenemos el argumento de la irreductibilidad de los qualia de Nagel, la crítica desde la perspectiva heideggeriana de Dreyfus, la indecibilidad gödeliana de la mente de Roger Penrose o, para mí la más notoria, la caja china de John Searle. Creo que, a pesar de las múltiples matizaciones, no se ha conseguido refutar convincentemente a estos autores (sobre todo a Nagel y a Searle).
  13. Estos argumentos críticos tampoco llegan a imposibilitar la creación de máquinas superinteligentes o conscientes, solo sostienen que las que hay no lo son y que, por el mismo camino, no lo vamos a conseguir. Yo no tengo ni idea de cómo podrán conseguirse (tendría algún que otro premio Nobel si lo supiera), pero desde luego, estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB.
  14. La rebelión de las máquinas es un tema que puede ser evocador e interesante, incluso un magnífico campo para la reflexión filosófica y el experimento mental. No digo que no se pueda tratar. Yo lo he hecho alguna vez en el blog. Lo que sostengo es que es un tema sobredimensionado que, muchas veces, aparece en el foco de atención mediática como si fuese un problema social de primer orden que urge solucionar, cuando lo único que hay es marketing: se ha encontrado un nuevo nicho por explotar, y hay muchos libros que vender y muchas cátedras universitarias que ocupar.

Addendum del 29-5-2019:

Tuve el honor de ser invitado a participar de este podcast de Xataka en donde se habló de este artículo y se profundizó sobre el tema.