Archivos de la categoría ‘Ética y moral’

He leído en varias ocasiones, con torcida perplejidad, a expertos en áreas tecnológicas afirmar, con suma tranquilidad, que la tecnología ni es buena ni mala, que todo depende del uso que se le dé. Así, un cuchillo puede servir tanto para cortar el tan necesario alimento, como para apuñalar al prójimo. Por consiguiente, los empresarios-ingenieros-fabricantes quedan exonerados de toda culpa por diseñar cualquier artefacto, cayendo la totalidad de la responsabilidad en el usuario. Grave error para, como es habitual, metérnosla doblada.

La tecnología no es, de ningún modo, neutra éticamente. Veamos una serie de argumentos para dejarlo claro como el agua:

1.Toda tecnología requiere unos materiales y un coste energético, por lo que cabe preguntarse: ¿Cuán de escasos son esos recursos?  Si son escasos ¿no se necesitarán para otro objetivo éticamente más importante que el que yo les voy a dar? ¿Cómo de difícil es su extracción? ¿Se pondrán en peligro vidas para ello? Famoso es el debate acerca de los materiales con los que se construyen nuestros teléfonos móviles: ¿es ético producir y consumirlos sabiendo de donde vienen sus componentes? En lo que respecta a la IA, hasta hace poco nadie parecía caer en su elevado coste medioambiental cuando la enorme necesidad de capacidad de cómputo dada la notoria ineficiencia del deep learning es muy patente. La IA no es ecofriendly, y eso merece una profunda reflexión.

2. Toda tecnología requiere un proceso de producción: ¿dónde y quién lo realiza? ¿Los trabajadores reciben un salario justo y sus condiciones laborales son adecuadas? Mucho se ha debatido sobre las condiciones laborales de las fábricas asiáticas, donde se produce, prácticamente, todo la tecnología que consumimos. A través de Pinker, he leído estos días sobre la interesante, y polémica, idea de la curva de Kuznets: tras un periodo de gran desigualdad, cuando los países llegan a un alto nivel de desarrollo, la desigualdad se reduce. Quizá no justifique éticamente esa desigualdad, pero en ausencia de alternativas viables en esos países, es posible que sea la mejor opción (si bien también se ha discutido si su base empírica se sostiene).

3. Toda tecnología genera residuos, por lo que cabe preguntarse: ¿que residuos va a generar la nuestra? ¿Son biodegradables? ¿Cuál será su impacto medioambiental? ¿Dónde se almacenan y en qué condiciones? Así, tenemos el gran debate sobre la idoneidad de los coches eléctricos. Por un lado parecía que eran mucho más ecológicos, pero cuando caemos en lo que contamina generar la electricidad que consumen, vemos que no lo son tanto. En está línea está la polémica con respecto a las centrales nucleares. Yo creo firmemente que el sector ecologista que las critica está equivocado. Si hacemos un balance de pros y contras, y a falta de que la energía solar mejore, son una magnífica opción y una buena forma de luchar contra el cambio climático.

4. Toda tecnología tiene efectos secundarios no previstos por los diseñadores. Por eso todo proyecto tecnológico tiene que ir acompañado de una buena evaluación de riesgos. Ya hablamos aquí hace tiempo de la elegante definición de eficiencia tecnológica de Quintanilla: una máquina es eficiente si utiliza los medios más económicos para llegar a sus objetivos y a nada más que a sus objetivos. Esta última parte es la clave: hay que intentar que no se nos escape nada, y si no podemos evitar que se nos escape (realmente, es muy difícil predecir a medio y largo plazo cómo estará el tema), al menos, hacer una sesuda reflexión sobre ello y ponderar razonablemente si merece o no la pena.

5. Toda tecnología tiene posibles usos perversos ¿cuáles son y cuál puede ser su gravedad? ¿Hasta dónde puedo garantizar que no se lleven a cabo? Por ejemplo, parece evidente que si yo creo un método de edición genética que permite a cualquier persona del mundo, sin conocimientos de bioquímica, crear en su casa un virus letal, no deberé sacar a la luz tal tecnología. Y aquí es donde mejor se ve la no neutralidad ética de la tecnología: no es éticamente lo mismo diseñar una vacuna que una bomba de hidrógeno, porque los posibles usos perversos de la segunda son mucho mayores que los de la primera. Resulta muy curioso como en el caso de la IA, se haga más mención al uso perverso que “ella misma” hará contra nosotros (la famosa rebelión de las máquinas), más que del uso perverso que muchos humanos harán de ella. Y, del mismo modo, también resulta curioso que se sobredimensionen sus peligros y usos negativos (los killer robots o los algoritmos sesgados) cuando sus usos positivos son infinitamente más beneficiosos para la humanidad que estos posibles perjuicios. En la IA, igual que pasa con la ingeniería genética, se está ponderando muy mal su uso futuro.

6. Toda tecnología tiene un grado de impacto global: no es lo mismo un invento que hago en mi casa y se queda allí, que algo que tenga muchísimas repercusiones a todos los niveles. Por ejemplo, yo invento un cereal transgénico cuyas cualidades abaratan muchísimo sus costes de producción y, por tanto, su precio final. Supongamos que existe un pequeño país cuyo principal producto de exportación es el cereal. Entonces, he de prever qué efectos sobre la economía de ese país tendrá que yo saque al mercado mi producto. Si que yo me forre implica que condene a un país a la hambruna y a la miseria, he de repensar mi estrategia y buscar otras vías. Además, en un mundo globalizado donde todo está interconectado, hay que tener en cuenta que lo que uno hace en Londres, puede tener repercusiones en Tokio, es decir, que el grado de impacto de cualquier cosa que se haga es, potencialmente, mucho mayor que antaño, por lo que, igualmente, el grado de responsabilidad crecerá a la par.

El error de pensar en la neutralidad de la técnica está en pensar entendiendo los diversos agentes y elementos sociales de forma aislada cuando, verdaderamente, nada se da de forma aislada. Tanto más cuando un desarrollo tecnológico es, en la actualidad, una tarea inmensa. Así creo que una buena forma de entender la globalidad o localidad de cualquier evento es la teoría de sistemas: entender los fenómenos sociales como sistemas o partes de los mismos, siendo un sistema un conjunto de elementos y de interrelaciones entre ellos y otros sistemas. De este modo podemos extender nuestra responsabilidad ética cuando creamos algo: no solo hay que estudiar lo que ocurrirá en nuestro sistema al introducir el nuevo elemento, sino qué consecuencias tendrá en los demás.

Imagen del artista callejero Ludo.

 

En una romántica búsqueda de conseguir un sistema jurídico perfecto, vamos a crear un juez robot que no se vea influido por esos sesgos que hacen que los humanos fallemos una y otra vez en la sagrada tarea de impartir justicia. A primera vista, sencillamente, podríamos dotar a un algoritmo con la base de datos lo más potente posible sobre casos anteriores que crearon jurisprudencia. Entonces, ante cualquier decisión, nuestro juez electrónico solo tendría que buscar en su memoria el caso que más se asemejara al presente y aplicar la misma sentencia. Bien, pero pronto comenzarían los problemas, dado que las, a priori, pequeñas diferencias entre los casos pasados y los actuales, pueden ser mucho más grandes de lo que parecen, y ante esa novedad no prevista, nuestro programa debería ser capaz de dar una justa respuesta. Nos encontraremos casos en los que ni las sentencias anteriores ni la ley parecen dar una respuesta clara y concisa, por lo que nuestro robot necesitará reflexionar. Es por eso que suele decirse que las leyes no se aplican sino que se interpretan.

Entonces, no nos quedará otra que programar al robot con una serie de directrices que le sirvan para interpretar toda nueva circunstancia, una serie de principios de justicia. Hagámoslo: para que consideremos una condena  como justa, tiene que darse una serie de condiciones que nuestro robot debería tener grabada a fuego en su placa base:

  1. Conocimiento: el juez robot ha de contar con toda la información relevante para determinar la sentencia. Es por eso que muchas veces se habla de “falta de pruebas”, cuando no hay información suficiente para determinar si el sospechoso es culpable o no. Importante es entonces saber que casi nunca se cuenta con toda la información: a pesar de que estemos casi seguros de que el asesino es el mayordomo, nadie más que asesino y asesinado estuvieron presentes en el momento del crimen. Entonces, casi toda condena entraña una incertidumbre que hay que determinar si es asumible o no.
  2. Imparcialidad: el juez robot no ha de beneficiar a ninguna de las partes interesadas debido a cualquier motivo que no esté estrictamente relacionado con el asunto a juzgar. Aquí el problema no estaría ya en la corrupción pura y dura que asola los sistemas judiciales de medio mundo, sino en los sesgos inconscientes ocultos en la mente del juez. Esto es, precisamente, lo que se intenta subsanar con los jueces robóticos, y aunque la prensa amarillista nos haya mostrado siempre lo contrario, la inteligencia artificial es una tecnología muy apropiada para evitarlos. No hay nada más fácil, si quieres construir una máquina que no sea racista, que hacerla ciega al color de piel.
  3. Proporcionalidad: el castigo debe ser proporcional al delito cometido. No es justo que me condenen a diez años de trabajos forzados por robar una barra de pan, ni tampoco es justo que me condenen a un día de cárcel por un triple asesinato.
  4. Estabilidad o consistencia: en casos similares que se dan en otro momento del tiempo, los castigos han de ser similares. La justicia no ha de cambiar con el tiempo, ya que crearíamos agravios comparativos entre casos iguales. Si miramos la historia de la humanidad vemos que eso no se ha cumplido para nada, y que los castigos por las mismas penas han ido cambiando. Antes, por regla general, eran muchísimo más duras y las prisiones bastante menos humanas que las de hoy. La explicación, algo presuntuosa por parte de nuestro presente eso sí, está en decir que en el pasado se equivocaban y que nosotros hemos perfeccionado el sistema para hacerlo más justo, de modo que el agravio comparativo se da solo hacia los que tuvieron la mala fortuna de ser juzgados en el pasado.

Vamos a centrarnos en el 3, en el principio de proporcionalidad. Explicarlo es muy fácil, pero llevarlo a la práctica es harto complejo. Sencillamente dice que el castigo a aplicar debe ser proporcional a la magnitud del delito. La proporcionalidad más perfecta es la lex talionis, el bíblico “ojo por ojo, diente por diente”: aplicar al culpable del delito exactamente lo mismo que le ha hecho a la víctima. En algunos casos es relativamente sencillo. Si me han robado 100 euros, han de devolvérmelos con un plus añadido por el perjuicio que me ocasionó no tenerlos durante el tiempo que se tardó en la devolución (por ejemplo, sumando unos intereses). Sin embargo, los problemas surgen en nada que nos paramos a pensar un segundo: ¿una misma cantidad de dinero tiene el mismo valor para todo el mundo? ¿Son iguales 100 euros para un indigente que para un multimillonario? Eso es lo que pienso cuando voy conduciendo por la carretera y me pasa un Porsche a 170 Km/h.

Y la dificultad se hace más patente cuando comenzamos a intentar medir la proporcionalidad de ciertos daños, más cuando la sensibilidad al sufrimiento de cada individuo difiere significativamente. Por ejemplo, si yo insulto públicamente a una persona, lo proporcional sería que esa persona me insultara de la misma forma. No obstante, yo puedo ser un personaje público al que los insultos no le afectan demasiado (incluso, podría ser que los buscara a propósito con tal de que se hable de mí), mientras que el otro agraviado puede ser muy sensible al escarnio público, por lo que aquí la proporcionalidad no se conseguiría en un insulto por insulto. Como no podemos medir con precisión la cantidad de sufrimiento que proporciona tal o cual castigo, esta proporcionalidad es netamente imposible, cuánto más en esta época de ofendiditos en la red. Podría ser que a mí me provocara importantes daños emocionales ver rostros de gente poco agraciada físicamente en Instagram ¿Deberían compensarme los feos por el daño que me ocasionan? ¿Dónde está el límite entre lo que es razonable que ofenda y lo que no?

Tirando más del hilo nos encontramos con aún más problemas. Si suponemos que el crimen más grave es el asesinato, el castigo proporcional no podría ser más exacto que la pena de muerte pero, ¿cómo castigar proporcionalmente a alguien que ha asesinado a dos o más personas? Si con un asesinato el criminal tiene asegurada la pena de muerte, cuando ya ha matado a una persona, todos los demás crímenes que cometa le saldrán gratis. O, si no somos favorables a la pena de muerte pero sí a la cadena perpetua, tenemos el caso de que la pena será mucho más leve para un anciano o un enfermo terminal que morirán en la cárcel habiendo cumplido muy poco tiempo de condena, que para un joven con veinte años y una salud de hierro.

En la sociedad actual, las nuevas tecnologías de la información suponen novedades que deberían tenerse en cuenta a la hora de legislar, si queremos mantener lo más posible el principio de proporcionalidad. En el celebérrimo caso de la manada, los acusados fueron castigados con unos daños de cárcel supuestamente proporcionales al delito cometido. Independientemente con si esa sanción fue justa o no, los acusados fueron también sometidos a un linchamiento público por parte de los medios. Las redes sociales permitieron que sus fotos y datos biográficos fueran conocidos por todo el mundo, y que se hablara en el tono que se quisiera sobre ellos. Es decir, al clásico castigo carcelario se le añadió el nuevo castigo de vapuleamiento en la red que, muchos, podrían considerar incluso peor, o quizá más dañino a largo plazo, que el primero. En otros tiempos en los que no existían nuestros hipertrofiados medios de comunicación, un delincuente, una vez que pagaba su pena, podría empezar de nuevo sin que todo el mundo supiera de su turbio pasado, pero ahora eso es casi imposible. Entonces, cualquier juez robótico que se precie debería tener en cuenta dicho plus, quizá compensando al criminal con menos tiempo en prisión (si además del principio de proporcionalidad quiere mantener el principio de estabilidad). No deja de resultar chocante como hemos vuelto a formas de justicia medievales. Antes de la llegada del Estado Moderno, a los criminales se los linchaba públicamente, cuando no se los ahorcaba en la plaza del pueblo. Entonces, el nuevo contrato social estipuló que la capacidad de castigar delitos era una función exclusiva del Estado, evitando que nadie pudiera tomarse la justicia por su mano. Ahora, paradójicamente, volvemos a torturas medievales gracias a altas tecnologías.

Como vemos, crear un juez robot es algo muchísimo más completo de lo que hubiera soñado Leibniz, y aunque creo que es perfectamente posible, en contra de los que piensan que la justicia humana es algo irreductible a la automatización, no es algo que se vaya a conseguir en dos tardes. Impartir justicia es una tarea que requiere una muy profunda comprensión de la realidad de la que están lejos nuestra mejores inteligencias artificiales. Otra cosa, muy saludable, es que los jueces dispongan de software que le ayude en sus sentencias, como ya ocurre, no sin polémica eso sí, con el programa Compas en Estados Unidos.

Otro camino, que es el que se está usando ahora, es el de abandonar la programación simbólica y utilizar deep learning.  Así, se le da la base de datos a la red neuronal y se la va entrenando para que sus sentencias sean similares a las de los jueces profesionales. Aunque el porcentaje de aciertos suele ser muy alto, aquí nos encontramos con un gravísimo problema: la black box. Los algoritmos de deep learning no pueden explicar el porqué de sus resultados y eso, hablando de decidir sobre la condena de un ser humano, es inaceptable. No podemos tolerar de ningún modo que un software tome decisiones tan importantes sin que sepamos por qué lo ha hecho.  Hasta que tengamos una auténtica IA explicada, no podemos utilizar las redes neuronales para impartir justicia.

Después del más que desagradable asunto de las gemelas modificadas genéticamente por el científico He Jiankui, ahora tenemos al biólogo ruso Denis Rebrikov, queriendo emular al chino. Estas locuras, reprochables a todos los niveles, parecen dar la razón a todos los bioconservadores que se manifiestan en contra de cualquier forma de edición genética. Parecen decirnos ¿Veis lo que pasa si jugamos a ser dioses? Todavía no hemos hecho casi nada más que empezar con la biología sintética, y ya nos saltamos toda norma moral a la torera.

Sin embargo, esto no es más que oportunismo. Ni el más tenaz transhumanista está a favor de lo que ha hecho Jiankui, principalmente, porque todavía no se sabe lo suficiente para predecir todos los efectos secundarios de la mutación de genes. Cuando hablamos de eugenesia en términos éticamente aceptables hablamos, claro está, de mejorar la salud y no de empeorarla. Creo que es obvio. Así, que un científico viole las normas éticas, e incluso las legales, no es razón suficiente para oponerse a una determinada tecnología, más cuando sus promesas son, con mucho, muy superiores a sus riesgos (por mucho que nos quieran vender lo contrario). Creo que en ciencia y tecnología hay que actuar basándose en lo que Max More definió en 2005 como principio proactivo: si consideramos la libertad en la innovación tecnológica como algo muy bueno para la humanidad, la carga de la prueba siempre debe recaer para aquellos que proponen medidas restrictivas. Entonces, dejando de lado los casos puntuales de He Jiankui y de Rebrikov, hoy voy a centrarme en dos de los argumentos más repetidos sobre el tema, de la mano de dos de los máximos bioconservadores de la actualidad: Leon Kass y Francis Fukuyama. El primero, que dirigió el Consejo Presidencial sobre Bioética del gobierno de los Estados Unidos,  hizo famoso su texto “La sabiduría de la repugnancia”. Leamos uno de los fragmentos más potentes:

La gente siente repugnancia frente a muchos aspectos de la clonación humana. Se echan atrás ante la perspectiva de producir en masa seres humanos, con grandes conjuntos de tipos iguales, dañados en su identidad; la idea de gemelos padre-hijo o madre-hija; la extraña posibilidad de que una mujer dé a luz y críe a quien es una copia genética de ella misma, de su esposo o incluso de su padre o madre difuntos; lo caprichoso y grotesco de concebir un niño como sustituto exacto de otro ya muerto; la creación utilitaria de copias genéticas embrionarias de uno mismo, para ser congeladas y desarrolladas en caso de necesitar tejidos homólogos u órganos para trasplante; el narcisismo de los que se clonarían a sí mismos, o la arrogancia de otros que sostienen que ellos saben tanto quien merece ser clonados, como qué genotipo le gustaría recibir a un niño que ha de ser creado; la exaltación frankensteiniana de crear vida humana y controlar de modo creciente su destino; es decir, el hombre jugando a Dios.

 

La argumentación de Kass es bien clara: no debemos permitir éticamente lo que nos produce repugnancia. Tengamos en cuenta que la sensación de repugnancia es un sistema de defensa creado por la evolución para evitar enfermedades o intoxicaciones. Es, entonces, un pedazo de “sabiduría biológica” avalada por eones de selección natural, y no cualquier criterio arbitrario. Kass estaría recurriendo al clásico iusnaturalismo que sostiene grosso modo que la naturaleza es sabia, y que es conveniente seguir sus designios. Esto es fácilmente desmontable desde la célebre falacia naturalista: que algo sea así en la naturaleza no quiere decir que deba ser así. Es el argumento típicamente utilizado contra el darwinismo social: si aceptamos que lo que hace la naturaleza es lo correcto, que el pez grande se coma al pez pequeño nos debería parecer bien cuando, precisamente, lo que nuestros sistemas jurídicos intentan es lo contrario: proteger a los débiles de las injusticias naturales.

Igualmente, apelar al sentimiento de repugnancia como criterio ético tiene más problemas. Estaríamos ante el viejo emotivismo, el cual, puede explicar bien el origen de la moral, pero es incapaz de justificarla. Si bueno es aquello que me causa un sentimiento agradable, no podríamos decirle a un sádico o a un psicópata que lo que hacen está mal. Igualmente, apelando a la repugnancia podríamos negar derechos a homosexuales o transexuales, a gente con sobrepeso o, sencillamente, poco agraciada físicamente o con algún tipo de deformidad. Dado que la sensación de repugnancia tiene diferentes intensidades y es, muchas veces, imposible de diferenciar de otras sensaciones como el rechazo, la extrañeza o la incomodidad, podríamos utilizarla para oponernos a las personas de otras razas, o distintas a nosotros por cualquier motivo. De hecho, Pinker en The stupidy of dignity critica que Kass encuentra repugnantes conductas como comer conos de helado, el cambio de sexo o que mujeres pospongan la maternidad o estén solteras acercándose a los treinta. Incluso tendríamos el problema de que la repugnancia, al ser, como mínimo, parcialmente educable, estaría sujeta a las mismas críticas que podemos hacerle al relativismo cultural: a un nazi que ha sido eficientemente adoctrinado en las juventudes hitlerianas, no podríamos reprocharle su rechazo a los judíos y su satisfacción ante su exterminio.

Pero es más, es que el argumento puede utilizarse para algo con lo que Kass no está nada de acuerdo: la eugenesia ¿Qué hay que cause un sentimiento mejor que contemplar a personas sanas, bellas o inteligentes? Si bien en el proceso de creación en laboratorio podríamos sentirla, los frutos de la eugenesia serían lo contrario a la repugnancia, representando todo lo agradable del ser humano. Podríamos hacer un cálculo de costos y beneficios, y entender que esa repulsión inicial es suplida con creces por el sentimiento de agrado conseguido.

El otro gran argumento es el dado por Fukuyama en su El fin del hombre (2002). Este politólogo estadounidense está en contra de la clonación o la eugenesia apelando a lo que el denomina Factor X, una especie de esencia humana que no debemos trastocar bajo ningún concepto ¿Y qué es? Fukuyama utiliza la x, precisamente, para denotar su carácter vago, ambiguo, casi indefinible o incognoscible por definición. El Factor x no es el uso del lenguaje, ni la inteligencia, ni la capacidad de sentir, ni ninguna otra capacidad o cualidad que, tradicionalmente, se haya situado como la esencia humana por encima de las demás.  El Factor x es, en cierto sentido, todas ellas conjuntamente. Fukuyama quiere escapar de las clásicas críticas que históricamente se han hecho a todo aquel que ha querido reducir la esencia humana a un único factor. Por ejemplo, si defines al ser humano por su inteligencia, una persona con un grave retraso mental ya no sería humana, o si lo defines por su consciencia, alguien en coma ya dejaría de serlo. Sin embargo, si la esencia del hombre no es nada tangible y, a la vez, lo es todo, no caeremos en ningún tipo de reduccionismo.

En el fondo, los malabares de Fukuyama no dejan de ser una forma soterrada, o no tanto, de volver al viejo concepto de espíritu o alma inmortal. Para criticar el naturalismo de sus enemigos darwinistas, Fukuyama saca lo esencial del hombre del plano natural al metafísico. Ya está, no hay más, volvemos a formas de pensar muy viejas: una naturaleza humana espiritual inviolable. El problema es que Fukuyama parece no entender que, dada la teoría de la evolución, la naturaleza humana no es algo dado, sino que está en continuo cambio. De aquí a 100.000 años la naturaleza humana será muy diferente a la que es ahora ¿Y hacia donde irán esos cambios? En gran parte al azar ciego del barajeo de genes en el que consiste la reproducción sexual ¿Es mejor dejar que la suerte decida sobre nuestra naturaleza? Imaginemos que la selección natural premia genes más agresivos, egoístas o estúpidos… ¿Sería ético no hacer nada por evitarlo? Agarrarse a la idea de dignidad humana basada en sacralizar su naturaleza es un grave error. No debemos nada a la naturaleza humana porque en ella hay cosas muy malas. Recordemos que los que construyeron Auschwitz tenían ese mismo Factor x que no hay que tocar bajo ningún concepto.

Supe hace unos días del oráculo de Aaronson a través de un breve artículo de Microsiervos. Se trata de un experimento sencillísimo: tienes que elegir entre pulsar la tecla “d” o la “f” las veces que quieras. El oráculo consiste en un algoritmo que intentará predecir qué tecla vas a pulsar. Ya está, no hay más ¿Una estupidez? Para nada.

La idea es la siguiente: actuar sin libertad de elección o libre albedrío suele entenderse como actuar de modo determinado por causas anteriores. En tal caso, conociendo las causas anteriores debería ser fácil predecir la futura elección. En caso contrario, no poder predecir la elección puede entenderse como evidencia a favor de que se actúa con libre albedrío. Podría objetarse que no tiene por qué: si yo me echo a la siesta todos los días a las tres de la tarde, mi conducta puede ser muy predecible pero eso no quita que yo elija libremente siempre hacer lo mismo. De acuerdo, pero de lo que trata el oráculo de Aaronson es de intentar, a propósito, no ser predecible. Si, verdaderamente, somos libres no deberíamos tener demasiados problemas en ser impredecibles, deberíamos ser buenos generando cadenas aleatorias.

Sin embargo, el oráculo parece demostrarnos lo contrario. Cuando probé la versión web de Aaronson me pareció curioso lo que me costaba generar secuencias impredecibles. La mayor parte de las veces que he jugado el oráculo me ganaba y, muchas veces, incluso con porcentajes superiores al sesenta por ciento. Bien, ¿y cómo funciona el algoritmo? Analiza las 32 posibles secuencias diferentes de cinco letras. Entonces, cuando el jugador sigue una de ellas, el algoritmo memoriza cuál ha sido la elección para, cuando vuelva a repetirse la secuencia, apostar por ella.

Casi por puro divertimento, me puse a programar en Phyton una versión con diferentes algoritmos. Y los resultados me han dejado, cuanto menos, inquieto. Mi programa está formado por cuatro algoritmos. El primero, funciona, simplemente por azar, y está implementado de modo simbólico para establecer la comparación entre los resultados del mero azar (que, evidentemente, se acercarán siempre al cincuenta por ciento) y los resultados de los demás algoritmos. La idea básica es que cualquier algoritmo que no mejore los resultados del azar no predice absolutamente nada. El segundo algoritmo (llamado Glob), sencillamente calcula cuántas veces se ha pulsado “d” y cuántas “f”, y apuesta por la letra que más veces se ha repetido. El tercero (3U) cuenta las veces que han pulsado “d” o “f” en las últimas tres jugadas, y apuesta por la que más veces se ha iterado. Y el cuarto (5U) hace lo mismo que el anterior pero contando a partir de las cinco últimas jugadas.

Os pego aquí los resultados de mi mujer:

Jugó 383 veces. El algoritmo azaroso solo acertó en torno al 51%, pero ya  Glob acertó un 56%, 5U un 64% y, lo más llamativo, 3U acertó un 70%. Todas las veces que yo he jugado los resultados han sido muy parecidos (aunque, evidentemente, para que esto tenga validez científica habría que hacer el experimento como Dios manda).

Los algoritmos de este oráculo son más simples que el de Aaronson (que tampoco es que sea muy complicado). De forma elemental, cuentan las veces que se repite un determinado resultado y apuestan por él sin más estrategia. Lo único que hacen es detectar rachas, apostar por tendencias a la repetición.  Ya es llamativo que algoritmos tan estúpidos tengan mejores resultados que el azar, pero lo tremendamente interesante es que algo tan estúpido como 3U sea tan bueno. He comparado muchas veces sus resultados con los del algoritmo de Aaronson, y 3U es muchísimo mejor. De hecho, he visto muy pocas veces a 3U bajar del 60% ¿Cómo puede ganarme una cosa tan tonta? O dicho de otro modo ¿Cómo puedo ser tan sumamente predecible?

He pensado seguir ampliando el oráculo. El mismo Aaronson nos dice que podríamos cambiar su algoritmo para secuencias de tres en vez de cinco letras, o que podríamos utilizar la cadena creada por un jugador como modelo predictivo con la esperanza de que los demás jugadores hicieran lo mismo. Sería muy interesante, y lo haremos, ir probando diferentes algoritmos y comparar los resultados (sería, cuanto menos, divertido probar uno basado en la sucesión de Fibonacci o en el triángulo de Tartaglia). Otra opción es modificar el propio juego. Lo primero que he hecho ha sido añadir una tercera letra a elegir por el jugador, para hacer más compleja la predicción. He aquí los resultados:

763 jugadas. El azar, como era de esperar, está en torno al 33% con un 31%; Glob funciona a un 38% (un 7% mejor que el azar); 5U ya empieza a ser competitivo con un 49%; y, espectacularmente, 3U sigue ganándome con más de un 55%. Si, a ojo, calculo cómo ha bajado su rendimiento del juego anterior (con solo “d” y “f”), podría rondar un 10% (de 65 a 55). Ante tres opciones, 3U me sigue ganando (aunque reconozco que yo no valdría como sujeto experimental ya que conozco su algoritmo. El esfuerzo por jugar como si no lo conociera no hace que no contamine el resultado).

Estos días ha corrido como la pólvora por la red, el vídeo de una mujer que sufría una amnesia global transitoria. Según cuenta su hija, con la que habla, mantuvo esta misma conversación en bucle durante unas nueve horas y media. Afortunadamente, tras unas veintiséis horas, la amnesia cesó y Mary Sue se ha recuperado sin secuelas apreciables.

 

Este caso, el cual no es para nada una excepción ya que los casos de amnesia anterógrada de este tipo son bastante frecuentes y están bien documentados, es muy significativo para tratar el tema que nos ocupa. El gran problema que impide resolver la cuestión de si una decisión se tomó libremente o estaba determinada de antemano, es que no podemos retroceder en el tiempo para comprobar si, verdaderamente, pudo darse otra elección diferente a la que realmente ocurrió. Sin embargo, Mary Sue, entra en una especie de bucle temporal. Al sufrir amnesia anterógrada no puede generar nuevos recuerdos, por lo que, continuamente resetea, es decir, vuelve al principio. En la excelente película de Christopher Nolan, Memento, el protagonista sufre de una dolencia parecida (si bien mucho más trágica, la suya es incurable y no desaparece a las pocas horas) y se enfrenta a una situación terrible: perdió la memoria justo en el momento en que su mujer era asesinada, por lo que continuamente vuelve al momento del asesinato. En una inconmensurable escena de la película dice “No me acuerdo de olvidarte”, haciendo referencia al hecho de que, para un enfermo de amnesia anterógrada, el tiempo no pasa y, por tanto, el tiempo no cura las heridas por lo que Leonard, el protagonista, nunca podrá superar la muerte de su esposa.

Entonces, con esta repetición temporal, tanto Mary Sue como Leonard  nos sirven para estudiar el libre albedrío. Su vuelta hacia atrás se asemeja a un viaje en el tiempo y, por ello, podemos comprobar si, ante la misma situación (la misma cadena causal desencadenante), hacen algo diferente cada vez. Y el resultado, tal y como comprobamos viendo el vídeo, es que no es así. Mary Sue repite la mismas palabras una y otra vez. Las mismas causas conectan con los mismos efectos: determinismo clásico. El oráculo de Aaronson o 3U acertarían en un 100% de los casos. No somos libres.

Y por si quedaba alguna duda, un nuevo artículo en Nature vuelve a aportar más evidencia. Utilizando resonancia magnética funcional, el equipo de Joel Pearson predecía la decisión de los sujetos experimentales, con hasta once segundos de antelación de que éstos fueran conscientes de su propia elección.

PD.: mientras no me canse, seguiré haciendo pruebas con el oráculo. Cuando refine más el programa lo subiré para que podáis jugar vosotros también.

 

Os dejo el vídeo de la mesa de debate que hicimos en el edificio de Elzaburu en Madrid. Cuando lo he vuelto a ver me ha parecido más interesante aún que cuando estuve allí. Y es que el plantel de expertos es bastante bueno… y si estoy ya es insuperable 😉

La idea que defendí es una de las tesis centrales de Harari en Homo Deus: el fin del liberalismo a manos de las nuevas tecnologías. El fin de nuestro sistema económico-político no va a venir de la mano de los críticos del sistema. El marxismo, con todas sus matizaciones, con todas sus variantes y reformulaciones no ha podido hacer, ni hará, ni cosquillas, al neoliberalismo. El fin de nuestro sistema vendrá por otro lado: de la mano de la revolución tecnológica ¿Cómo?

El liberalismo moderno está basado en la idea de la sacralización del individuo. Y la cualidad más esencial, y por lo tanto valiosa, de ese individuo es su capacidad de elección libre. Entonces, dicho individuo tiene que vivir en un sistema democrático (ya que ha tener la libertad de autogobernarse a sí mismo, tachando de dictatorial cualquier forma de gobierno que sacrifique al individuo en pro de alguna causa mayor como, por ejemplo, el nacionalismo en sus diferentes estilos. Curioso que hoy en día las posturas nacionalistas tengan cierta fuerza) y en un sistema capitalista (tiene que tener libertad para producir pero, sobre todo, para consumir). Por lo tanto, el sistema se fundamenta en la libertad de votantes y consumidores, y si esa desaparece el sistema se derrumba ¿Está desapareciendo?

Nosotros aceptamos que los políticos nos mientan. No nos gusta, de hecho, nos asquea profundamente y gran parte de la apatía política que hoy existe viene de ese desencanto hacia esos mentirosos profesionales que, constantemente, dicen y se desdicen en un bucle patético. Sin embargo, lo aceptamos porque pensamos que el sistema democrático nos trae una serie de ventajas que compensan, con creces, este defecto. Para mí, la principal virtud es que la democracia facilita un mecanismo no violento de alcanzar el poder. En cualquier época histórica no democrática (es decir, en casi toda la historia de la humanidad) si querías gobernar debías quitar por la fuerza al gobernador vigente, y así la historia de nuestra especie es una historia de guerras y guerras y más guerras. La democracia minimiza esto y ya por eso merece, con mucho, la pena.

Sin embargo, nuevas tecnologías están dañando la idea de libertad del sujeto. Bueno, la libertad del sujeto está ya bastante dañada, sencillamente, porque el sujeto no es, para nada, libre, como ya hemos argumentado en muchas ocasiones. No obstante, por mor de la argumentación, vamos a aceptar que el sujeto elige libremente pero que puede ser manipulado, y que un alto nivel de manipulación invalida la libre elección. Entonces, aceptamos un “poquito” de manipulación (la que hacen los políticos), pero demasiada ya no sería aceptable ya que eso significaría que el individuo ha sido engañado y que su voto, en cierto sentido, no ha sido libre ¿Y cómo daña las nuevas tecnologías esto? Aquí entra Cambridge Analytica.

Christopher Wiley,  que parece sacado de un comic cyberpunk (la realidad siempre supera a la ficción), nos ha contado estos días como se elevaba el arte de la manipulación a niveles jamás vistos. Usando el enorme agujero en la seguridad de protección de datos de Fabebook, el análisis de la personalidad a partir de los likes de Facebook iniciado por Kosinski y Stillwell en Cambridge, y técnicas de microtargeting publicitario, la empresa Cambridge Analytica manipuló a más de ochenta millones de personas para votar a favor de Donald Trump o del Brexit (todo mejor explicado en mi ponencia que empieza a partir del minuto 23).  Según sostiene el mismo Wiley, sin la actuación de Cambridge Analytica la victoria de Trump y del Brexit no hubiesen sido tales… entonces, ¿no estamos hablando de fraude electoral en toda regla? ¿Qué legitimidad tienen esos resultados electorales? Pero, fijaos en el asunto porque es muy diferente a otros tipos de tongo electoral: aquí no se ha hecho trampas en el sentido clásico del término: no se obligo a nadie a votar nada en contra de su voluntad ni se falsificaron papeletas ni nada por el estilo. La gente votó felizmente, pensando en que lo hacían libremente. Entonces estamos hablando de un fraude electoral en unas elecciones en las que los votantes votaron libremente… ¿qué diablos significa eso? Que la libertad, fundamento básico del liberalismo, se cae y con ella se cae todo.

No obstante, creo que Wiley exagera un poco. No creo que las herramientas de las que dispuso Cambridge Analytica sean tan potentes a la hora de influenciar en el electorado y que, por tanto, hayan sido tan determinantes en las elecciones donde se utilizaron. Pero eso no quita que en un futuro, bastante próximo, este tipo de técnicas se vayan perfeccionando hasta llegar a niveles de manipulación del votante que nadie estaría dispuesto a aceptar. Véase en el vídeo cuando expongo la “hipótesis de la corbata amarilla” (a partir del minuto 33).

¿Soluciones? Lamentablemente, las medidas legales siempre van muy detrás de los rapidísimos avances tecnológicos (más con la habitual ineptitud de la clase política). El nuevo reglamento europeo (el latoso RGPD) ha mejorado el control de los usuarios sobre sus datos pero todavía se queda muy corto en muchos aspectos y, muy pronto, veremos ya las argucias de las empresas para saltárselo. Como bien subrayaba Elena Gil es muy importante formar en una ética del diseño (que no aparece ni lo más mínimo en ningún plan de estudios de ingeniería), y como bien subrayaba Marlon Molina, una petición de responsabilidades bien delimitada por capas parece una idea muy sensata para afrontar la dificultad que supone la dispersión de la responsabilidad en grandes proyectos empresariales. De la misma forma, que la actividad del programador informático estuviese colegiada tampoco sería una mala propuesta. En el fondo estamos como siempre: un liberalismo económico voraz y descontrolado que pide a gritos una regulación.

Me lleva llamando mucho tiempo la atención la falta de ética generalizada en el sector ingenieril. Recuerdo una vez, discutiendo con un neoliberal, que cuando le hablaba de que la economía debería estar supervisada por la ética me respondió que si yo pretendía convertir la economía en una sharia. O sea, que si hablamos de ética ya somos una especie de… ¡fundamentalistas religiosos!  Y es que los ingenieros están imbuidos en el ethos del mundo empresarial, el cual, como todos sabemos, es de todo menos ético. Así que ingenieros del mundo, por favor, a ver si somos un poquitín más buena gente, y vamos diseñando cosas no tanto para forrarnos como para hacer del mundo un lugar algo mejor. Simon Roses… ¡No trabajes más para DARPA!

Algo de activismo majo al respecto: Tristan Harris, antiguo responsable de diseño ético de Google que se fue de allí espantado viendo lo que realmente había, y otros desertores del sistema, han fundado el Center of Human Technology. Algo es algo.

Estimados lectores, en primer lugar disculparme por el tiempo que llevo sin actualizar el blog. Nunca he estado tanto tiempo sin escribir en él pero tengo escusas: el nacimiento (y posterior crianza) de mi segunda criatura y la realización de un máster, muy chulo por cierto, en Ciencias Cognitivas por la Universidad de Málaga. Ambos quehaceres me han quitado el tiempo necesario para escribir aquí lo que debiera. No obstante, no preocuparse porque tengo ya varias entradas por la mitad, que en breve saldrán a la luz.

Y, en segundo lugar, el gran Antonio Orbe me ha invitado a participar en un ciclo de debates del Foro del Futuro Próximo. Hablaremos de ética y Big Data, es decir, de todos la problemas que va a traer (y ya está trayendo) esta nueva y potente tecnología. Yo, os adelanto, hablaré de Cambridge Analytica, del peculiar Christopher Wylie y de cómo  el Big Data puede hacer tambalear los fundamentos de nuestros sistemas democráticos. También me gustaría hablar de qué consecuencias podrían tener las nuevas técnicas de tratamiento de imágenes que el deep learning ha estado pariendo en los últimos meses… ¡dan miedo! ¡Black Mirror está aquí!

Así que os invito a venir. Será el miércoles a las 18:00 horas en el salón de actos de ELZABURU (Calle Miguel Ángel, 21, Madrid). Lo guay de los ciclos de debate que monta Antonio Orbe es que las ponencias son muy cortas (10 minutos) y todo lo demás es debate entre los ponentes y el público, lo que hace que todo sea mucho más dinámico y divertido. Además, los ponentes han sido elegidos para formar un grupo heterogéneo: tenemos a un ingeniero a la última en todo tipo de tecnologías de la información, a un experto en ciberseguridad, a una abogada y a un filósofo… ¿Qué puede salir mal? Desde ópticas tan diferentes, en seguida surgen discusiones apasionadas (y apasionantes). Lo vamos a pasar muy bien.

Os dejo un vídeo muy instructivo como adelanto: ¿Puede Cambridge Analytica ganar elecciones?

En 2015, la psicóloga cognitiva Roberta Sellaro y su equipo de la Universidad de Leyden, sometieron a una serie de sesenta estudiantes a estimulación craneal de corriente directa (tDCS). Concretamente les estimularon sus cortezas prefrontales mediales, una zona del cerebro relacionada con la capacidad para contrarrestar sesgos xenófobos. Cuando está muy activa, el individuo no se deja llevar tan fácilmente por estereotipos o prejuicios hacia personas que no pertenecen a su propio grupo. Y, efectivamente, el experimento demostró que los individuos a los que se les estimulaba demostraban conductas menos racistas que el grupo de control a la hora de relacionar nombres con características positivas o negativas (Aquí el paper. Fuente: el muy recomendable libro Transhumanismo de Antonio Diéguez Lucena).

Conclusiones:

  1. Que nadie tenga ya en la cabeza la idea de que nuestra capacidad de elección moral es una cualidad espiritual, un don divino, independiente de la ruin y despreciable materia. La elección moral es tan abordable científicamente como la digestión o la elasticidad de los metales.
  2. La noción de libertad o libre albedrío es un residuo mítico, mera forma de hablar que no refieren a nada real. Hay que tener clara la idea de que no existe en nosotros ninguna estancia x que elige una opción sin ningún tipo de causa que le obligue necesariamente a ello. Suponerla sería aceptar la existencia de algo así como un “yo metafísico” que se salta a la torera las leyes de la física (y de la lógica, siendo un claro error categorial).
  3. Elementos como la temperatura, el ritmo circadiano, alimentación, deporte, etc. interfieren en la concentración química de neurotransmisores en nuestro cerebro y, en consecuencia, influirán determinantemente en nuestra toma de decisiones. Todos sabemos cómo cambia nuestra conducta cuando estamos enfadados, borrachos o sin dormir lo suficiente. Sería entonces, bastante interesante tener un buen control del momento y el contexto en el que decidimos, saber “automanipularnos” para tomar las mejores decisiones posibles.
  4. Supongamos que descubren un medicamento que produce una mayor activación de la corteza prefrontal medial y que, por tanto, nos vuelve menos xenófobos. Y supongamos también que pudiésemos, por ejemplo, introducir este medicamento en la composición de la Coca-cola, sin que nadie que la ingiriese notase nada extraño. Millones de personas se volverían menos xenófobas sin darse cuenta y, seguramente, habríamos conseguido un mundo mucho mejor ¿Sería ético hacer algo así?
  5. O pensemos en un criminal, un famoso líder del Ku Klux Klan quien, a pesar de ser encarcelado, no se arrepiente de sus crímenes ni renuncia a sus creencias ¿Sería ético administrarle tal medicamento? Estamos ante la siguiente dicotomía: ¿un mundo mejor rescindiendo “libre albedrío” o un mundo peor a base de respetar un concepto mítico?

En Bigthink Dennett muestra su preocupación acerca del mensaje que los neurocientíficos están mandando a la sociedad acerca del libre albedrío, a saber, que es una ilusión. Parece ser que las personas que saben que no son libres actúan de modo más irresponsable, o directamente peor en términos morales, que las personas que piensan que sus actos son fruto de su libre elección.

Para ilustrarnos sobre el tema nos expone un divertido experimento mental (o bomba de intuición como le gusta decir): un paciente aquejado de un trastorno obsesivo-compulsivo es tratado mediante la inserción de un chip en su cerebro. El neurocirujano le dice al enfermo que esa pequeña prótesis no solo vale para curar su trastorno, sino que, desde ese momento, van a controlar su conducta a través de ella. Le dice que a él le parecerá todo normal ya que tendrá la ilusión de que lo que hace, lo hace libremente, aunque la realidad será que todas sus acciones estarán estrictamente controladas (causadas) por el médico y su equipo.

Al paciente le dan el alta del hospital y se marcha a su casa a seguir llevando su vida, feliz por haberse curado de su trastorno. Sin embargo, a los pocos días comete un delito y es llevado ante un tribunal. Cuando le preguntan por sus fechorías, él responde que no es culpable de nada, ya que ha obrado sin libre albedrío, controlado por el equipo de la clínica de neurocirugía. El juez llama entonces al neurocirujano quien dice que todo fue una broma, que realmente nadie estaba controlando la conducta del presunto delincuente ¿Sería culpable el acusado? Diríamos que sí. Pero, ¿actúo irresponsablemente el neurocirujano? Seguramente que sí ¿Habría delinquido el acusado si hubiera sabido que la responsabilidad era totalmente suya? Es posible que no.

Dennett utiliza este relato para advertirnos acerca de las consecuencias de decir a todo el mundo que no es libre de lo que hace. Si pensamos que son otros los que controlan nuestra conducta y nos apetece apalear a nuestro jefe, ¿no lo haríamos sabiendo que, realmente, toda la responsabilidad es de otros, que nosotros, realmente, no lo hemos hecho? O dicho de otro modo, ¿no lo haremos sabiendo que, realmente, lo están haciendo otros y nosotros no estamos haciendo nada? Pensemos que mientras hacemos el mal podríamos pensar: ¡Qué malvado el neurocirujano! ¡Lo que hace con mi cuerpo!

Y es que podríamos llegar a argüir que, incluso aceptando que todo fuera una broma pesada del médico y nadie controlara sus acciones, ese individuo no obró con pleno libre albedrío porque… ¿tienes la misma responsabilidad de tus actos si crees que estás siendo controlado? ¿Eres responsable de hacer algo que tú mismo crees que no estás haciendo?

Veámoslo más claro en otro ejemplo. Supongamos que estamos contemplando con una videocámara como un criminal asesina brutalmente a nuestro jefe. Nosotros, solo como espectadores, nos lo pasamos pipa viendo hacer algo que desearíamos haber hecho desde hace mucho tiempo. Es más, el asesino mata a nuestro desdichado jefe exactamente de la misma forma que nosotros hubiésemos elegido, de tal modo que casi nos da la impresión de que nosotros vamos ordenando al asesino qué hacer a cada paso. Bien, pues a pesar de que nuestra conducta como sádicos espectadores no es éticamente muy reconfortante, nadie diría que somos culpables del asesinato pero… ¿qué diferencia hay entre este caso y el del obsesivo-compulsivo de Dennett? ¿Por qué diríamos que uno es culpable y el otro no?

Vamos a hacer un poquito de ejercicio. Mis conocimientos en las ciencias del deporte son más bien precarios, así que decido bajarme una aplicación a mi móvil que me proponga un plan de entrenamiento efectivo. Si la aplicación es de calidad, en ella estarán concretados los mejores conocimientos acerca de cuál es el mejor plan para una persona de mis características y, por tanto, será eficaz. Entonces yo confío en la aplicación y la pongo al mando, es decir, dejo que ella decida por mí qué es lo que tengo que hacer. En ese momento estoy dejando que un algoritmo gobierne una parcela de mi vida ¿Estoy haciendo algo malo? No, precisamente porque ese algoritmo es mejor gobernando esa parcela de mi vida que yo mismo. Es totalmente razonable confiar en esa máquina si, realmente, queremos adelgazar.

Damos un paso más. Hoy es día de elecciones y como buen ciudadano voy a ir a votar. Desde siempre he votado al PSOE. Mi abuelo luchó en la guerra civil en el bando republicano e inculcó sus ideas políticas a mi padre, quien luego me las inculcó a mí. Soy socialista por tradición. Sin embargo, cuando voy a votar me encuentro con un viejo amigo comunista. Hablamos un rato, precisamente sobre política, y me hace pensar. Al final, por primera vez en mi vida, voto a Podemos. Pero después, mientras voy caminando de vuelta a casa, comienzo a sentirme mal. Me arrepiento de mi voto y pienso que he traicionado a mi familia por una conversación de última hora. Quisiera cambiar mi voto pero ya es demasiado tarde: yace en el fondo de la urna.

Rebobinamos. Supongamos otra vez la situación anterior pero introducimos un nuevo elemento: Cortana 2045, mi asistente virtual de última generación, cortesía de Microsoft. A partir de todos mis datos de internet y de acompañarme continuamente en todo mi quehacer cotidiano, sabe perfectamente mis preferencias políticas y también sabe lo voluble que puedo ser a la hora de tomar una decisión, sobre todo, a última hora. Ella sabe mejor que yo a quién quiero realmente votar y no va a dejarse llevar por sesgos ni cambios repentinos de opinión. Entonces, lo razonable sería dejar que Cortana votara por mí ¿Dejaremos entonces una decisión supuestamente tan importante como el voto a un conjunto de algoritmos automatizado?

¿Qué pasará cuando inteligencias artificiales sepan tomar nuestras decisiones mejor que nosotros mismos? Tendremos dos opciones: o preferimos seguir sintiéndonos libres y decidimos por nosotros mismos, o dejamos que las máquinas lo hagan y perdemos el mando. El problema estará en que los que pierdan el mando vencerán, ya que tomarán mejores decisiones que los libres, por lo que parece que por simple y pura lógica, cada vez más gente dejará la toma de decisiones a sus consejeros digitales.

Y pensemos las repercusiones de algo así: como apuntábamos en la entrada anterior, la base política, social y económica de nuestra sociedad es el liberalismo, y el liberalismo presupone como condición de posibilidad la existencia de un agente libre que vota, consume y delinque en virtud de susodicha libertad ¿Qué pasará cuándo esas decisiones las tomen máquinas? Podríamos llegar a un original pronóstico: el fin del liberalismo no será, desde luego, el marxismo ni sus diversas variantes, sino una tecnología: la IA.

Pero, y ésta creo que es la gran pregunta del futuro próximo: ¿Aceptará el arrogante ser humano la pérdida del protagonismo en la historia? ¿Aceptará pasar a un segundo plano? ¿Aceptará ser irrelevante?

 

Mensaje antiplatónico par excellence: no existe nada que esencial, o lógicamente, ligue un hecho ético (o, más bien, la interpretación ética de un hecho) del mundo y un estado emocional placentero.  A partir del descubrimiento de las sustancias psicoactivas, nos dimos cuenta de que para conseguir una sensación o emoción no es necesaria la presencia de tal hecho o, ni siquiera, del estado mental que lo preceda y lo cause.  La alegría que hubiéramos obtenido si nos hubiera tocado la lotería de Navidad, podemos conseguirla, e incluso intensificarla, ingiriendo un compuesto de prosaicas moléculas, sin que, realmente, nos toque ni un céntimo. Es más, con una calculada dosis, ya no diremos de la brutal etorfina, sino de fentanilo (peligrosísima) o de oxicodona, podrías sonreír de un indescriptible placer mientras te corto un brazo.

Este descubrimiento tiene unas consecuencias brutales. La mayor parte de las concepciones de la ética dadas a lo largo de la historia (con la honrosísima excepción de la genial ética kantiana) prometían un estado final de felicidad, a condición de seguir una serie de, a menudo muy duros, preceptos. La ataraxia griega, el nirvana budista o la visión deifica cristiana, son estados, en gran medida emocionales, que se obtienen después de  un largo proceso que, a menudo, puede durar toda una vida. El sentido de tu existencia, lo que debes hacer día a día, está sujeto a la obtención de ese premio final. Sin embargo, llegamos a día de hoy y conseguimos el premio sin el arduo proceso.

Se podría objetar que ese estado de felicidad artificial, ese paraíso químico, sería falso, un disfraz conseguido haciendo trampas, algo inauténtico, postizo ¿Por qué? Esta objeción encierra una confusión: la emoción que se consigue al ingerir un psicotrópico no tiene absolutamente nada de falso, es tan real como la conseguida sin la ingesta. Lo falso, o más bien lo ausente, es el suceso generador de la emoción, no la emoción misma.

Se sigue objetando: pero lo realmente valioso es el camino, no únicamente el resultado. Respondemos: podemos ponderar lo que obtenemos en cada fase del camino y ver si compensa o no perderlo en virtud de conseguir, inmediatamente y sin esfuerzo, el bien final. En algunos ejemplos está claro: pensemos en las millones de personas que se están machacando en el gimnasio por lucir un bonito cuerpo cuando llegue el verano. Si yo les dijera que, puedo conseguirles ese cuerpo deseado sin el más mínimo coste, tomando una pastilla que no tiene efecto secundario alguno… ¿No la tomarían sin dudar? ¿No sería estúpido decir que no, que prefieren sufrir levantando pesas y comiendo brócoli?

Las pocas experiencias que he tenido con drogas duras (con las mal llamadas blandas, como el tabaco o el alcohol, he tenido muchísimas) fueron en mi época universitaria (juventud: bendita idiotez). Recuerdo una noche en la que probé una pastilla de MDMA. Cuando la ingerí estaba ya completamente borracho (si no, seguramente, mi superyó bien aleccionado me hubiera impedido tomarla) pero al cabo de unos treinta minutos mi estado etílico cambio radicalmente hacia algo muy diferente. Sentí una felicidad inmensa, una plenitud absoluta, una comunión total con el cosmos… Todo tenía sentido y todo era completamente maravilloso. Nunca antes había sentido un amor hacia la vida y hacia todos los seres humanos similar. Sinceramente, esas horas de efecto del MDMA han sido las más felices de mi vida (y no soy una persona especialmente desgraciada). Nunca he vuelto a sentir emociones tan agradables con esa intensidad. Y, paradójicamente, eso es lo que me aterró de las drogas y lo que consiguió que, finalmente, no terminará siendo un yonki en cualquier parque. Me dio mucho miedo saber que lo que había tomado era demasiado bueno y comprendí lo brutal que debería ser el reverso tenebroso de algo así. Entendí por qué un yonki de cualquier parque es plenamente consciente de su penosa situación y, aún así, prefiere seguir drogándose a tener una vida. No volví a probarlo.

Sin embargo, de lo que no quedé nada disuadido, es de aceptar el uso de drogas que no tengan efectos secundarios significativos. Sería la utopía del utilitarismo hedonista: una sociedad en la que todo el mundo tenga acceso a la mayor felicidad posible. Es más, lo que sería inmoral sería privar a la gente de unas sensaciones de bienestar semejantes. Y, siguiendo esa lógica, nada parece alejarnos de un futuro en el que el uso de psicotrópicos de diversa índole sea cada vez más usual (de hecho ya lo es). Pero quizá un futuro emocionalmente paradisíaco puede esconder algo, como mínimo, inquietante. Sabemos, desde experimentos realizados en la década de los cincuenta del siglo pasado, que ratas de laboratorio preferían tomar cocaína a comer o a beber, dejándose morir con tal de seguir consumiendo su droga. Y es que los sistemas de recompensa emocional del cerebro tienen un fin evolutivo claro: moverte a actuar para obtener placer o evitar el sufrimiento ¿Qué ocurre entonces cuando no hay sufrimiento y se vive en un estado de placer constante? Que el individuo ya no tiene nada que hacer, que no hay nada que pueda motivar su conducta.

Un futuro así sería como un colosal fumadero de opio en el que miles de sujetos vivirían enchufados a aparatos que les suministraran regularmente la dosis adecuada, quizá siempre durmiendo o, simplemente, ensimismados en hermosísimas ensoñaciones, quizá sin hablar con nadie más (¿para qué las relaciones sociales?) o no, pero, seguramente, sin hacer prácticamente nada: solo lo necesario para mantenerse vivos y drogados. Aquí, si que el tiempo histórico quedaría congelado. No se evolucionaría hacia nada más ya que, esta vez sí, estaríamos ante el auténtico fin de la historia de Fukuyama.

Este futuro utópico, o distópico según se mire, casaría perfectamente con el advenimiento de la singularidad tecnológica de la IA. Si construimos inteligencias artificiales que nos superen abrumadoramente, y si hemos sido lo suficientemente listos para conseguir que no nos exterminen, podría pasar algo así: las máquinas tomarían el mando de la historia y se dedicarían solo Skynet sabe a qué, mientras dejarían a sus venerables, aunque patéticamente inferiores creadores, viviendo en un inofensivo paraíso. Entonces, poseamos superdrogas o no, tendremos que enfrentarnos a algo a lo que nuestro frágil ego humano no está acostumbrado: la irrelevancia ¿Aceptará el hombre perder el protagonismo de su historia? ¿Aceptará perder el mando, aún a sabiendas de estar en mejores manos que en las suyas propias? Sería un caso de interesante dilema moral: ¿libertad o felicidad? La respuesta sería fácil para los drogados: seguir en su paraíso toda la eternidad y que gobiernen otros. La responsabilidad del gobierno trae demasiadas preocupaciones y dolores de cabeza.

O quizá, la historia podría continuar por otros derroteros: es posible que los seres humanos no nos quedásemos del todo quietos, sino que siguiéramos buscando formas de placer aún más poderosas. Quién sabe si pondríamos a la IA a nuestro servicio para conseguir placeres que ahora no alcanzamos ni a imaginar. Pensemos en diseño de cerebros a los que se aumenta su capacidad de sentir, con circuitos de placer hiperdesarrollados, que viven en un mundo de realidad virtual en el que todo está pensado para estimular cascadas de opioides, maravillosas tormentas cerebrales de una potencia inusitada. La historia de la humanidad se convertiría en la búsqueda de paraísos dentro de paraísos.

Pensemos en el mejor sueño que hayamos tenido y pongamos detrás de el a un asistente computerizado que sabe lo que nos gusta mucho mejor que nosotros. Recomiendo ver Más allá de los sueños (1998) de Vincent Ward. La película es mala pero sus efectos visuales (que ganaron un Óscar) pueden ilustrar muy bien a lo que nos referimos: imagina caminar de la mano con una bella mujer (quizá con esa chica que nos gustaba en el instituto y que ya no sabes nada de ella), por el cuadro más hermoso que se te ocurra, mientras escuchamos una increíble sinfonía (la Lacrimosa de Preisner o el Dúo de las flores de Delibes) , a la vez que nuestros centros cerebrales de placer se disparan como fuegos artificiales, haciéndonos sentir una especie de orgasmo infinito… Vivir eternamente en ese día de verano de cuando teníamos doce años y no había nada que hacer, ninguna preocupación, y todo era nuevo…

paisajes-naturales-pinturas-al-oleo-sobre-lienzo_21

Por si alguien no ha leído mi último artículo en Xátaka, va sobre otro posible futuro: precrimen.

Y feliz Navidad máquinas mías.