Archivos de la categoría ‘Ética y moral’

Carta abierta a Frits Rosendaal

Publicado: 28 marzo 2020 en Ética y moral
Etiquetas:

Según informa El Confidencial, las declaraciones del señor Frits Rosendaal, un excelente científico, jefe de epidemiología clínica del Centro Médico de la Universidad de Leiden (Países Bajos), han sido estas:

En Italia, la capacidad de las UCI se gestiona de manera muy distinta (a Holanda). Ellos admiten a personas que nosotros no incluiríamos porque son demasiado viejas. Los ancianos tienen una posición muy diferente en la cultura italiana.

Con esto se criticaba la gestión italiana y española de la crisis: si aceptamos a ancianos en el sistema sanitario, lo colapsamos y al final habrá más muertos, ya que a esos ancianos que ya de por sí tenían muchas probabilidades de morir, le sumamos los jóvenes que hubieran sobrevivido si el sistema no se hubiera colapsado ¿Parece lógico no?

Siguiendo su precisa lógica, señor Rosendaal, le propongo lo siguiente. A partir de ahora en Holanda, a todo anciano que supere, pongamos los 75 años de edad, se le suministrará gratuita, pero obligatoriamente, una dosis de cianuro (Reconozco que 75 ha sido una edad elegida arbitrariamente. A usted le dejo elegir a partir de qué año exacto una persona merece ya morir o todavía podemos dejarle un ratito más en este valle de lágrimas). De ese modo el sistema sanitario estará siempre en plena forma y podrá atender a todos los demás holandeses dignos de atención. Es más, tal medida será muy saludable para las arcas públicas ya que, el siempre difícil de mantener sistema de pensiones, quedaría muy saneado. Además, los ancianos no consumen demasiado, no producen ni hacen mucho más que estar todo el día sentados y quejándose. No serán una gran pérdida.

Es más, señor Rosendaal, le propongo un nuevo juego, un clásico dilema ético que creo que usted debiera conocer. Usted, a pesar de tener 61 años, dispondrá de muchos órganos sanos y fuertes. Seguramente que en el hospital de Leiden donde usted trabaja hacen falta varios trasplantes. Seguro que hay gente más joven que usted esperando corazones, hígados, pulmones, riñones… Bien. A ver que le parece este trato: un grupo de excelentes cirujanos le llevará al quirófano. Allí, le extirparán los órganos sanos que puedan ser útiles a otros con la condición de que esos otros sean más jóvenes que usted. Tranquilo, no le dolerá. Y fíjese que maravilla: matándole a usted, que, siendo sinceros, está al final de su carrera profesional, podremos salvar a cuatro o cinco personas productivas en plenitud de su vida ¡Una vida por cuatro o cinco! ¡Vaya chollo de trato!

En fin, fuera de bromas, las declaraciones de Frits Rosendaal son, en términos éticos, completamente vomitivas y absolutamente impropias de un profesional con un cargo tan relevante en su país. Ponderar el valor de la vida de las personas en función de su edad es una aberración ética mayúscula que, creía yo, se estudiaba en la asignatura de Ética en secundaria. Se ve que en Holanda no hay necesidad de enseñar tales preceptos.

Y por supuesto, espero muy honestamente, señor Rosendaal, que usted mismo no se vea abocado a decirle a su madre o a su padre, que no le va a atender en su hospital, y que no tenga que ser usted mismo, en persona, el que lo acompañe a la puerta y le pida un taxi para que se vaya a morir a su casa.  Le deseo, de verdad, que no se vea en ese caso porque tiene que ser atroz.

Unas cuantas cositas que he leído estos aciagos días: el célebre gurú de la izquiera, Slavoj Zizek dice, sin inmutarse, que la crisis del coronavirus nos llevará a una nueva especie de neocomunismo maravilloso… Byung-Chul Han, muy guay también, dice que estamos ante el fin de la privacidad y la llegada del autoritarismo. He leído que nuestra cultura mediterránea quedará muy dañada y nos vamos a ir orientalizando, es decir, que ya no saldremos tanto a la calle a disfrutar de nuestro sol sino que nos gustará más quedarnos en casa a ver anime y a jugar a videojuegos. Otros van diciendo que esto está favorenciendo los lazos familiares, que estamos aprendiendo a valorar lo realmente importante, y que, por supuesto, de aquí saldremos mejores y el mundo será más bonito.Y, desde la visión opuesta, no ha faltado en mis lecturas el catastrofismo clásico hacia el futuro económico: una nueva crisis que será varios órdenes de magnitud más dura que la anterior, lo que traerá la enésima reformulación o refundación del capitalismo…Todo esto dicho por reputados analistas e intelectuales que pueblan las cátedras de las universidades y las asesorías de nuestros políticos… ¡Bravo!

Pues ahora yo, en un ejercicio de arrogancia sin parangón, y a sabiendas que me contradigo, os voy a decir lo que va a pasar de verdad: no mucho o, si me he pasado de frenada, desde luego no tanto. A ver. Pidiendo disculpas muy sinceras a todo el que pierda un familiar querido (yo estoy bastante preocupado por los míos. Crucemos los dedos), esto no va a durar mucho más de dos meses. Y dos meses de confinamiento no dan para tanto. Cuando esto termine volveremos a nuestras vidas como siempre. Es cierto que vendrá una nueva crisis económica, pero será parecida a las anteriores, es decir, tocará apretarse un poco más el cinturón. Unos sectores saldrán más perjudicados que otros y la desigualdad aumentará un poquito más. Los ricos serán un poquito más ricos y los pobres un poquito más pobres. Nada nuevo bajo el sol. Esta crisis no es, ni de lejos, lo suficientemente fuerte para provocar ni un cambio de mentalidad ni una carestía material que posibilitaran un cambio socio-económico de calado. Aparte que no hay ninguna opción viable alternativa al capitalismo. La gente no va a renunciar a sus smartphones ni a Netflix por ninguna promesa de emancipación eco-feminista. Y, no, tampoco vamos a volver a ninguna forma de autoritarismo comunistoide por mucho que pueda mostrarse eficaz en tiempos de crisis.

Ahora unos cuantos dardos:

  1. Me ha resultado extraña la falta de liderazgo mundial ante la crisis. No hemos visto reuniones del G-7 cruciales en la que se marque el paso… Cada país ha tomado las medidas a su ritmo haciendo más o menos caso a la OMS y punto. Estados Unidos, que podría haberse valido como primera potencia mundial, ha sido completamente irrelevante. Cuando habla Trump nadie espera más que la sandez de turno. China, por el contrario, parece haber ganado la partida.
  2. Esta falta de liderazgo también está salpicando a la Unión Europea. La negativa a los “Coronabonos” por parte de Alemania y Holanda da ganas de hacer un Brexit express. No puede ser que cada vez que pasa lo que sea, aquí sálvese quién pueda y yo a mirar por lo mío. Siempre se hace lo que Alemania dice, y lo que Alemania dice es lo que a Alemania le viene económicamente bien. Ya sucedió esto de forma muy marcada en la crisis de 2008.
  3. No se le está dando demasiada relevancia a un hecho importante: el falseamiento de datos. Y no solo apunto a China, la que ha falseado lo que habrá querido y más, sino de países occidentales tan “democráticos y transparentes” como Alemania, Inglaterra, Estados Unidos… A los enfermos que pasan asintomáticos o que se quedan en casa “pasando un resfriado”, se suman los fallecidos por complicaciones con patologías previas a los que se computa como muertos por esas patologías sin contar la intervención del coronavirus. Es muy fácil no hacer casi ningún test y solo contar como infectados los que están ingresados graves. La guerra de los datos está, como siempre y como era de esperar, en pleno apogeo.
  4. Me pregunto por qué los ultraliberales no dicen en estos momentos que el estado no intervenga absolutamente en nada, que se deje que la economía sea más libre aún y que así se regule ella solita… ¿Nos damos cuenta ya que la mano invisible de Smith es una patraña? Me gustaría debatir con mi liberal favorito, el brillante Robert Nozick, si un estado mínimo que exclusivamente garantiza la propiedad privada podría hacer frente a una pandemia como ésta.
  5. El dilema ético es espectacular: ¿dejamos morir a los ancianos o salvamos la economía? Dan Patrick, vicegobernador de Texas, abuelete ya, negaba que se tomaran medidas de cuarentena diciendo que estaba dispuesto a sacrificarse por el futuro económico del país. Aunque pudiesen parecer las declaraciones de un viejo senil del Tea Party, no son tan absurdas. Podría ser muy loable sacrificarse en pro de que nuestros hijos y nietos tengan un futuro mejor. Pero aquí nos encontramos con el muro de nuestra ignorancia: ¿hasta qué punto paralizar económicamente un país va a causar un malestar tal en nuestros descendientes que justifique dejar morir a los ancianos? ¿Cómo diablos calcular eso? Difícil, pero ya os digo yo la solución: no compensa de ningún modo. Por muy terrible que sea la crisis que nos espera, no será tan mala como para justificar éticamente el hecho de condenar a muerte a nuestro abuelo. Si dejamos morir a nuestros ancianos por salvar la economía, engrosaremos con un capítulo más el libro de la historia de la infamia.
  6. Es lamentable que los políticos estén utilizando la gestión de la crisis como arma política. Evidentemente, ha podido hacerse mejor o peor, y seguramente, hemos reaccionado algo tarde, pero en un asunto así deberíamos dejar esta repugnante politización de todo para ser leales al gobierno central. Por si alguien sospecha de que aquí mantengo un sesgo izquierdista, diré en mi defensa que si recuerdan la catástrofe ecológica del Prestige, pienso que fue una de las manipulaciones mediáticas de la izquierda más mezquinas, y electoralmente eficaces, que se han hecho en la historia de nuestra democracia. De un posible error en una decisión técnica (Acercar o alejar el petrolero de la costa) se proclamó el celebérrimo “Nunca mais” y todos los personajetes guays de la izquierda española fueron a la costa gallega a hacerse la fotito con la pala y el chapapote.
  7. En esas críticas al gobierno me causó mucha inquietud cuando Pablo Casado dijo que “Sánchez se estaba parapetando detrás de la ciencia”… ¿De verdad que eso es malo señor Casado? ¿En dónde debería parapetarse si no? ¿A qué tipo de asesor debería consultar un político para tomar decisiones en el caso de una pandemia? Todo lo contrario: los políticos deberían incorporar mucho más conocimiento científico en todos los niveles de la toma de decisiones.
  8. Una moraleja que me gustaría que quedara grabada a fuego en el cerebro de todos, pero que no quedará, es algo que Nassim Taleb lleva tiempo diciendo: la realidad es mucho mas impredecible de lo que parece y sucesos improbables ocurren por doquier: ¿qué gobierno hubiese predicho que en marzo de 2020 medio mundo estaría encerrado en su casa? Lo importante es que aprendamos humildad epistemológica: el mundo es caótico y la incertidumbre reina por doquier. Es muy difícil predecir lo que va a pasar y los políticos, incluso si se parapetan detrás de la ciencia, tienen complicado acertar. Desde luego a mí no me gustaría estar en el pellejo del ministro de sanidad en estos momentos. A toro pasado, nadie va a tener la consideración de pensar que se tuvieron que tomar decisiones en muy poco tiempo y con muy poco conocimiento de las consecuencias.
  9. Pensemos en, por ejemplo, la estrategia inicial de Gran Bretaña: buscar la inmunidad del rebaño. A todas luces parece un suicidio, pero, si lo miramos a nivel de evidencia científica, tampoco parece tan, tan mala idea ¿Qué hacer? Si ni a nivel de evidencia científica tenemos acuerdo…
  10. Da qué pensar que el sistema económico pueda derrumbarse por dos meses de parada ¿De verdad que dos meses de parón en el que se aplazan hipotecas, pagos a proveedores y demás, se hunde irremisiblemente? Entiendo que sufra daños, pero no me creo que sea tan grave. Y si fuera así es para mirárselo, porque en un mundo globalizado e hiperconectado como lo es ya desde hace mucho tiempo el nuestro, serán cada vez más comunes interferencias del tipo más diverso. Sería muy conveniente aprovechar el momento para pensar mecanismos que pudiesen robustecer el sistema ante estas eventualidades cada vez más habituales.
  11. Algo que si me ha gustado mucho es el auge de la literatura distópica que todo esto conlleva. Sí, amigos, hay que leer La carretera de McCarthy, a Dick, a Vonnegut, a Ballard, a Bradbury… será muchísimo menos aburrido que seguir la actualidad del coronavirus en las noticias. Lo garantizo.

He leído en varias ocasiones, con torcida perplejidad, a expertos en áreas tecnológicas afirmar, con suma tranquilidad, que la tecnología ni es buena ni mala, que todo depende del uso que se le dé. Así, un cuchillo puede servir tanto para cortar el tan necesario alimento, como para apuñalar al prójimo. Por consiguiente, los empresarios-ingenieros-fabricantes quedan exonerados de toda culpa por diseñar cualquier artefacto, cayendo la totalidad de la responsabilidad en el usuario. Grave error para, como es habitual, metérnosla doblada.

La tecnología no es, de ningún modo, neutra éticamente. Veamos una serie de argumentos para dejarlo claro como el agua:

1.Toda tecnología requiere unos materiales y un coste energético, por lo que cabe preguntarse: ¿Cuán de escasos son esos recursos?  Si son escasos ¿no se necesitarán para otro objetivo éticamente más importante que el que yo les voy a dar? ¿Cómo de difícil es su extracción? ¿Se pondrán en peligro vidas para ello? Famoso es el debate acerca de los materiales con los que se construyen nuestros teléfonos móviles: ¿es ético producir y consumirlos sabiendo de donde vienen sus componentes? En lo que respecta a la IA, hasta hace poco nadie parecía caer en su elevado coste medioambiental cuando la enorme necesidad de capacidad de cómputo dada la notoria ineficiencia del deep learning es muy patente. La IA no es ecofriendly, y eso merece una profunda reflexión.

2. Toda tecnología requiere un proceso de producción: ¿dónde y quién lo realiza? ¿Los trabajadores reciben un salario justo y sus condiciones laborales son adecuadas? Mucho se ha debatido sobre las condiciones laborales de las fábricas asiáticas, donde se produce, prácticamente, todo la tecnología que consumimos. A través de Pinker, he leído estos días sobre la interesante, y polémica, idea de la curva de Kuznets: tras un periodo de gran desigualdad, cuando los países llegan a un alto nivel de desarrollo, la desigualdad se reduce. Quizá no justifique éticamente esa desigualdad, pero en ausencia de alternativas viables en esos países, es posible que sea la mejor opción (si bien también se ha discutido si su base empírica se sostiene).

3. Toda tecnología genera residuos, por lo que cabe preguntarse: ¿que residuos va a generar la nuestra? ¿Son biodegradables? ¿Cuál será su impacto medioambiental? ¿Dónde se almacenan y en qué condiciones? Así, tenemos el gran debate sobre la idoneidad de los coches eléctricos. Por un lado parecía que eran mucho más ecológicos, pero cuando caemos en lo que contamina generar la electricidad que consumen, vemos que no lo son tanto. En está línea está la polémica con respecto a las centrales nucleares. Yo creo firmemente que el sector ecologista que las critica está equivocado. Si hacemos un balance de pros y contras, y a falta de que la energía solar mejore, son una magnífica opción y una buena forma de luchar contra el cambio climático.

4. Toda tecnología tiene efectos secundarios no previstos por los diseñadores. Por eso todo proyecto tecnológico tiene que ir acompañado de una buena evaluación de riesgos. Ya hablamos aquí hace tiempo de la elegante definición de eficiencia tecnológica de Quintanilla: una máquina es eficiente si utiliza los medios más económicos para llegar a sus objetivos y a nada más que a sus objetivos. Esta última parte es la clave: hay que intentar que no se nos escape nada, y si no podemos evitar que se nos escape (realmente, es muy difícil predecir a medio y largo plazo cómo estará el tema), al menos, hacer una sesuda reflexión sobre ello y ponderar razonablemente si merece o no la pena.

5. Toda tecnología tiene posibles usos perversos ¿cuáles son y cuál puede ser su gravedad? ¿Hasta dónde puedo garantizar que no se lleven a cabo? Por ejemplo, parece evidente que si yo creo un método de edición genética que permite a cualquier persona del mundo, sin conocimientos de bioquímica, crear en su casa un virus letal, no deberé sacar a la luz tal tecnología. Y aquí es donde mejor se ve la no neutralidad ética de la tecnología: no es éticamente lo mismo diseñar una vacuna que una bomba de hidrógeno, porque los posibles usos perversos de la segunda son mucho mayores que los de la primera. Resulta muy curioso como en el caso de la IA, se haga más mención al uso perverso que “ella misma” hará contra nosotros (la famosa rebelión de las máquinas), más que del uso perverso que muchos humanos harán de ella. Y, del mismo modo, también resulta curioso que se sobredimensionen sus peligros y usos negativos (los killer robots o los algoritmos sesgados) cuando sus usos positivos son infinitamente más beneficiosos para la humanidad que estos posibles perjuicios. En la IA, igual que pasa con la ingeniería genética, se está ponderando muy mal su uso futuro.

6. Toda tecnología tiene un grado de impacto global: no es lo mismo un invento que hago en mi casa y se queda allí, que algo que tenga muchísimas repercusiones a todos los niveles. Por ejemplo, yo invento un cereal transgénico cuyas cualidades abaratan muchísimo sus costes de producción y, por tanto, su precio final. Supongamos que existe un pequeño país cuyo principal producto de exportación es el cereal. Entonces, he de prever qué efectos sobre la economía de ese país tendrá que yo saque al mercado mi producto. Si que yo me forre implica que condene a un país a la hambruna y a la miseria, he de repensar mi estrategia y buscar otras vías. Además, en un mundo globalizado donde todo está interconectado, hay que tener en cuenta que lo que uno hace en Londres, puede tener repercusiones en Tokio, es decir, que el grado de impacto de cualquier cosa que se haga es, potencialmente, mucho mayor que antaño, por lo que, igualmente, el grado de responsabilidad crecerá a la par.

El error de pensar en la neutralidad de la técnica está en pensar entendiendo los diversos agentes y elementos sociales de forma aislada cuando, verdaderamente, nada se da de forma aislada. Tanto más cuando un desarrollo tecnológico es, en la actualidad, una tarea inmensa. Así creo que una buena forma de entender la globalidad o localidad de cualquier evento es la teoría de sistemas: entender los fenómenos sociales como sistemas o partes de los mismos, siendo un sistema un conjunto de elementos y de interrelaciones entre ellos y otros sistemas. De este modo podemos extender nuestra responsabilidad ética cuando creamos algo: no solo hay que estudiar lo que ocurrirá en nuestro sistema al introducir el nuevo elemento, sino qué consecuencias tendrá en los demás.

Imagen del artista callejero Ludo.

 

En una romántica búsqueda de conseguir un sistema jurídico perfecto, vamos a crear un juez robot que no se vea influido por esos sesgos que hacen que los humanos fallemos una y otra vez en la sagrada tarea de impartir justicia. A primera vista, sencillamente, podríamos dotar a un algoritmo con la base de datos lo más potente posible sobre casos anteriores que crearon jurisprudencia. Entonces, ante cualquier decisión, nuestro juez electrónico solo tendría que buscar en su memoria el caso que más se asemejara al presente y aplicar la misma sentencia. Bien, pero pronto comenzarían los problemas, dado que las, a priori, pequeñas diferencias entre los casos pasados y los actuales, pueden ser mucho más grandes de lo que parecen, y ante esa novedad no prevista, nuestro programa debería ser capaz de dar una justa respuesta. Nos encontraremos casos en los que ni las sentencias anteriores ni la ley parecen dar una respuesta clara y concisa, por lo que nuestro robot necesitará reflexionar. Es por eso que suele decirse que las leyes no se aplican sino que se interpretan.

Entonces, no nos quedará otra que programar al robot con una serie de directrices que le sirvan para interpretar toda nueva circunstancia, una serie de principios de justicia. Hagámoslo: para que consideremos una condena  como justa, tiene que darse una serie de condiciones que nuestro robot debería tener grabada a fuego en su placa base:

  1. Conocimiento: el juez robot ha de contar con toda la información relevante para determinar la sentencia. Es por eso que muchas veces se habla de “falta de pruebas”, cuando no hay información suficiente para determinar si el sospechoso es culpable o no. Importante es entonces saber que casi nunca se cuenta con toda la información: a pesar de que estemos casi seguros de que el asesino es el mayordomo, nadie más que asesino y asesinado estuvieron presentes en el momento del crimen. Entonces, casi toda condena entraña una incertidumbre que hay que determinar si es asumible o no.
  2. Imparcialidad: el juez robot no ha de beneficiar a ninguna de las partes interesadas debido a cualquier motivo que no esté estrictamente relacionado con el asunto a juzgar. Aquí el problema no estaría ya en la corrupción pura y dura que asola los sistemas judiciales de medio mundo, sino en los sesgos inconscientes ocultos en la mente del juez. Esto es, precisamente, lo que se intenta subsanar con los jueces robóticos, y aunque la prensa amarillista nos haya mostrado siempre lo contrario, la inteligencia artificial es una tecnología muy apropiada para evitarlos. No hay nada más fácil, si quieres construir una máquina que no sea racista, que hacerla ciega al color de piel.
  3. Proporcionalidad: el castigo debe ser proporcional al delito cometido. No es justo que me condenen a diez años de trabajos forzados por robar una barra de pan, ni tampoco es justo que me condenen a un día de cárcel por un triple asesinato.
  4. Estabilidad o consistencia: en casos similares que se dan en otro momento del tiempo, los castigos han de ser similares. La justicia no ha de cambiar con el tiempo, ya que crearíamos agravios comparativos entre casos iguales. Si miramos la historia de la humanidad vemos que eso no se ha cumplido para nada, y que los castigos por las mismas penas han ido cambiando. Antes, por regla general, eran muchísimo más duras y las prisiones bastante menos humanas que las de hoy. La explicación, algo presuntuosa por parte de nuestro presente eso sí, está en decir que en el pasado se equivocaban y que nosotros hemos perfeccionado el sistema para hacerlo más justo, de modo que el agravio comparativo se da solo hacia los que tuvieron la mala fortuna de ser juzgados en el pasado.

Vamos a centrarnos en el 3, en el principio de proporcionalidad. Explicarlo es muy fácil, pero llevarlo a la práctica es harto complejo. Sencillamente dice que el castigo a aplicar debe ser proporcional a la magnitud del delito. La proporcionalidad más perfecta es la lex talionis, el bíblico “ojo por ojo, diente por diente”: aplicar al culpable del delito exactamente lo mismo que le ha hecho a la víctima. En algunos casos es relativamente sencillo. Si me han robado 100 euros, han de devolvérmelos con un plus añadido por el perjuicio que me ocasionó no tenerlos durante el tiempo que se tardó en la devolución (por ejemplo, sumando unos intereses). Sin embargo, los problemas surgen en nada que nos paramos a pensar un segundo: ¿una misma cantidad de dinero tiene el mismo valor para todo el mundo? ¿Son iguales 100 euros para un indigente que para un multimillonario? Eso es lo que pienso cuando voy conduciendo por la carretera y me pasa un Porsche a 170 Km/h.

Y la dificultad se hace más patente cuando comenzamos a intentar medir la proporcionalidad de ciertos daños, más cuando la sensibilidad al sufrimiento de cada individuo difiere significativamente. Por ejemplo, si yo insulto públicamente a una persona, lo proporcional sería que esa persona me insultara de la misma forma. No obstante, yo puedo ser un personaje público al que los insultos no le afectan demasiado (incluso, podría ser que los buscara a propósito con tal de que se hable de mí), mientras que el otro agraviado puede ser muy sensible al escarnio público, por lo que aquí la proporcionalidad no se conseguiría en un insulto por insulto. Como no podemos medir con precisión la cantidad de sufrimiento que proporciona tal o cual castigo, esta proporcionalidad es netamente imposible, cuánto más en esta época de ofendiditos en la red. Podría ser que a mí me provocara importantes daños emocionales ver rostros de gente poco agraciada físicamente en Instagram ¿Deberían compensarme los feos por el daño que me ocasionan? ¿Dónde está el límite entre lo que es razonable que ofenda y lo que no?

Tirando más del hilo nos encontramos con aún más problemas. Si suponemos que el crimen más grave es el asesinato, el castigo proporcional no podría ser más exacto que la pena de muerte pero, ¿cómo castigar proporcionalmente a alguien que ha asesinado a dos o más personas? Si con un asesinato el criminal tiene asegurada la pena de muerte, cuando ya ha matado a una persona, todos los demás crímenes que cometa le saldrán gratis. O, si no somos favorables a la pena de muerte pero sí a la cadena perpetua, tenemos el caso de que la pena será mucho más leve para un anciano o un enfermo terminal que morirán en la cárcel habiendo cumplido muy poco tiempo de condena, que para un joven con veinte años y una salud de hierro.

En la sociedad actual, las nuevas tecnologías de la información suponen novedades que deberían tenerse en cuenta a la hora de legislar, si queremos mantener lo más posible el principio de proporcionalidad. En el celebérrimo caso de la manada, los acusados fueron castigados con unos daños de cárcel supuestamente proporcionales al delito cometido. Independientemente con si esa sanción fue justa o no, los acusados fueron también sometidos a un linchamiento público por parte de los medios. Las redes sociales permitieron que sus fotos y datos biográficos fueran conocidos por todo el mundo, y que se hablara en el tono que se quisiera sobre ellos. Es decir, al clásico castigo carcelario se le añadió el nuevo castigo de vapuleamiento en la red que, muchos, podrían considerar incluso peor, o quizá más dañino a largo plazo, que el primero. En otros tiempos en los que no existían nuestros hipertrofiados medios de comunicación, un delincuente, una vez que pagaba su pena, podría empezar de nuevo sin que todo el mundo supiera de su turbio pasado, pero ahora eso es casi imposible. Entonces, cualquier juez robótico que se precie debería tener en cuenta dicho plus, quizá compensando al criminal con menos tiempo en prisión (si además del principio de proporcionalidad quiere mantener el principio de estabilidad). No deja de resultar chocante como hemos vuelto a formas de justicia medievales. Antes de la llegada del Estado Moderno, a los criminales se los linchaba públicamente, cuando no se los ahorcaba en la plaza del pueblo. Entonces, el nuevo contrato social estipuló que la capacidad de castigar delitos era una función exclusiva del Estado, evitando que nadie pudiera tomarse la justicia por su mano. Ahora, paradójicamente, volvemos a torturas medievales gracias a altas tecnologías.

Como vemos, crear un juez robot es algo muchísimo más completo de lo que hubiera soñado Leibniz, y aunque creo que es perfectamente posible, en contra de los que piensan que la justicia humana es algo irreductible a la automatización, no es algo que se vaya a conseguir en dos tardes. Impartir justicia es una tarea que requiere una muy profunda comprensión de la realidad de la que están lejos nuestra mejores inteligencias artificiales. Otra cosa, muy saludable, es que los jueces dispongan de software que le ayude en sus sentencias, como ya ocurre, no sin polémica eso sí, con el programa Compas en Estados Unidos.

Otro camino, que es el que se está usando ahora, es el de abandonar la programación simbólica y utilizar deep learning.  Así, se le da la base de datos a la red neuronal y se la va entrenando para que sus sentencias sean similares a las de los jueces profesionales. Aunque el porcentaje de aciertos suele ser muy alto, aquí nos encontramos con un gravísimo problema: la black box. Los algoritmos de deep learning no pueden explicar el porqué de sus resultados y eso, hablando de decidir sobre la condena de un ser humano, es inaceptable. No podemos tolerar de ningún modo que un software tome decisiones tan importantes sin que sepamos por qué lo ha hecho.  Hasta que tengamos una auténtica IA explicada, no podemos utilizar las redes neuronales para impartir justicia.

Después del más que desagradable asunto de las gemelas modificadas genéticamente por el científico He Jiankui, ahora tenemos al biólogo ruso Denis Rebrikov, queriendo emular al chino. Estas locuras, reprochables a todos los niveles, parecen dar la razón a todos los bioconservadores que se manifiestan en contra de cualquier forma de edición genética. Parecen decirnos ¿Veis lo que pasa si jugamos a ser dioses? Todavía no hemos hecho casi nada más que empezar con la biología sintética, y ya nos saltamos toda norma moral a la torera.

Sin embargo, esto no es más que oportunismo. Ni el más tenaz transhumanista está a favor de lo que ha hecho Jiankui, principalmente, porque todavía no se sabe lo suficiente para predecir todos los efectos secundarios de la mutación de genes. Cuando hablamos de eugenesia en términos éticamente aceptables hablamos, claro está, de mejorar la salud y no de empeorarla. Creo que es obvio. Así, que un científico viole las normas éticas, e incluso las legales, no es razón suficiente para oponerse a una determinada tecnología, más cuando sus promesas son, con mucho, muy superiores a sus riesgos (por mucho que nos quieran vender lo contrario). Creo que en ciencia y tecnología hay que actuar basándose en lo que Max More definió en 2005 como principio proactivo: si consideramos la libertad en la innovación tecnológica como algo muy bueno para la humanidad, la carga de la prueba siempre debe recaer para aquellos que proponen medidas restrictivas. Entonces, dejando de lado los casos puntuales de He Jiankui y de Rebrikov, hoy voy a centrarme en dos de los argumentos más repetidos sobre el tema, de la mano de dos de los máximos bioconservadores de la actualidad: Leon Kass y Francis Fukuyama. El primero, que dirigió el Consejo Presidencial sobre Bioética del gobierno de los Estados Unidos,  hizo famoso su texto “La sabiduría de la repugnancia”. Leamos uno de los fragmentos más potentes:

La gente siente repugnancia frente a muchos aspectos de la clonación humana. Se echan atrás ante la perspectiva de producir en masa seres humanos, con grandes conjuntos de tipos iguales, dañados en su identidad; la idea de gemelos padre-hijo o madre-hija; la extraña posibilidad de que una mujer dé a luz y críe a quien es una copia genética de ella misma, de su esposo o incluso de su padre o madre difuntos; lo caprichoso y grotesco de concebir un niño como sustituto exacto de otro ya muerto; la creación utilitaria de copias genéticas embrionarias de uno mismo, para ser congeladas y desarrolladas en caso de necesitar tejidos homólogos u órganos para trasplante; el narcisismo de los que se clonarían a sí mismos, o la arrogancia de otros que sostienen que ellos saben tanto quien merece ser clonados, como qué genotipo le gustaría recibir a un niño que ha de ser creado; la exaltación frankensteiniana de crear vida humana y controlar de modo creciente su destino; es decir, el hombre jugando a Dios.

 

La argumentación de Kass es bien clara: no debemos permitir éticamente lo que nos produce repugnancia. Tengamos en cuenta que la sensación de repugnancia es un sistema de defensa creado por la evolución para evitar enfermedades o intoxicaciones. Es, entonces, un pedazo de “sabiduría biológica” avalada por eones de selección natural, y no cualquier criterio arbitrario. Kass estaría recurriendo al clásico iusnaturalismo que sostiene grosso modo que la naturaleza es sabia, y que es conveniente seguir sus designios. Esto es fácilmente desmontable desde la célebre falacia naturalista: que algo sea así en la naturaleza no quiere decir que deba ser así. Es el argumento típicamente utilizado contra el darwinismo social: si aceptamos que lo que hace la naturaleza es lo correcto, que el pez grande se coma al pez pequeño nos debería parecer bien cuando, precisamente, lo que nuestros sistemas jurídicos intentan es lo contrario: proteger a los débiles de las injusticias naturales.

Igualmente, apelar al sentimiento de repugnancia como criterio ético tiene más problemas. Estaríamos ante el viejo emotivismo, el cual, puede explicar bien el origen de la moral, pero es incapaz de justificarla. Si bueno es aquello que me causa un sentimiento agradable, no podríamos decirle a un sádico o a un psicópata que lo que hacen está mal. Igualmente, apelando a la repugnancia podríamos negar derechos a homosexuales o transexuales, a gente con sobrepeso o, sencillamente, poco agraciada físicamente o con algún tipo de deformidad. Dado que la sensación de repugnancia tiene diferentes intensidades y es, muchas veces, imposible de diferenciar de otras sensaciones como el rechazo, la extrañeza o la incomodidad, podríamos utilizarla para oponernos a las personas de otras razas, o distintas a nosotros por cualquier motivo. De hecho, Pinker en The stupidy of dignity critica que Kass encuentra repugnantes conductas como comer conos de helado, el cambio de sexo o que mujeres pospongan la maternidad o estén solteras acercándose a los treinta. Incluso tendríamos el problema de que la repugnancia, al ser, como mínimo, parcialmente educable, estaría sujeta a las mismas críticas que podemos hacerle al relativismo cultural: a un nazi que ha sido eficientemente adoctrinado en las juventudes hitlerianas, no podríamos reprocharle su rechazo a los judíos y su satisfacción ante su exterminio.

Pero es más, es que el argumento puede utilizarse para algo con lo que Kass no está nada de acuerdo: la eugenesia ¿Qué hay que cause un sentimiento mejor que contemplar a personas sanas, bellas o inteligentes? Si bien en el proceso de creación en laboratorio podríamos sentirla, los frutos de la eugenesia serían lo contrario a la repugnancia, representando todo lo agradable del ser humano. Podríamos hacer un cálculo de costos y beneficios, y entender que esa repulsión inicial es suplida con creces por el sentimiento de agrado conseguido.

El otro gran argumento es el dado por Fukuyama en su El fin del hombre (2002). Este politólogo estadounidense está en contra de la clonación o la eugenesia apelando a lo que el denomina Factor X, una especie de esencia humana que no debemos trastocar bajo ningún concepto ¿Y qué es? Fukuyama utiliza la x, precisamente, para denotar su carácter vago, ambiguo, casi indefinible o incognoscible por definición. El Factor x no es el uso del lenguaje, ni la inteligencia, ni la capacidad de sentir, ni ninguna otra capacidad o cualidad que, tradicionalmente, se haya situado como la esencia humana por encima de las demás.  El Factor x es, en cierto sentido, todas ellas conjuntamente. Fukuyama quiere escapar de las clásicas críticas que históricamente se han hecho a todo aquel que ha querido reducir la esencia humana a un único factor. Por ejemplo, si defines al ser humano por su inteligencia, una persona con un grave retraso mental ya no sería humana, o si lo defines por su consciencia, alguien en coma ya dejaría de serlo. Sin embargo, si la esencia del hombre no es nada tangible y, a la vez, lo es todo, no caeremos en ningún tipo de reduccionismo.

En el fondo, los malabares de Fukuyama no dejan de ser una forma soterrada, o no tanto, de volver al viejo concepto de espíritu o alma inmortal. Para criticar el naturalismo de sus enemigos darwinistas, Fukuyama saca lo esencial del hombre del plano natural al metafísico. Ya está, no hay más, volvemos a formas de pensar muy viejas: una naturaleza humana espiritual inviolable. El problema es que Fukuyama parece no entender que, dada la teoría de la evolución, la naturaleza humana no es algo dado, sino que está en continuo cambio. De aquí a 100.000 años la naturaleza humana será muy diferente a la que es ahora ¿Y hacia donde irán esos cambios? En gran parte al azar ciego del barajeo de genes en el que consiste la reproducción sexual ¿Es mejor dejar que la suerte decida sobre nuestra naturaleza? Imaginemos que la selección natural premia genes más agresivos, egoístas o estúpidos… ¿Sería ético no hacer nada por evitarlo? Agarrarse a la idea de dignidad humana basada en sacralizar su naturaleza es un grave error. No debemos nada a la naturaleza humana porque en ella hay cosas muy malas. Recordemos que los que construyeron Auschwitz tenían ese mismo Factor x que no hay que tocar bajo ningún concepto.

Supe hace unos días del oráculo de Aaronson a través de un breve artículo de Microsiervos. Se trata de un experimento sencillísimo: tienes que elegir entre pulsar la tecla “d” o la “f” las veces que quieras. El oráculo consiste en un algoritmo que intentará predecir qué tecla vas a pulsar. Ya está, no hay más ¿Una estupidez? Para nada.

La idea es la siguiente: actuar sin libertad de elección o libre albedrío suele entenderse como actuar de modo determinado por causas anteriores. En tal caso, conociendo las causas anteriores debería ser fácil predecir la futura elección. En caso contrario, no poder predecir la elección puede entenderse como evidencia a favor de que se actúa con libre albedrío. Podría objetarse que no tiene por qué: si yo me echo a la siesta todos los días a las tres de la tarde, mi conducta puede ser muy predecible pero eso no quita que yo elija libremente siempre hacer lo mismo. De acuerdo, pero de lo que trata el oráculo de Aaronson es de intentar, a propósito, no ser predecible. Si, verdaderamente, somos libres no deberíamos tener demasiados problemas en ser impredecibles, deberíamos ser buenos generando cadenas aleatorias.

Sin embargo, el oráculo parece demostrarnos lo contrario. Cuando probé la versión web de Aaronson me pareció curioso lo que me costaba generar secuencias impredecibles. La mayor parte de las veces que he jugado el oráculo me ganaba y, muchas veces, incluso con porcentajes superiores al sesenta por ciento. Bien, ¿y cómo funciona el algoritmo? Analiza las 32 posibles secuencias diferentes de cinco letras. Entonces, cuando el jugador sigue una de ellas, el algoritmo memoriza cuál ha sido la elección para, cuando vuelva a repetirse la secuencia, apostar por ella.

Casi por puro divertimento, me puse a programar en Phyton una versión con diferentes algoritmos. Y los resultados me han dejado, cuanto menos, inquieto. Mi programa está formado por cuatro algoritmos. El primero, funciona, simplemente por azar, y está implementado de modo simbólico para establecer la comparación entre los resultados del mero azar (que, evidentemente, se acercarán siempre al cincuenta por ciento) y los resultados de los demás algoritmos. La idea básica es que cualquier algoritmo que no mejore los resultados del azar no predice absolutamente nada. El segundo algoritmo (llamado Glob), sencillamente calcula cuántas veces se ha pulsado “d” y cuántas “f”, y apuesta por la letra que más veces se ha repetido. El tercero (3U) cuenta las veces que han pulsado “d” o “f” en las últimas tres jugadas, y apuesta por la que más veces se ha iterado. Y el cuarto (5U) hace lo mismo que el anterior pero contando a partir de las cinco últimas jugadas.

Os pego aquí los resultados de mi mujer:

Jugó 383 veces. El algoritmo azaroso solo acertó en torno al 51%, pero ya  Glob acertó un 56%, 5U un 64% y, lo más llamativo, 3U acertó un 70%. Todas las veces que yo he jugado los resultados han sido muy parecidos (aunque, evidentemente, para que esto tenga validez científica habría que hacer el experimento como Dios manda).

Los algoritmos de este oráculo son más simples que el de Aaronson (que tampoco es que sea muy complicado). De forma elemental, cuentan las veces que se repite un determinado resultado y apuestan por él sin más estrategia. Lo único que hacen es detectar rachas, apostar por tendencias a la repetición.  Ya es llamativo que algoritmos tan estúpidos tengan mejores resultados que el azar, pero lo tremendamente interesante es que algo tan estúpido como 3U sea tan bueno. He comparado muchas veces sus resultados con los del algoritmo de Aaronson, y 3U es muchísimo mejor. De hecho, he visto muy pocas veces a 3U bajar del 60% ¿Cómo puede ganarme una cosa tan tonta? O dicho de otro modo ¿Cómo puedo ser tan sumamente predecible?

He pensado seguir ampliando el oráculo. El mismo Aaronson nos dice que podríamos cambiar su algoritmo para secuencias de tres en vez de cinco letras, o que podríamos utilizar la cadena creada por un jugador como modelo predictivo con la esperanza de que los demás jugadores hicieran lo mismo. Sería muy interesante, y lo haremos, ir probando diferentes algoritmos y comparar los resultados (sería, cuanto menos, divertido probar uno basado en la sucesión de Fibonacci o en el triángulo de Tartaglia). Otra opción es modificar el propio juego. Lo primero que he hecho ha sido añadir una tercera letra a elegir por el jugador, para hacer más compleja la predicción. He aquí los resultados:

763 jugadas. El azar, como era de esperar, está en torno al 33% con un 31%; Glob funciona a un 38% (un 7% mejor que el azar); 5U ya empieza a ser competitivo con un 49%; y, espectacularmente, 3U sigue ganándome con más de un 55%. Si, a ojo, calculo cómo ha bajado su rendimiento del juego anterior (con solo “d” y “f”), podría rondar un 10% (de 65 a 55). Ante tres opciones, 3U me sigue ganando (aunque reconozco que yo no valdría como sujeto experimental ya que conozco su algoritmo. El esfuerzo por jugar como si no lo conociera no hace que no contamine el resultado).

Estos días ha corrido como la pólvora por la red, el vídeo de una mujer que sufría una amnesia global transitoria. Según cuenta su hija, con la que habla, mantuvo esta misma conversación en bucle durante unas nueve horas y media. Afortunadamente, tras unas veintiséis horas, la amnesia cesó y Mary Sue se ha recuperado sin secuelas apreciables.

 

Este caso, el cual no es para nada una excepción ya que los casos de amnesia anterógrada de este tipo son bastante frecuentes y están bien documentados, es muy significativo para tratar el tema que nos ocupa. El gran problema que impide resolver la cuestión de si una decisión se tomó libremente o estaba determinada de antemano, es que no podemos retroceder en el tiempo para comprobar si, verdaderamente, pudo darse otra elección diferente a la que realmente ocurrió. Sin embargo, Mary Sue, entra en una especie de bucle temporal. Al sufrir amnesia anterógrada no puede generar nuevos recuerdos, por lo que, continuamente resetea, es decir, vuelve al principio. En la excelente película de Christopher Nolan, Memento, el protagonista sufre de una dolencia parecida (si bien mucho más trágica, la suya es incurable y no desaparece a las pocas horas) y se enfrenta a una situación terrible: perdió la memoria justo en el momento en que su mujer era asesinada, por lo que continuamente vuelve al momento del asesinato. En una inconmensurable escena de la película dice “No me acuerdo de olvidarte”, haciendo referencia al hecho de que, para un enfermo de amnesia anterógrada, el tiempo no pasa y, por tanto, el tiempo no cura las heridas por lo que Leonard, el protagonista, nunca podrá superar la muerte de su esposa.

Entonces, con esta repetición temporal, tanto Mary Sue como Leonard  nos sirven para estudiar el libre albedrío. Su vuelta hacia atrás se asemeja a un viaje en el tiempo y, por ello, podemos comprobar si, ante la misma situación (la misma cadena causal desencadenante), hacen algo diferente cada vez. Y el resultado, tal y como comprobamos viendo el vídeo, es que no es así. Mary Sue repite la mismas palabras una y otra vez. Las mismas causas conectan con los mismos efectos: determinismo clásico. El oráculo de Aaronson o 3U acertarían en un 100% de los casos. No somos libres.

Y por si quedaba alguna duda, un nuevo artículo en Nature vuelve a aportar más evidencia. Utilizando resonancia magnética funcional, el equipo de Joel Pearson predecía la decisión de los sujetos experimentales, con hasta once segundos de antelación de que éstos fueran conscientes de su propia elección.

PD.: mientras no me canse, seguiré haciendo pruebas con el oráculo. Cuando refine más el programa lo subiré para que podáis jugar vosotros también.

 

Os dejo el vídeo de la mesa de debate que hicimos en el edificio de Elzaburu en Madrid. Cuando lo he vuelto a ver me ha parecido más interesante aún que cuando estuve allí. Y es que el plantel de expertos es bastante bueno… y si estoy ya es insuperable 😉

La idea que defendí es una de las tesis centrales de Harari en Homo Deus: el fin del liberalismo a manos de las nuevas tecnologías. El fin de nuestro sistema económico-político no va a venir de la mano de los críticos del sistema. El marxismo, con todas sus matizaciones, con todas sus variantes y reformulaciones no ha podido hacer, ni hará, ni cosquillas, al neoliberalismo. El fin de nuestro sistema vendrá por otro lado: de la mano de la revolución tecnológica ¿Cómo?

El liberalismo moderno está basado en la idea de la sacralización del individuo. Y la cualidad más esencial, y por lo tanto valiosa, de ese individuo es su capacidad de elección libre. Entonces, dicho individuo tiene que vivir en un sistema democrático (ya que ha tener la libertad de autogobernarse a sí mismo, tachando de dictatorial cualquier forma de gobierno que sacrifique al individuo en pro de alguna causa mayor como, por ejemplo, el nacionalismo en sus diferentes estilos. Curioso que hoy en día las posturas nacionalistas tengan cierta fuerza) y en un sistema capitalista (tiene que tener libertad para producir pero, sobre todo, para consumir). Por lo tanto, el sistema se fundamenta en la libertad de votantes y consumidores, y si esa desaparece el sistema se derrumba ¿Está desapareciendo?

Nosotros aceptamos que los políticos nos mientan. No nos gusta, de hecho, nos asquea profundamente y gran parte de la apatía política que hoy existe viene de ese desencanto hacia esos mentirosos profesionales que, constantemente, dicen y se desdicen en un bucle patético. Sin embargo, lo aceptamos porque pensamos que el sistema democrático nos trae una serie de ventajas que compensan, con creces, este defecto. Para mí, la principal virtud es que la democracia facilita un mecanismo no violento de alcanzar el poder. En cualquier época histórica no democrática (es decir, en casi toda la historia de la humanidad) si querías gobernar debías quitar por la fuerza al gobernador vigente, y así la historia de nuestra especie es una historia de guerras y guerras y más guerras. La democracia minimiza esto y ya por eso merece, con mucho, la pena.

Sin embargo, nuevas tecnologías están dañando la idea de libertad del sujeto. Bueno, la libertad del sujeto está ya bastante dañada, sencillamente, porque el sujeto no es, para nada, libre, como ya hemos argumentado en muchas ocasiones. No obstante, por mor de la argumentación, vamos a aceptar que el sujeto elige libremente pero que puede ser manipulado, y que un alto nivel de manipulación invalida la libre elección. Entonces, aceptamos un “poquito” de manipulación (la que hacen los políticos), pero demasiada ya no sería aceptable ya que eso significaría que el individuo ha sido engañado y que su voto, en cierto sentido, no ha sido libre ¿Y cómo daña las nuevas tecnologías esto? Aquí entra Cambridge Analytica.

Christopher Wiley,  que parece sacado de un comic cyberpunk (la realidad siempre supera a la ficción), nos ha contado estos días como se elevaba el arte de la manipulación a niveles jamás vistos. Usando el enorme agujero en la seguridad de protección de datos de Fabebook, el análisis de la personalidad a partir de los likes de Facebook iniciado por Kosinski y Stillwell en Cambridge, y técnicas de microtargeting publicitario, la empresa Cambridge Analytica manipuló a más de ochenta millones de personas para votar a favor de Donald Trump o del Brexit (todo mejor explicado en mi ponencia que empieza a partir del minuto 23).  Según sostiene el mismo Wiley, sin la actuación de Cambridge Analytica la victoria de Trump y del Brexit no hubiesen sido tales… entonces, ¿no estamos hablando de fraude electoral en toda regla? ¿Qué legitimidad tienen esos resultados electorales? Pero, fijaos en el asunto porque es muy diferente a otros tipos de tongo electoral: aquí no se ha hecho trampas en el sentido clásico del término: no se obligo a nadie a votar nada en contra de su voluntad ni se falsificaron papeletas ni nada por el estilo. La gente votó felizmente, pensando en que lo hacían libremente. Entonces estamos hablando de un fraude electoral en unas elecciones en las que los votantes votaron libremente… ¿qué diablos significa eso? Que la libertad, fundamento básico del liberalismo, se cae y con ella se cae todo.

No obstante, creo que Wiley exagera un poco. No creo que las herramientas de las que dispuso Cambridge Analytica sean tan potentes a la hora de influenciar en el electorado y que, por tanto, hayan sido tan determinantes en las elecciones donde se utilizaron. Pero eso no quita que en un futuro, bastante próximo, este tipo de técnicas se vayan perfeccionando hasta llegar a niveles de manipulación del votante que nadie estaría dispuesto a aceptar. Véase en el vídeo cuando expongo la “hipótesis de la corbata amarilla” (a partir del minuto 33).

¿Soluciones? Lamentablemente, las medidas legales siempre van muy detrás de los rapidísimos avances tecnológicos (más con la habitual ineptitud de la clase política). El nuevo reglamento europeo (el latoso RGPD) ha mejorado el control de los usuarios sobre sus datos pero todavía se queda muy corto en muchos aspectos y, muy pronto, veremos ya las argucias de las empresas para saltárselo. Como bien subrayaba Elena Gil es muy importante formar en una ética del diseño (que no aparece ni lo más mínimo en ningún plan de estudios de ingeniería), y como bien subrayaba Marlon Molina, una petición de responsabilidades bien delimitada por capas parece una idea muy sensata para afrontar la dificultad que supone la dispersión de la responsabilidad en grandes proyectos empresariales. De la misma forma, que la actividad del programador informático estuviese colegiada tampoco sería una mala propuesta. En el fondo estamos como siempre: un liberalismo económico voraz y descontrolado que pide a gritos una regulación.

Me lleva llamando mucho tiempo la atención la falta de ética generalizada en el sector ingenieril. Recuerdo una vez, discutiendo con un neoliberal, que cuando le hablaba de que la economía debería estar supervisada por la ética me respondió que si yo pretendía convertir la economía en una sharia. O sea, que si hablamos de ética ya somos una especie de… ¡fundamentalistas religiosos!  Y es que los ingenieros están imbuidos en el ethos del mundo empresarial, el cual, como todos sabemos, es de todo menos ético. Así que ingenieros del mundo, por favor, a ver si somos un poquitín más buena gente, y vamos diseñando cosas no tanto para forrarnos como para hacer del mundo un lugar algo mejor. Simon Roses… ¡No trabajes más para DARPA!

Algo de activismo majo al respecto: Tristan Harris, antiguo responsable de diseño ético de Google que se fue de allí espantado viendo lo que realmente había, y otros desertores del sistema, han fundado el Center of Human Technology. Algo es algo.

Estimados lectores, en primer lugar disculparme por el tiempo que llevo sin actualizar el blog. Nunca he estado tanto tiempo sin escribir en él pero tengo escusas: el nacimiento (y posterior crianza) de mi segunda criatura y la realización de un máster, muy chulo por cierto, en Ciencias Cognitivas por la Universidad de Málaga. Ambos quehaceres me han quitado el tiempo necesario para escribir aquí lo que debiera. No obstante, no preocuparse porque tengo ya varias entradas por la mitad, que en breve saldrán a la luz.

Y, en segundo lugar, el gran Antonio Orbe me ha invitado a participar en un ciclo de debates del Foro del Futuro Próximo. Hablaremos de ética y Big Data, es decir, de todos la problemas que va a traer (y ya está trayendo) esta nueva y potente tecnología. Yo, os adelanto, hablaré de Cambridge Analytica, del peculiar Christopher Wylie y de cómo  el Big Data puede hacer tambalear los fundamentos de nuestros sistemas democráticos. También me gustaría hablar de qué consecuencias podrían tener las nuevas técnicas de tratamiento de imágenes que el deep learning ha estado pariendo en los últimos meses… ¡dan miedo! ¡Black Mirror está aquí!

Así que os invito a venir. Será el miércoles a las 18:00 horas en el salón de actos de ELZABURU (Calle Miguel Ángel, 21, Madrid). Lo guay de los ciclos de debate que monta Antonio Orbe es que las ponencias son muy cortas (10 minutos) y todo lo demás es debate entre los ponentes y el público, lo que hace que todo sea mucho más dinámico y divertido. Además, los ponentes han sido elegidos para formar un grupo heterogéneo: tenemos a un ingeniero a la última en todo tipo de tecnologías de la información, a un experto en ciberseguridad, a una abogada y a un filósofo… ¿Qué puede salir mal? Desde ópticas tan diferentes, en seguida surgen discusiones apasionadas (y apasionantes). Lo vamos a pasar muy bien.

Os dejo un vídeo muy instructivo como adelanto: ¿Puede Cambridge Analytica ganar elecciones?

En 2015, la psicóloga cognitiva Roberta Sellaro y su equipo de la Universidad de Leyden, sometieron a una serie de sesenta estudiantes a estimulación craneal de corriente directa (tDCS). Concretamente les estimularon sus cortezas prefrontales mediales, una zona del cerebro relacionada con la capacidad para contrarrestar sesgos xenófobos. Cuando está muy activa, el individuo no se deja llevar tan fácilmente por estereotipos o prejuicios hacia personas que no pertenecen a su propio grupo. Y, efectivamente, el experimento demostró que los individuos a los que se les estimulaba demostraban conductas menos racistas que el grupo de control a la hora de relacionar nombres con características positivas o negativas (Aquí el paper. Fuente: el muy recomendable libro Transhumanismo de Antonio Diéguez Lucena).

Conclusiones:

  1. Que nadie tenga ya en la cabeza la idea de que nuestra capacidad de elección moral es una cualidad espiritual, un don divino, independiente de la ruin y despreciable materia. La elección moral es tan abordable científicamente como la digestión o la elasticidad de los metales.
  2. La noción de libertad o libre albedrío es un residuo mítico, mera forma de hablar que no refieren a nada real. Hay que tener clara la idea de que no existe en nosotros ninguna estancia x que elige una opción sin ningún tipo de causa que le obligue necesariamente a ello. Suponerla sería aceptar la existencia de algo así como un “yo metafísico” que se salta a la torera las leyes de la física (y de la lógica, siendo un claro error categorial).
  3. Elementos como la temperatura, el ritmo circadiano, alimentación, deporte, etc. interfieren en la concentración química de neurotransmisores en nuestro cerebro y, en consecuencia, influirán determinantemente en nuestra toma de decisiones. Todos sabemos cómo cambia nuestra conducta cuando estamos enfadados, borrachos o sin dormir lo suficiente. Sería entonces, bastante interesante tener un buen control del momento y el contexto en el que decidimos, saber “automanipularnos” para tomar las mejores decisiones posibles.
  4. Supongamos que descubren un medicamento que produce una mayor activación de la corteza prefrontal medial y que, por tanto, nos vuelve menos xenófobos. Y supongamos también que pudiésemos, por ejemplo, introducir este medicamento en la composición de la Coca-cola, sin que nadie que la ingiriese notase nada extraño. Millones de personas se volverían menos xenófobas sin darse cuenta y, seguramente, habríamos conseguido un mundo mucho mejor ¿Sería ético hacer algo así?
  5. O pensemos en un criminal, un famoso líder del Ku Klux Klan quien, a pesar de ser encarcelado, no se arrepiente de sus crímenes ni renuncia a sus creencias ¿Sería ético administrarle tal medicamento? Estamos ante la siguiente dicotomía: ¿un mundo mejor rescindiendo “libre albedrío” o un mundo peor a base de respetar un concepto mítico?

En Bigthink Dennett muestra su preocupación acerca del mensaje que los neurocientíficos están mandando a la sociedad acerca del libre albedrío, a saber, que es una ilusión. Parece ser que las personas que saben que no son libres actúan de modo más irresponsable, o directamente peor en términos morales, que las personas que piensan que sus actos son fruto de su libre elección.

Para ilustrarnos sobre el tema nos expone un divertido experimento mental (o bomba de intuición como le gusta decir): un paciente aquejado de un trastorno obsesivo-compulsivo es tratado mediante la inserción de un chip en su cerebro. El neurocirujano le dice al enfermo que esa pequeña prótesis no solo vale para curar su trastorno, sino que, desde ese momento, van a controlar su conducta a través de ella. Le dice que a él le parecerá todo normal ya que tendrá la ilusión de que lo que hace, lo hace libremente, aunque la realidad será que todas sus acciones estarán estrictamente controladas (causadas) por el médico y su equipo.

Al paciente le dan el alta del hospital y se marcha a su casa a seguir llevando su vida, feliz por haberse curado de su trastorno. Sin embargo, a los pocos días comete un delito y es llevado ante un tribunal. Cuando le preguntan por sus fechorías, él responde que no es culpable de nada, ya que ha obrado sin libre albedrío, controlado por el equipo de la clínica de neurocirugía. El juez llama entonces al neurocirujano quien dice que todo fue una broma, que realmente nadie estaba controlando la conducta del presunto delincuente ¿Sería culpable el acusado? Diríamos que sí. Pero, ¿actúo irresponsablemente el neurocirujano? Seguramente que sí ¿Habría delinquido el acusado si hubiera sabido que la responsabilidad era totalmente suya? Es posible que no.

Dennett utiliza este relato para advertirnos acerca de las consecuencias de decir a todo el mundo que no es libre de lo que hace. Si pensamos que son otros los que controlan nuestra conducta y nos apetece apalear a nuestro jefe, ¿no lo haríamos sabiendo que, realmente, toda la responsabilidad es de otros, que nosotros, realmente, no lo hemos hecho? O dicho de otro modo, ¿no lo haremos sabiendo que, realmente, lo están haciendo otros y nosotros no estamos haciendo nada? Pensemos que mientras hacemos el mal podríamos pensar: ¡Qué malvado el neurocirujano! ¡Lo que hace con mi cuerpo!

Y es que podríamos llegar a argüir que, incluso aceptando que todo fuera una broma pesada del médico y nadie controlara sus acciones, ese individuo no obró con pleno libre albedrío porque… ¿tienes la misma responsabilidad de tus actos si crees que estás siendo controlado? ¿Eres responsable de hacer algo que tú mismo crees que no estás haciendo?

Veámoslo más claro en otro ejemplo. Supongamos que estamos contemplando con una videocámara como un criminal asesina brutalmente a nuestro jefe. Nosotros, solo como espectadores, nos lo pasamos pipa viendo hacer algo que desearíamos haber hecho desde hace mucho tiempo. Es más, el asesino mata a nuestro desdichado jefe exactamente de la misma forma que nosotros hubiésemos elegido, de tal modo que casi nos da la impresión de que nosotros vamos ordenando al asesino qué hacer a cada paso. Bien, pues a pesar de que nuestra conducta como sádicos espectadores no es éticamente muy reconfortante, nadie diría que somos culpables del asesinato pero… ¿qué diferencia hay entre este caso y el del obsesivo-compulsivo de Dennett? ¿Por qué diríamos que uno es culpable y el otro no?