Un poco de roboética

Publicado: 24 abril 2021 en Ética y moral, Ciencias de la computación
Etiquetas:,

Mi coche autónomo se encuentra ante uno de los clásicos dilemas del tranvía. Vamos por un estrecho desfiladero y un niño se cruza en el camino. No hay tiempo para frenar, así que solo hay dos opciones: o atropellamos al niño o nos lanzamos al vacío por el desfiladero. El software del coche tiene que tomar la trágica decisión: o matar al niño o matarme a mí ¿Qué debería hacer? ¿Podríamos decir que el software es un agente moral y, por tanto, responsable de tomar la decisión?

En principio, la respuesta es fácil: claro que no. El software solo sigue instrucciones implementadas en su código por un programador. El evidente responsable de la decisión es quien programó a la máquina para tomar la decisión. Aquí no cabe discusión. Sin embargo, pensemos en las nuevas arquitecturas de aprendizaje profundo. Imaginemos que entrenamos a una red convolucional para clasificar gatitos, de modo que cada vez que le presentemos una imagen sea capaz de decir si allí hay un gato o no. Entonces le enseñamos una foto de un gato Kohana, un subtipo de la extraña raza Sphynx. Antes de enseñársela el programador no sabe qué va a responder la red, porque ésta decidirá en función de su aprendizaje, no de ninguna instrucción previamente programada ¿Podemos entonces decir que ha tomado una decisión y que, por tanto, estamos ante un agente moral?

No tan rápido. Tengamos en cuenta que, a pesar de que la decisión fue fruto del aprendizaje, la máquina obró de una forma completamente determinista. De hecho, siempre volverá a tomar la misma decisión en el futuro. De la misma forma, la red no es consciente de nada, no tiene emociones, ni intención ni siquiera obra siguiendo el deseo de hacer lo que hace ¿Es o no es un agente moral? Podríamos decir que, desde luego, no es un agente moral completo pero ¿Qué mínimos serían los suficientes para decir que estamos ante un agente moral? A fin de cuentas, si pusiéramos a nuestra red convolucional al mando de nuestro coche autónomo, podría tener que decidir si atropellar al niño o matarnos sin que el ingeniero se lo hubiera indicado de antemano. La red estaría tomando una decisión que, si la tomara un humano, diríamos con meridiana certeza que es una decisión moral. El filósofo John P. Sullins, de la Universidad Estatal de Sonoma en California, sostiene que si una IA es capaz de autonomía con respecto a sus programadores, podemos explicar su comportamiento apelando a intenciones morales y muestra comprensión de su responsabilidad con respecto a otros agentes morales, es un agente moral. Quizá, nuestra red convolucional incumple la segunda y la tercera condición: no obra con intenciones ni parece mostrar demasiada comprensión de su responsabilidad pero, ¿Y si obrara como si las tuviera? ¿Y si su conducta fuera siempre responsable ante los otros aunque no hubiese intención ni compresión?

Luciano Floridi, filósofo de Oxford, rebaja un poco más las condiciones: si la IA es capaz de cierta interacción con otros agentes morales, cierta autonomía y cierta adaptabilidad, ya podríamos hablar de agencia moral. Estas condiciones están ya aquí. Un bot conversacional como Blender de Facebook estaría muy cerca, si no lo ha conseguido ya, de cumplirlas. Floridi nos insta a hablar de moralidad a-mental, es decir, de moral sin mente, tal y como la llevarían a cabo las máquinas.

Pero, con independencia de lo que pensemos los filósofos, los algoritmos se irán volviendo más autónomos, más adaptables e irán interactuando cada vez más, y a más niveles, con nosotros. Los usuarios, ignorantes de su funcionamiento interno, solo podrán observar su comportamiento, el cual será indistinguible del de las personas que actúan moralmente, por lo que, al final, actuarán con ellas como si fueran agentes morales de pleno derecho. Cuando Stan Franklin intentó llevar la teoría del espacio de trabajo global de la consciencia de Bernard Baars en un programa llamado LIDA, que se encargaba de comunicarse vía e-mail con marineros de la armada norteamericana, los usuarios no tenían demasiados problemas en afirmar que LIDA era un ente consciente. Así, estamos seguros, no tendrían problemas en otorgarle agencia moral (Ya hablamos de lo fácil que es otorgar mente y empatizar con seres teóricamente inertes). Dentro de un tiempo, no parecerá demasiado extraño contemplar a una persona regañando o castigando a un robot doméstico por haberse portado mal. Pero claro, ¿llegaríamos entonces a juzgar y encarcelar a un algoritmo? Parece muy absurdo meter líneas de código en prisión. Entonces, ¿de qué estaríamos hablando? ¿Estaríamos ante máquinas que obran moralmente pero que no tienen que rendir cuentas cuando obran mal? ¿Moral sin responsabilidad?

Así es. La moral de las máquinas sería una moral arresponsable ya que no tiene ningún sentido castigar a una máquina (únicamente lo tendría si queremos simular ese comportamiento para que la máquina se parezca más en su conducta a un humano). Si un algoritmo actuara moralmente mal, sencillamente, habría que repararlo, corregir su software para que ese comportamiento no se repitiera. La responsabilidad final, por mucho que el algoritmo tomara decisiones autónomas que no fueran previstas por el programador, será de un humano, ya fuera el diseñador, la empresa o el usuario, de la misma forma que un menor de edad o una mascota son responsabilidad de sus padres o dueños . Sin embargo, esto sigue trayendo problemas. Los grandes programas de software están diseñados por muchos programadores diferentes que trabajan para distintas empresas en diversos tiempos. Así, en muchas ocasiones, se hace muy difícil rastrear quién desarrolló cada parte del programa y qué parte de responsabilidad tiene esa parte en la ejecución de la acción moralmente reprobable. También tenemos el problema del secreto industrial: las empresas no querrán desvelar cómo funcionan sus IAs, e, incluso, podrían diseñar sus sistemas de forma intencionalmente opaca para eludir cualquier responsabilidad. Y, para colmar el vaso, tenemos el problema de la caja negra: los sistemas de deep learning son terriblemente opacos per se. Difíciles tiempos aguardan a los juristas que quieran poner orden aquí.

Una original propuesta es la del jurista neoyorquino David Vladeck: en caso de un coche autónomo será el propio coche el que cargue con la culpa. Se crearía una nueva figura jurídica, «coche autónomo», a la que se obligaría a tener un seguro. La prima de pago del seguro oscilaría en función de los accidentes que tuviese ese modelo en concreto, de forma que un modelo muy inseguro pagaría un precio tan elevado que a la empresa automovilística no le saldría rentable seguir produciéndolo, de modo que se fomentaría la carrera por diseñar coches cada vez más fiables. Es una idea.

comentarios
  1. Según dejas ver, una acción moral se compone de tres características: ha de ser consciente de sus actos (lo que implica capacidad de autoconsciencia) y libre (lo que implica autodeterminación, y está supeditado en parte a la primera premisa). Cuando se dan estas condiciones la acción es, además, responsable (lo que implica que el sujeto pueda ser punible).

    La autoconsciencia, según el neurólogo y filósofo J. M. Fuster, es un efecto secundario del desarrollo intelectivo. No descarto que una IA muy desarrollada pueda alcanzar, al menos en teoría, consciencia de su entorno y de sí misma como parte de lo existente.

    En cuanto a la responsabilidad, desde el punto de vista jurídico existe desde siempre la responsabilidad civl de la empresa, e incluso desde hace poco existe la responsabilidad penal empresarial. Ahí no veo mayores problemas. Si la máquina actúa de forma predeterminada, la empresa comercializadora sería la responsable civil y en su caso penal por su mal funcionamiento.

    Ahora bien, para eximir de responsabilidad a la máquina antes habría que determinar su falta de libertad. Para Fuster hay libertad cuando la información del sujeto es lo bastante amplia como para permitirle una variedad de alternativas (a mayor conocimiento, mayor libertad). Sin embargo, ¿no sería esto un determinismo complejo? ¿Y si la explicación alternativa a libertad no fuera el determinismo, sino la aleatoriedad? ¿Puede una máquina ser aleatoria, o sólo lo simula? ¿Es la libertad mera aleatoriedad consciente?

    Y aquí sí hay un verdadero problema jurídico. Si el desarrollo de la inteligencia artificial nos enseña que la libertad no existe, todo nuestro sistema legal se viene abajo. La libertad del individuo es, cuando menos, una ilusión necesaria para la subsistencia de la sociedad.

  2. Juan dice:

    «Si un algoritmo actuara moralmente mal, sencillamente, habría que repararlo, corregir su software para que ese comportamiento no se repitiera». Pongo esta frase, pero casi cualquier otra podría también servir: solo cambiando el sujeto por humán o persona seguiría teniendo sentido, además de ser un gran tema de debate.

Deja una respuesta

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s