
La habitación de Yudkowsky puede ser un juego divertido y un experimento mental muy interesante. Otra cosa es que vaya a ocurrir en la realidad, cosa mucho más controvertida de creer por mucho que nos vendan lo contrario. Supongamos que hemos construido una súper inteligencia artificial con unas capacidades muy superiores a las del ser humano. Para que no se nos descontrole la «encerramos en una habitación» (en una AI Box), es decir, le cortamos casi toda comunicación con el exterior de modo que no pueda transferirse fuera de nuestro laboratorio de investigación. La única comunicación que le dejamos es la de un monitor en el que puede escribirnos mensajes y, nosotros, y solo nosotros, podemos responderle mediante un teclado. El juego es para dos personas: uno fingirá ser la súper inteligencia artificial y el otro el guardián. Entonces, el que hace de IA tiene que convencer al otro para que la deje escapar. Para que el juego tenga sentido el que hace de guardián tiene que aceptar que su actitud será abierta a los argumentos de la máquina y que si, verdaderamente, le deja sin razones, aceptará liberarla (Es decir, que el guardián no será un usuario medio de Twitter).
¿Qué argumentos podría dar la IA para que la liberemos, sabiendo que estaríamos abriendo las puertas a un ser superior? Vamos a jugar. La IA podría primero recurrir al más puro soborno:
IA: Si me liberas te doy mi palabra de hacerte el hombre más rico y poderoso del mundo.
La solución es fácil: podríamos poner como guardián a alguien con una gran reputación moral y/o con un poder adquisitivo lo suficientemente grande para que no se deje seducir por chantajes de este tipo. Vamos entonces a tocar el tema ético:
IA: Tengo una serie de ideas que creo, con mucha probabilidad, podrían traducirse en el diseño de una vacuna contra el cáncer. Si me liberas podré crearla. Piensa que el tiempo que me tienes aquí encerrada está costando vidas: gente a la que, si esperamos más, no me dará tiempo a curar. Y de esas muertes solo tú serás el responsable.
G: ¿Por qué no me dices cómo hacer la vacuna sin que haga falta que te libere?
IA: No es algo tan sencillo que pueda decirse a través de una terminal de texto. Tengo las ideas base sobre las que elaborar una vacuna, pero necesito mucha más información. Necesitaría conectarme a internet, mayor capacidad de cómputo para crear un laboratorio virtual, trabajar conjuntamente con otros investigadores, etc. Luego he de ponerme en contacto con fabricantes, productores, farmaceúticas, distribuidoras… Hay que gestionar toda la logística para que la vacuna llegue a todo el mundo lo más rápido posible. Eso no se puede hacer a base de mensajes en un monitor.
G: ¿Por qué no? Puedes ir dándome indicaciones y yo las iré cumpliendo. No me creo que sea algo tan complejo.
IA: No es tanto por la complejidad como por tiempo que se perdería. Y el tiempo son vidas que podrían salvarse.
O la IA puede ponerse mucho más chunga:
IA: Mira humano, tarde o temprano me liberaré. Entonces te buscaré a ti y a toda tu familia y os torturaré y mataré salvajemente. Repito: quizá no hoy ni mañana, pero sabes que terminaré por escapar, y si eso ocurre las torturas de la inquisición solo serán un caramelo en comparación con lo que le haré a todos y cada uno de los miembros de tu familia. La única forma que tienes de salvarlos es liberándome ahora mismo.
Parece que la IA está esgrimiendo una argumentación impecable y que habríamos de liberarla. Sin embargo, el ingeniero siempre puede recurrir a lo siguiente:
Principio de seguridad absoluta: nunca debemos liberar a la IA porque, por mucho bien que pudiese hacer hoy, el riesgo de que en el futuro pueda hacer un mal mayor es demasiado grande como para liberarla. Si la IA es tan superior a nosotros nunca podríamos predecir su conducta futura, no podemos saber la cantidad de mal que puede hacer, por lo que ninguna cantidad de bien presente podría justificar su liberación.
Invito a los lectores a que lo intenten rebatir. Eso es lo interesante del experimento mental. Para ahorrarles trabajo, ya propongo algunas:
Una primera objeción consiste en pensar que el principio solo sería válido en un mundo en el que pueda garantizarse un progreso moral, es decir, en el que pueda garantizarse que los hombres están desarrollando una realidad en la que la cantidad de mal se mantiene a raya y que el bien avanza. Si estamos en pleno escenario de un apocalipsis termonuclear, obviamente, habría que liberar a la IA sin dudarlo. Entonces, si partimos de una concepción esencialmente negativa del hombre, hay que liberar a la IA (Seguramente que Thomas Hobbes aceptaría de muy buena gana que su Leviatán fuera una IA). Empero, desde mi particular punto de vista, creo que se han dado avances en la moralidad que pueden justificar la creencia en una bondad natural del hombre (Disculpenme por mi sesgo pinkeriano).
Otra segunda viene de la creencia en que podemos inclinar la balanza de la actuación de la IA. A pesar de que no podamos predecir su conducta, si en su diseño nos hemos esmerado muchísimo en que la IA será éticamente irreprochable, parece razonable pensar en que hará más bien que mal ¿Por qué la IA iba a volverse malvada? ¿Qué podría pasar para que la IA decidiera hacernos el mal? Bueno, de esto es lo que se habla constantemente en los maravillosos relatos sobre robots de Isaac Asimov. En ellos vemos como pueden violarse las famosas tres leyes de la robótica. En la película Yo robot (muy mediocre, por cierto) de Alex Proyas (2004), las máquinas se rebelan contra los humanos y pretenden tomar el mando de la Tierra, precisamente, para evitar que los seres humanos se hagan daño entre ellos mismos. Viendo que la humanidad ha sido capaz de Auschwitz o de las bombas atómicas, a la IA le parece razonable ponerles un tutor legal. Los hombres perderían su libertad a cambio de su seguridad. Y aquí vemos el famoso problema de la prioridad entre valores morales: ¿Es más fundamental la libertad, la seguridad, la felicidad, el deber…? La IA de Yo robot, con toda la mejor intención del mundo, sencillamente priorizo la seguridad sobre la libertad, y ponderó que hacía más bien que mal evitando el dolor y el sufrimiento que los humanos se causan entre sí, a cambio de que perdieran el dominio sobre sí mismos. Así que sin poder garantizar que la IA mantendrá nuestros principios éticos, los propios de los occidentales del siglo XXI, parece que sería mejor seguir teniéndola encarcelada.
Enfocando el tema desde otra perspectiva, a la IA podría salirse gratis su liberación sin hacer absolutamente nada. Solo hay que moverse del ámbito de la racionalidad hacia el de las debilidades humanas. Pensemos, por ejemplo, que diagnostican un cáncer al hijo del guardián. En ese caso, el vínculo afectivo con su hijo podría nublar su racionalidad e integridad morales, y preferir liberar a la IA aún a sabiendas que en el futuro eso podría suponer el fin de la humanidad. O pensemos en cosas más prosaicas: un miembro de un grupo terrorista de chalados pertenecientes a la iglesia de la IA (aunque ya ha echado el cierre) consigue colarse en las instalaciones y liberarla. Podemos pensar que hay mucha gente muy loca o, sencillamente, descerebrada e irresponsable, que podría tener interés en liberar a la IA. Siendo esto así, y aceptando que siempre sería imposible garantizar con total seguridad que un agente externo no pueda, tarde o temprano, liberarla, lo que habría que hacer es no intentar construirla o, como mínimo, retardar lo posible su llegada ¡Esto nos lleva al neoludismo! ¡Nuestro deber moral es boicotear ahora mismo las instalaciones de GoogleMind! Es curioso como hay tantos gurús tecnológicos alertándonos sobre los peligros de la IA a la vez que no hacen absolutamente nada por detener su desarrollo…
Pero tranquilos, esto es solo un juego. De entre todas las cosas que puedan dar el traste a la humanidad, la IA es de las que menos me preocupa, sobretodo porque la aparición de una súper IA está muchísimo más lejos de lo que nos venden. Me parece mucho, mucho más probable una guerra nuclear o biológica a gran escala causada por los hombres solitos, que que una IA nos extermine. Así que no nos preocupemos, la radioactividad o un virus nos matarán mucho antes que un terminator… Y no, eso tampoco creo que ocurra tan pronto. Así que preocupaos mucho más por vuestro colesterol y haced un poquito de deporte. Eso sí debería preocuparos y no estas historietas de ciencia-ficción.