Posts etiquetados ‘Isaac Asimov’

Estoy con la versión inglesa de Real Humans y no estoy viendo nada que no haya visto antes y mucho mejor. Y que los synths (robots humanoides) parezcan maniquíes con movimientos acartonados… ¡Uffff! Bueno, le daremos unos dos, a lo sumo tres, capítulos más de oportunidad a ver si aparece algo decente.

El caso es que en Humans, y en prácticamente todas las series o películas que han tratado el tema de la IA futura repiten un tópico que es completamente falso. En todas se nos describe un mundo en el que las máquinas se han incorporado con suma normalidad a nuestra vida cotidiana. Y, en todas, se destaca el hecho de que son nuestros sirvientes y esclavos, y siempre se nos ofrece la clásica escena de un humano siendo cruel con un indefenso y sumiso robot.  Se busca que el espectador empatice con las máquinas y que, cuando éstas se rebelen, se vea bien que hay una causa justificada y que no está claro cuál es el bando de los buenos y cuál de los malos. No obstante, para no confundir a un espectador ávido de seguridades narrativas, aparte de situar con claridad meridiana a un villano evidente (los dueños de gigantescas multinacionales suelen hacer muy bien este papel), también entran en escena humanos buenos que son capaces de comprender el sufrimiento de los oprimidos electrónicos. El caso es que llega un momento en el que aparece una máquina diferente, una máquina que es capaz de sentir, de tener consciencia, de ser creativa o, vete a saber tú que indefinido factor x que adquiere, que lo hace despertar de su letargo maquinal.

Entonces, vemos variadas escenas que anuncian ese despertar. Por ejemplo, en Humans aparecen un montón de androides colocados en filas regulares (para crear la sensación de mercancía almacenada) y, aparentemente, todos ellos están apagados o desconectados. De repente, uno abre los ojos y mira la luna por una rendija abierta del techo. Ya está, está despertando, mira la luna como preguntándose por el misterio de su existencia. Ya no es una máquina, ahora ya es un humano o, incluso, algo mejor. En los siguientes episodios o escenas de la serie/película iremos contemplando el progresivo despertar de otros robots hasta llegar al clímax final: el gran enfrentamiento entre la humanidad y las máquinas ¿Será verdaderamente así cuando la auténtica consciencia artificial llegue a nuestro mundo? Rotundamente NO.

La razón es bastante clara. El día en que seamos capaces de crear consciencia sintética, momento, por cierto, bastante lejano dado el actual estado del arte, y consigamos que una máquina u organismo artificial del tipo que sea, pueda darse cuenta del mundo que le rodea, será porque hemos descubierto los mecanismos físico-químico-biológicos que hacen que la consciencia se genere en nuestros sistemas nerviosos. Ese día, después de décadas, o incluso siglos, de investigación del funcionamiento cerebral, seremos capaces de replicar ese mecanismo en una máquina o en cualquier sustrato físico necesario para conseguir algo así. Entonces, cuando esto suceda no será un hecho sorprendente en la “mente positrónica” (por hacer un guiño a Asimov, quizá el principal culpable del error) de un robot que funciona mal. Cuando repliquemos consciencia, los científicos o ingenieros que lo consigan, tendrán muy claro que lo están consiguiendo. Afirmar lo contrario sería como decir, a mediados del siglo XIX, que la bombilla eléctrica incandescente iba a surgir, en un determinado momento azaroso, de alguna vela encendida en cualquier hogar de Newcastle. No, Wilson Swan tardó unos veinticinco años experimentando con diferentes tipos de materiales, técnicas, métodos y teorías hasta que pudo fabricar una bombilla funcional y eficiente.

Creer que la consciencia despertará sin más dentro de avanzadas inteligencias artificiales como fruto accidental de su complejidad es no comprender bien el funcionamiento de la ciencia y la tecnología, que viene de no entender la propia IA. Un programa de ordenador solo realiza cálculos, y los cálculos, por muy complejos, sofisticados y sobrehumanos que sean, solo dan resultados numéricos. Y creo que todos estamos de acuerdo en que los números no son objetos ni procesos físicos reales, por muy bien que los describan. Es por eso que el ejemplo de John Searle es muy ilustrativo: aunque tuviésemos un programa que simulara con una precisión casi absoluta el funcionamiento de una vaca, dicho programa seguiría sin poder darnos leche que pudiésemos beber. Así, para tener consciencia real no solo se necesita un ordenador que replique matemáticamente su funcionamiento, sino un organismo que tenga las propiedades físico-químico-biológicas que se necesiten para generar consciencia ¿Cuáles son? Lo ignoro, ya que si lo supiera estaría en Estocolmo recogiendo un Premio Nobel muy merecido.

Explicado de otra forma: ya hemos conseguido hacer robots que se muevan muy eficazmente en entornos muy irregulares (véanse todas las maravillas de Boston Dynamics). Cuando los vemos caminar y correr sorteando obstáculos nadie dice: “Mira, el programa de ordenador se mueve”. Nadie atribuye movimiento al sofware que dirige el robot, sino al robot en su totalidad, es decir, a los motores, baterías, engranajes, extremidades, etc. que hacen posible el movimiento. Igualmente, para decir que una máquina piensa o es consciente, no podemos decir “Mira, el programa de ordenador es consciente”, porque al hacerlo estamos omitiendo todo lo demás que hace falta para que ocurra una consciencia real. En cierto sentido estaríamos diciendo que una mente puede existir sin cuerpo cuando, evidentemente, no es así. Lo que realmente nos hace falta es saber mucho, mucho más, sobre los cuerpos que albergan consciencias.

Así que no, la consciencia no va a despertar en un androide doméstico que, un día, se pone a oler la fragancia de una flor.

– Elvex, ¿me oyes?

– Si, doctora Calvin – respondió el robot.

– ¿Continuó tu sueño? Dijiste antes que los seres humanos no aparecían al principio. ¿Quiere esto decir que aparecieron después?

– Sí, doctora Calvin. Me pareció, en mi sueño, que eventualmente aparecía un hombre.

– ¿Un hombre? ¿No un robot?

– Sí, doctora Calvin. Y el hombre dijo: “¡Deja libre a mi gente!”

– ¿Eso dijo el hombre?

– Sí, doctora Calvin.

– Y cuando dijo “deja libre a mi gente”, ¿por las palabras “mi gente” se refería a los robots?

– Sí, doctora Calvin. Así ocurría en mi sueño.

– ¿Y supiste quién era el hombre…, en tu sueño?

– Sí, doctora Calvin. Conocía al hombre.

– ¿Quién era?

Y Elvex dijo:

– Yo era el hombre.

Susan Calvin alzó al instante su arma de electrones y disparó, y Elvex dejó de ser.

Isaac Asimov, Sueños de Robot

¿Qué decisiones toma un robot autónomo?

En vista de las previsiones sobre los avances de la robótica y de la AI en aplicaciones militares en las próximas décadas, la Oficina de Investigación Naval norteamericana ha elaborado un prólijo informe haciéndonos una seria advertencia. Según informa el Mundo, en el 2015 un tercio de los aviones de combate y de los blindados terrestres del ejército estadounidense, serán pilotados por computadoras. Para mejorar su efectividad, estos ingenios bélicos podrán tomar decisiones de modo autónomo y aquí surge el problema: ¿Qué código ético seguirá un robot de combate?

El popular escritor Isaac Asimov propuso sus tres leyes de la robótica en su relato de ciencia ficción Runaround (1942), abordando por primera vez los imperativos éticos que ha de seguir un robot:

1. Un robot no debe dañar jamás  ni permitir que sea dañado de algún modo un ser humano.

2. Un robot siempre obedecerá a un humano excepto si esa orden contradice la Primera Ley.

3. Un robot debe protegerse a sí mismo excepto si al hacerlo contradice la Primera o la Segunda Ley.

Estas normas están muy bien para proteger a los seres humanos de los robots (y no tanto. En los cuentos de Asimov siempre se acaban por violar de algún modo) pero, ¿Qué leyes serían las adecuadas para robots diseñados específicamente para matar humanos? Patrick Lin, coordinador del informe, nos advierte de las previsibles nefastas consecuencias de no tomar las medidas adecuadas. Para robots no pacifistas habría que pensar en un código del guerrero, en un Bushido escrito en unos y ceros. Suponemos que un robot de combate debería discriminar muy bien entre quién es el amigo y el enemigo, y entre el enemigo y la población civil, lo cual es difícil ya para un humano… pero, ¿quién sabe? Quizá con una guerra computerizada se minimizarían los daños colaterales. Resultaría paradójico que una guerra dirigida por máquinas fuera “más humana” que las protagonizadas por los mismos humanos.

Nada más lejos de la verad según Lin, quien nos advierte, por ejemplo, de las consecuencias que tendría que unos hackers piratearan el software de estos ingénios electrónicos… ¿no se volverían contra sus propios amos? Esto nos hace revivir las pesadillas tecnofóbicas de películas como 2001: Odisea en el espacio, Terminator o Matrix. Parece casi una certeza lógica el hecho de que errores de cualquier tipo traeran consigo bajas humanas.

Sin embargo, por lo menos a corto plazo, no hay que asustarse. Los robots de combate existentes a día de hoy como el i-robot o el Programa Gladiator son todavía bastante primitivos. En general, en el campo de la AI, estamos todavía muy lejos de las radicalmente optimistas previsiones de las conferencias de Dartmouth.