El Bushido de HAL

Publicado: 24 febrero 2009 en Tecnología
Etiquetas:, , , , ,

¿Qué decisiones toma un robot autónomo?

En vista de las previsiones sobre los avances de la robótica y de la AI en aplicaciones militares en las próximas décadas, la Oficina de Investigación Naval norteamericana ha elaborado un prólijo informe haciéndonos una seria advertencia. Según informa el Mundo, en el 2015 un tercio de los aviones de combate y de los blindados terrestres del ejército estadounidense, serán pilotados por computadoras. Para mejorar su efectividad, estos ingenios bélicos podrán tomar decisiones de modo autónomo y aquí surge el problema: ¿Qué código ético seguirá un robot de combate?

El popular escritor Isaac Asimov propuso sus tres leyes de la robótica en su relato de ciencia ficción Runaround (1942), abordando por primera vez los imperativos éticos que ha de seguir un robot:

1. Un robot no debe dañar jamás  ni permitir que sea dañado de algún modo un ser humano.

2. Un robot siempre obedecerá a un humano excepto si esa orden contradice la Primera Ley.

3. Un robot debe protegerse a sí mismo excepto si al hacerlo contradice la Primera o la Segunda Ley.

Estas normas están muy bien para proteger a los seres humanos de los robots (y no tanto. En los cuentos de Asimov siempre se acaban por violar de algún modo) pero, ¿Qué leyes serían las adecuadas para robots diseñados específicamente para matar humanos? Patrick Lin, coordinador del informe, nos advierte de las previsibles nefastas consecuencias de no tomar las medidas adecuadas. Para robots no pacifistas habría que pensar en un código del guerrero, en un Bushido escrito en unos y ceros. Suponemos que un robot de combate debería discriminar muy bien entre quién es el amigo y el enemigo, y entre el enemigo y la población civil, lo cual es difícil ya para un humano… pero, ¿quién sabe? Quizá con una guerra computerizada se minimizarían los daños colaterales. Resultaría paradójico que una guerra dirigida por máquinas fuera “más humana” que las protagonizadas por los mismos humanos.

Nada más lejos de la verad según Lin, quien nos advierte, por ejemplo, de las consecuencias que tendría que unos hackers piratearan el software de estos ingénios electrónicos… ¿no se volverían contra sus propios amos? Esto nos hace revivir las pesadillas tecnofóbicas de películas como 2001: Odisea en el espacio, Terminator o Matrix. Parece casi una certeza lógica el hecho de que errores de cualquier tipo traeran consigo bajas humanas.

Sin embargo, por lo menos a corto plazo, no hay que asustarse. Los robots de combate existentes a día de hoy como el i-robot o el Programa Gladiator son todavía bastante primitivos. En general, en el campo de la AI, estamos todavía muy lejos de las radicalmente optimistas previsiones de las conferencias de Dartmouth.

Anuncios
comentarios
  1. diego dice:

    Podrian construir un ciborg empatico y conciliador, mientras no se crea Moises y arme una revolución…ni sea Alex Murphy tiene tanta fuerza de voluntad, pero tiene un problema de “Angry Management”

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s