Posts etiquetados ‘Test de Turing’

Es tan conocidísimo el argumento de Searle conocido como la habitación china (también la caja o la pieza china) que casi no merece la pena soltar el rollo de volverlo a explicar, pero, por si acaso hay algún despistado, lo volveremos hacer. Searle hace una comparación entre un supuesto computador que supera el test de Turing y una curiosa situación: imaginemos a un hombre que se encuentra en una habitación en la que hay una ventana. A través de esa ventana recibe frases escritas en chino. Él no tiene idea de chino, pero dispone de un libro con una serie de instrucciones escritas en inglés (su lengua materna) en las que se indica qué frases hay que decir ante cualquier frase en chino que uno reciba, de tal modo que la persona que se encuentre al otro lado de la ventana no sabría decir si está hablando con una persona que habla chino o no. Lo que Searle pretende argumentar es que el operario de la habitación no comprende chino, solo sabe un tipo de sintaxis, juntar símbolos con otros de una determinada manera y, sin embargo, parece que lo comprende, por lo que el test de Turing no es válido para determinar si un ordenador piensa o no. Para Searle, pensar tiene que ver con comprender, es decir, con conocer una cierta semántica. Las computadoras solo saben de sintaxis, de unir o separar unos símbolos con otros siguiendo unas reglas marcadas, nada más, y eso no es realmente entender nada.

Durante mucho tiempo este argumento me pareció inapelable y lo utilizaba con asiduidad para criticar las pretenciosas afirmaciones de los entusiastas de la Inteligencia Artificial. Sin embargo, hace poco descubrí el error que encierra (y me sorprendí de cómo no lo había descubierto antes. Quizá porque estaba hechizado con la brillante y sencilla prosa de Searle) y también descubrí que, para desgracia de mi descubrimiento, ya se habían escrito toneladas de artículos en esa línea. Y es que el argumento de Searle ya tiene unos cuantos añitos. No obstante, como después explicaré, el error es solo en una de las tesis que Searle deriva del argumento, siendo lo demás correcto, porque sigo pensando que, en términos generales, el argumento de Searle es correcto.

El error está en que no se pueden separar taxativamente sintaxis y semántica, es más, no se pueden separar ni siquiera un milímetro, ya que la una sin la otra no tienen ningún sentido. Supongamos que estamos usando la habitación china y cualquiera de nosotros es su operario. Entonces recibimos este mensaje:

早安

Esto es «Buenos días» en chino tradicional. ¿Qué instrucción pone en nuestro libro que respondamos y por qué? Podría haber muchas respuestas posibles pero una de ellas de puro sentido común sería que devolviéramos el saludo:

早安

¿Por qué devolver el saludo es una buena respuesta que nos llevaría por buen camino para superar el test de Turing? Para devolver el saludo necesitamos una información previa que no puede reducirse a mera sintaxis: necesitamos saber que cuando alguien te saluda es habitual devolver el saludo, es decir, necesitamos comprender el contexto, las circunstancias en donde se da esa frase en chino, y eso es un elemento metalingüístico o metasintáctico que no obedece a una sintaxis determinada.

Por ejemplo, cuando el saludo no se da al principio de la conversación sino al final o en medio, esto suele indicar que la conversación se termina. Quizá nuestro interlocutor se ha sentido ofendido por algo que dijimos y quiere finalizar la conversación de un modo educado pero cortante.  O, quizá, nuestro interlocutor es un desconocido que solo nos quiere saludar por educación pero no quiere comenzar conversación alguna ya que no nos conoce. ¿Cómo saber esto? Sólo comprendiendo el contexto, huelga decir, sabiendo semántica. Entonces, para pasar el test de Turing, necesariamente, tenemos que enseñar semántica a nuestra habitación china. Las reglas que el operador de la habitación maneja deben incorporar semántica para que puedan superar el test de Turing

Para desgracia del argumento de Searle, podríamos enseñar a un computador semántica. No habría ningún problema (a priori) en enseñar a la máquina a saber qué puede significar una proposición dado un contexto dado puesto que podríamos traducir la semántica a sintaxis. Si la semántica puede reducirse a reglas no hay impedimento. En el ejemplo podríamos introducir en el programa las diferentes situaciones en las que puede darse un saludo y establecer nuevas reglas dado el contexto anterior o futuro de la conversación. El problema (ahora sí, a posteriori) es la enorme riqueza de los contextos en donde puede darse una conversación. Llegamos al frame problem, del que pronto hablaremos en otra entrada.

Sin embargo, para lo que el argumento de la habitación china sí que tiene clara validez es en dos sentidos: uno es para hablar de la consciencia o de los qualia. Podríamos tener una máquina que comprendiera muy bien el contexto de las afirmaciones de una conversación y que pudiera pasar el test de Turing, pero eso no indicaría nada sobre su consciencia. La máquina seguiría siendo tan inconsciente de sus acciones como lo es mi tostador sobre el estado de las tostadas. Y en otro acerca de lo que hacen las computadoras actuales con respecto a lo que pasa en mi cerebro cuando pienso: no es lo mismo. Un programa de ajedrez no hace lo mismo que yo cuando decide mover una pieza en el tablero y una calculadora no hace lo mismo que yo cuando realiza una multiplicación. Y con respecto al lenguaje, programas clásicos como la Eliza de Weizenbaum o la Siri de los Iphone no hacen lo mismo que nosotros cuando se comunican con nosotros. Las analogías que puedan encontrarse no son, ni de lejos, suficientes para decir que las máquinas piensan si por pensar nos referimos a cómo lo hacemos los seres humanos.

En palabras de de Jerry Kaplan:

Searle argumenta que, en realidad, éstas deben ser cosas distintas, pero simplemente no entendemos aún lo que está haciendo el cerebro. Es importante entender qué no está diciendo. No está afirmando ninguna propiedad mágica de la mente humana que transcienda el ámbito de la ciencia: sus pies están firmemente plantados en el suelo, con un creencia en el mundo físico como (en su mayor parte) determinista, sujeto a medición y a explicación racional. Sólo está diciendo que en nuestros cerebros ocurre algo que aún no entendemos y que, cuando lo consigamos (lo cual acepta como probable), se aclarará el camino para una explicación satisfactoria de lo que él cree que son fenómenos exclusivamente humanos; no sólo «pensar», sino también la consciencia, la sensación de experimentar cosas (lo que los filósofos llaman «qualia»), la percepción, etc. Tampoco está afirmando que un programa informático nunca pueda realizar ninguna tarea concreta; ya sea pintar bellos cuadros, descubrir leyes de la naturaleza o consolarnos por la muerte de un ser querido. Pero él cree que el programa está simulando el pensamiento, no duplicando el proceso que tiene lugar en las mentes humanas cuando se implican en estas actividades. Para Searle, un piano informático no está haciendo lo mismo que un maestro de la música, cuando ejecutan un concierto de Rachmaninoff, aunque suene igual. Resumiendo, Searle dice que, en lo relativo a los ordenadores, al menos tal como existen en la actualidad, nadie tiene toda la razón.

Y es que, ya lo he dicho cientos de veces, el problema de la Inteligencia Artificial no es fabricar agentes inteligentes (lo cual ya lo hace con mucho éxito en algunos casos), sino agentes conscientes o sintientes. La AI ya ha fabricado inteligencia, lo que hace falta es que fabrique mentes.

P. D. : Por si aún no lo habéis leído, hace poco me han publicado un artículo mucho más extenso sobre estos temas en Xataka.

Block y su argumento Blockhead

Publicado: 13 noviembre 2017 en Sin categoría
Etiquetas:, , ,

En su artículo «Psychologism and behaviourism» (1981), el filósofo norteamericano Ned Block, nos ofrece una versión, a mi juicio más precisa, del celebérrimo argumento de la Caja China de Searle: y que se ha denominado comúnmente como argumento Blockhead. Vamos a verlo:

El número de oraciones sintáctica y gramaticalmente correctas con las que puede comenzarse una conversación es un número finito (que ese número sea muy alto no nos importa). Entonces cabría construir un computador que tuviera dichas oraciones en su memoria. De la misma forma, el número de oraciones correctas con las que puede responderse al comienzo es igualmente finito, por lo que también podríamos almacenarlas en un computador. Y el número de respuestas posibles a estas respuestas es, de exactamente la misma forma, finito, por lo que, de nuevo, podríamos almacenarlas en el mismo computador. Repitiendo una y otra vez el proceso, podríamos almacenar toda respuesta posible a toda conversación posible.

De modo similar a como los ordenadores modernos agotaron juegos como las damas, sencillamente, a base de fuerza bruta (creando enormes árboles de decisión en el que se contenían todas las jugadas posibles), podríamos crear un computador que pudiera agotar todo acto comunicativo verbal posible. Entonces, necesariamente, este programa pasaría el Test de Turing sin el más mínimo problema (y engañaría a todos los interlocutores, y no solo al 30% previsto por el propio Turing). La máquina que nos propone Block sería Turing-perfecta en el sentido que no cabría imaginar una máquina mejor para superar el test (realmente podrían diseñarse máquinas más eficientes que hicieran lo mismo sin recurrir a la pura fuerza bruta computacional, pero para el caso lo que nos interesa es solo el resultado: la máquina cumple su propósito a la perfección).

La cuestión es: ¿Esa máquina piensa? Evidentemente no o, como mínimo, no mucho (por eso la han llamado blockhead). El programa no entiende ni una palabra de lo que dice, no tiene semántica de ningún tipo. Solo es un gigantesco árbol de decisión que conecta unas cadenas de símbolos con otras sin saber lo que significan. Ni siquiera sabe de gramática ni sintaxis, solo sabe de conectar unos símbolos con otros que ya tiene almacenados en su enorme memoria. Podríamos, por el contrario, tener obra máquina que dispusiera de gramática, semántica, sintaxis, etc. muchísimo más sofisticada y, por tanto, mucho más inteligente, que, sin embargo, no fuera capaz de pasar el Test de Turing o, al menos, no con la misma competencia.

Conclusión: el test de Turing no es un buen método para saber si una máquina piensa. Se puede exhibir una conducta muy inteligente sin un pensamiento inteligente detrás y, por el contrario, se puede mostrar conducta menos inteligente con un pensamiento mucho más inteligente detrás.

Nota: de estas cosas hablaremos este jueves a las 18:00 h. en la Escuela Técnica Superior de Ingenieros Industriales de Madrid. Contaremos con figuras de la talla de Julio Cesar Armero, Jesús Vega Encabo o Ricardo Sanz. Habrá una fase de preguntas muy amplia, por lo que podréis preguntar y comentar cualquier cosa que os plazca ¡Animaos!

Ilustración de Mattias Adolfsson.

eugene-goostman-600x338

He tenido el honor de formar parte del Gabinete de Crisis de la Singularidad, capitaneado por Santiago Bustamante para el mítico programa Fallo de Sistema de Radio 3. Rodeado de reconocidos expertos en neurociencias e Inteligencia Artificial, he estado hablando del Test de Turing y de su supuesta superación, y del genial Ray Kurzweil. Os adjunto la dirección del podcast de un programa tremendamente interesante.

Radio 3. Fallo de Sistema. Capítulo 141: desmontando a Kurzweil 02.

Hace unos días el excéntrico ciborg de la Universidad de Reading, Kevin Warwick, daba a conocer la noticia de que un programa había superado el peliagudo Test de Turing, consiguiendo engañar a un 33% de los jueces de que estaban hablando con un humano y no con una computadora. Es una noticia increible, un hito tecnológico histórico. Desde que Turing hablara de su famoso test en los años 50, llevábamos más de sesenta años luchando sin éxito por construir una máquina con un manejo tan sólido del lenguaje natural que pudiera conversar con nosotros con total normalidad. Y es que la tarea es mucho más difícil de lo que, en principio, parecía puesto que el lenguaje humano es mucho más rico y ambiguo de lo que los ingenieros pensaron, además de que múltiples aspectos contextuales o extralingüísticos determinan sensiblemente el sentido de cualquier conversación, mientras que los ordenadores son muy poco sensibles a todo lo que no sea una instrucción literal.

Y entonces llegó Eugene Goostman, un programa creado ya en el 2001 por los ingenieros Eugene Demchenko, Vladimir Veselov y Sergei Ulasen. Ya en otros años había estado a punto de superar la prueba, estando en el 2012 a solo un 1% de conseguirlo, pero ha sido ahora, en junio de 2014, cuando Eugene Goostman ha engañado a más de un 30% de sus interlocutores. Sin enbargo, ¿ha sido realmente así? ¿Se ha superado el Test de Turing? ¿Estamos en un momento histórico? No.

1. Eugene Goostman ha sido programado como un niño de 13 años. Esto es hacer trampas para esquivar a los jueces. Un niño de trece años puede no comprender ciertas preguntas o no saber las respuestas, respondiendo de forma extraña pero, aún así, engañar a su interlocutor. Pensemos que ahora nosotros presentamos a la prueba un programa que representa a un niño de un año de edad que solo sabe decir «tata» y «gugu»… ¡Sin duda pasaría el test!

2. De la misma forma, su nacionalidad es ucraniana (de Odessa) por lo que su dominio del inglés no es perfecto. Otra trampa: así se le podrían perdonar cualquier tipo de errores gramaticales u ortográficos, o incluso, de nuevo, que no comprendiera las afirmaciones de su interlocutor. Igual que antes, pasaríamos el test si presentamos un programa llamado «Mumbutu» que no sabe nada de inglés ya que el solo habla el lingala (idioma del Congo).

3. Hay limitaciones en la prueba, tal como que la conversación no dura más de cinco minutos. ¿Por qué no veinte o treinta? ¿Con qué criterio se pone esta restricción?

4. Hay un extraño secretismo en torno al evento bastante sospechoso. No podemos chatear con Eugene (lo han retirado rápidamente de su web) y, en general, no hay nada de información sobre un evento que debería ser histórico. ¿Cómo funciona el programa? ¿Qué innovaciones representa con respecto a otros programas previos que no pasan el test? En estos días he estado intentando obtener más información en la red con pocos resultados. En los próximos días informaré si encuentro alguna novedad interesante.

5. Y es que yo creo que todo esto no tiene ni la más mínima imporancia. Si escucháis el programa de radio que enlacé arriba y analizais la coversación que Santiago Bustamante pudo conseguir, veréis que roza el esperpento. Yo no comprendo cómo ha engañado ni durante cinco minutos a un interlocutor humano. Creo que todo es algo bastante tramposo que, lamentablemente, va a empañar para siempre el reto de superar el Test de Turing. Como bien dice Antonio Orbe en el programa, Watson de IBM es la joya de la corona, un programa, con total seguridad, muy superior a Goostman y bastante más interesante de seguir.

Terry Winograd es el genio de la informática que diseñó SHRDLU, un programa que, allá por finales de los 60, era capaz de una notable comprensión del lenguaje. Con un entorno muy simplificado (lo que desde entonces se ha llamado mundo de bloques), podría realizar múltiples interacciones (coger un cono y ponerlo entre el cubo y la pirámide) obedeciendo mandatos lingüísticos (SHRDLU, coge el cono y ponlo entre el cubo y la pirámide). Se le podía preguntar sobre el historial de acciones y la justificación de su conducta. Un ejemplo de conversación que muestra los poderes de este programa sería (en cursiva las respuestas de SHRDLU):

¿Puede una pirámide sostener otra pirámide?

No lo sé.

Apila dos pirámides

(SHRDLU lo intenta y fracasa). No puedo.

La pirámide azúl es mía.

Entiendo.

Yo poseo los bloques que no son rojos pero no poseo nada que sostenga una pirámide.

Entiendo.

¿Poseo la caja?

No

¿Poseo algo que esté dentro de la caja?

Sí, dos cosas: el bloque azul y la pirámide azul.

¿Hay algo que sea mayor que cualquier pirámide que no sea tan ancho como la cosa que lo sostiene?

Sí, el bloque azul.

¿Sostiene algo verde la cosa más corta que sostiene el soporte de la pirámide más alta?

Sí, la pirámide verde.

¿De qué color es?

Supongo que te refieres a la cosa más corta que sostiene el soporte de la pirámide más alta. Rojo.

Una torre.

Lo siento, no conozco la palabra torre.

Una «torre» es un apilamiento que contiene dos cubos verdes y una pirámide.

Entiendo.

¿Hay alguna torre ahora?

No.

¿Puedes apilar, por favor, los dos bloques rojos y un cubo verde o una pirámide?

De acuerdo (SHRDLU hace lo que le ordenan).

[…]

¿Has tocado alguna pirámide antes de poner una sobre el bloque verde?

Sí, la verde.

¿Cuándo la cogiste?

Cuando estaba apilando un cubo rojo, un cubo verde grande y un bloque rojo grande.

¿Por qué?

Para quitarla.

¿Por qué hiciste eso?

Para despejar el cubo rojo.

[…]

¿Por qué hiciste eso?

Porque me lo pediste tú.

Extraído de Jack Copeland, Inteligencia Artifical

Una conversación tan impresionante auguraba que en unos pocos años tendríamos máquinas que pasaran con creces el Test de Turing, e innegable inteligencia artificial a la vuelta de la esquina. ¡Si parece que estamos conservando con HAL 9000! ¿Qué pasó entonces? ¿Por qué no estoy ahora mismo charlando de la crisis con mi tostadora? SHRLDU se movía bastante bien en su micromundo. Se pensó que lo único que había que hacer era ir aumentando progresivamente la complejidad de ese mundo hasta hacerlo tan grande y complejo como el nuestro. Pero aquí estuvo el gran problema: la complejidad de multiplica exponencialmente, no siendo nada fácil pasar de un mundo de simples formas geométricas a la realidad humana. El mundo simbólico del hombre es insondablemente más complicado de lo que nadie pudiese imaginar. Pero es más, ¿y si no sólo fuera muy complejo de la forma en que progresivamente, con arduo y lento trabajo, podamos acercarnos a él, sino que fuera insuperablemente complejo? SHRDLU es un programa trivial si lo comparamos con un ser humano enfrentándose a la realidad y, sin embargo, su creador Terry Winograd, a pesar de poseer un grandísimo talento para la programación, confesaba:

El código presenta una masa densa, con pocos asideros. Incluso yo, que he escrito el programa, me encuentro cerca del límite de lo que puedo retener en la cabeza. Después de abandonarlo unos pocos meses, es muy difícil responder a las preguntas sobre partes específicas, o anticipar los efectos de cambios propuestos.

Y es que el cerebro humano tiene una cantidad tan grande de conexiones sinápticas, su complejidad es tal que, ¿nadie se ha planteado la posibilidad de que sea imposible sin más tener un modelo matemático de él? ¿Nadie se ha planteado la, desalentadora sin duda, idea de que hay cosas que nuestra limitada capacidad intelectual no podrá hacer? Yo no puedo memorizar dos millones de números. Si para diseñar tal o cual ingenio hace falta memorizarlos… ¿no será que no puedo y punto? ¿No existirá un límite Winograd para llegar a comprender o descubrir ciertas cosas?

Los del CYC ahí siguen, insensibles al desaliento.

1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.

El primer computador electrónico con un programa incorporado en la memoria fue el Manchester Automatic Digital Machine (MADM), también conocido como el Manchester Mark I.  Una versión mejorada de este voluminoso cacharro (4.500 válvulas. En la foto sólo mostramos la consola) fue diseñado por la Ferranti Limited y tenía un generador de números aleatorios que utilizó Turing para programar la primera carta de amor escrita por un ser no humano:

Querida Prenda

Tú eres mi ávido sentimiento amigo.

Mi afecto pende curiosamente de tu deseo apasionado. Mi

Cariño implora tu corazón. Tú

Eres mi triste simpatía: mi

Tierno cariño.

Tuyo rendidamente.

Computador de la Universidad de Manchester

Poema que pasa perfectamente el Test de Turing de los poemas. Parece ser que ya se adelantaron 60 años a mi Lord Byron Mecánico.

La sugerente forma con la que Chalmers plantea el problema duro de la conciencia va a tener una interesante aplicación al problema del origen evolutivo de la misma. Supongamos que la evolución (o los ingenieros de AI) diseñan una entidad, ya sea orgánica o mecánica, que puede realizar las mismas funciones fenoménicas que un ser humano pero sin tener ningún tipo de autoconciencia ni de estados internos ni emociones o deseos (sin los famosos qualia). Esas entidades serían capaces de resolver ecuaciones, escribir libros, o cualquier otra acción de la que fuera capaz un humano, de tal modo que pasarían el Test de Turing a todos los niveles. Chalmers adjetiva con humor a estos seres como “zombis” recalcando la idea de que, a pesar de que “parecieran humanos” en todas sus características, al no tener subjetividad, estarían de algún modo “desalmados” como los zombis hollywoodienses, habría algo tétrico, inhumano en ellos.

Si estos zombis fueran posibles se plantearían una serie de dilemas filosóficos. En primer lugar, la idea parece apuntar a un dualismo. Si los zombis son físicamente idénticos a nosotros y pueden realizar nuestras mismas funciones, la única cosa que nos diferencia de ellos es que tenemos estados internos, tenemos subjetividad. Como somos físicamente idénticos, lo físico no puede explicar lo mental o, como mínimo, lo mental no puede ser reducido a físico. Los zombis serían nuestras tristes copias monistas, siendo el ser humano un compuesto de materia y mente, dos sustancias diferentes. Materia y mente quedan separadas en una vuelta al cartesianismo. Y en segundo lugar, ¿qué sentido tendría el hecho de que tengamos conciencia si una entidad sin ella podría realizar las mismas cosas y con la misma efectividad que nosotros? ¿Por qué la evolución se habría preocupado en generar conciencia cuando con sólo crear zombis hubiera conseguido los mismos resultados? ¿No es la conciencia algo redundante en términos evolutivos? Esta perspectiva podría constituir una prueba de que la mente no es explicable desde la teoría darwiniana, consecuencia lógica de lo anterior: la mente no se reduce a lo físico como tampoco a lo biológico, ha de ser explicada desde otras instancias.

Ingenioso dilema si no fuera porque el planteamiento de Chalmers es erróneo. Si los zombis fueran físicamente exactamente iguales a los seres humanos generarían necesariamente conciencia. Si la evolución o la AI consiguieran hacer estructuras físicas idénticas a las humanas, tendrían subjetividad exactamente igual que nosotros. Afirmar que un ser físicamente igual que nosotros no tendría conciencia es como pensar que diseñamos dos relojes despertadores idénticos, y uno suena y otro no, no habiendo causa física para que el segundo no suene. La posibilidad de los zombis nos haría aceptar que un sistema físico pierde “por arte de magia” una de sus características.

Sin embargo, podría objetarse que sería posible crear zombis que fueran funcionalmente idénticos a nosotros aunque físicamente no lo fueran. Sólo haría falta que pudieran imitarnos a la perfección en todo lo que hacemos de modo que pasaran el Test de Turing a pesar de ser, por ejemplo, un manojo de chips de silicio. Es el caso de los programas de ajedrez: no habría forma de saber si uno juega contra un programa o contra un humano a pesar de que los mecanismos psicológicos que utiliza el ser humano para planificar y realizar sus jugadas no tienen nada que ver con los que hace la máquina (que realiza millones de jugadas por segundo). Aceptando el caso de que pudiéramos crear zombis funcionales para la totalidad de las características del ser humano (es un hecho que lo hemos conseguido para muchas, pero quizá improbable para todas) eso no implicaría que estuviéramos ante un ser humano sino sólo ante una excelente copia cuya estructura es diferente. Estos pseudohumanos podrían engañarnos en apariencia, pero si tuviésemos acceso a su estructura comprobaríamos que no son realmente humanos, al igual que cuando tenemos acceso al software de un programa de ajedrez comprobamos que no estamos ante una mente humana. Y es que el argumento de Chalmers cae en una petición de principio. En sus premisas ya se esconde el dualismo al que parece llegarse en la conclusión. Al partir del hecho de que unos zombis sin estados internos son físicamente indistinguibles de los reales ya se está dando por supuesto el dualismo. Precisamente, un zombi sin estados mentales sí sería físicamente distinguible de un hombre si partimos de un monismo materialista o fisicalista. A la postre, el dilema de los zombis no sirve ni para defender el dualismo ni el monismo, no sirve para nada.

Los desalmados zombis de Chalmers tan fallidos como defensa del dualismo como pésimas son las películas de George A. Romero (excepto para los amantes de la serie B). En cualquier caso, si os encontrárais con alguno recordad que hay que dispararles a la cabeza, si puede ser, con buenos argumentos. Yo habitualmente suelo encontrarme con unos treinta por clase.

Si Mahoma no va a la montaña, traigamos la montaña a Mahoma. Es muy difícil programar un software capaz de imitar el pensamiento humano (ya hemos hablado aquí de las dificultades de crear una máquina que pasara el test de Turing) pero ¿y si cambiamos de estrategia, y en vez de preocuparnos por el software, lo hacemos por el hardware?. A fin de cuentas, los cerebros humanos no tienen programadores ni un software «explícito» (estaría bien tenerlo. Me imagino un «Bienvenidos a Windows Human 2009»). No parece descabellado hacer algo físico que se parezca lo más posible un cerebro y luego ya veremos (este ya veremos podría ser un proceso de aprendizaje de varios años emulando la educación de un bebé, por ejemplo).  Además, este modo de actuar parece más acorde con el monismo psico-físico reinante en la actual teoría de la mente ya que la separación software/hardware huele demasiado a dualismo (la mente no puede vivir sin cuerpo, amigos). Bien, ¿y cómo lo hacemos?

En primer lugar, sabemos más o menos como funciona una neurona (a pesar de que casi no sepamos nada de cuando muchas neuronas trabajan en conjunto, que es de lo que se trata). Es un organismo relativamente simple y, lo más importante, parece una unidad discreta, es decir, es computable.  Funciona a través de pulsos eléctricos y, a pesar de que libera neurotrasmisores químicos de un modo, en ocasiones, muy complejo, no parece imposible emular su funcionamiento. No es entonces descabellado pensar en copiar físicamente el funcionamiento neuronal a chips de silicio. Hans Moravec y Raymond Kurzweil pensaron que si fabricáramos un gran circuito electrónico con las mismas conexiones que nuestro cerebro, podríamos sustituir uno por otro. Supongamos que he tenido un accidente y me he dañado una zona del cerebro. Podríamos llegar y cambiarla por una réplica electrónica que tuviera exactamente la misma estructura de conexiones que la mía. Pensemos que poco a poco continuamos cambiando partes orgánicas por electrónicas hasta que todo mi cerebro fuera electrónico… ¿sería yo un robot o un ser humano?

Neurona rodeada por Máquinas de Von Neumann

Pero dejando cuestiones conceptuales, lo importante es que esta forma de actuar parece un buen atajo ya que nos quitamos todo el problema del software. No necesitamos a programadores, sólo a ingenieros. Sin embargo, pronto empiezan los problemas (hacer trampas siempre se paga).

En primer lugar, en el cerebro humano hay más de cien mil millones de neuronas. Como argumenta Felix Ares, si queremos replicar un cerebro completo en un momento concreto de su historia tendremos que saber en qué estado estaba cada una de ellas. Si pudiéramos identificar la posición y el estado de cada neurona en un segundo mediante sistemas de neuroimagen, para saber el estado de todas ellas necesitaríamos 3.171 años.  Y esto sólo para empezar. Ahora tendríamos que saber las combinaciones input /output de cada neurona, es decir, cómo responde a cada uno de los impulsos que recibe. Cada neurona tiene, por promedio, unas 1.000 entradas y una salida… (ya suena a excesivo). Bien, pues con paciencia, comencemos a ir probando. ¿Qué pasa cuando se enciende la entrada uno? ¿Y la uno y la dos? ¿y la uno y la tres? ¿y la dos y la tres?… Para calcular esto de cada una de las cien mil millones de neuronas del cerebro necesitaríamos unas cuantas veces la edad entera del Universo.

Vale, pensemos de otra manera. No queremos copiar un cerebro en un momento concreto, sino sólo crear una nuevo. No nos importa entonces descuidar el estado inicial de las neuronas (bueno, no del todo, alguno habrá que poner…).  Lo importante será que aprenda como lo hacemos los seres humanos. ¿Cómo aprende una neurona? La clave nos la dio el biopsicólogo canadiense Donald Hebb.  La conocida como regla de Hebb dice así: si hay dos neuronas, una A y otra B, tal que A excita repetidas veces a B, se produce un cambio en ambas células tal que se fortalece la conexión entre ambas. O dicho a lo Lamarck «el uso desarrolla la conexión neuronal y el desuso la atrofía». Así podemos explicar algunas cosas, como por ejemplo, por qué la repetición hace que yo me aprenda de memoria una fecha (si bien, a mi juicio, decir esto es una extrapolación no suficientemente fundada. Creo que la cosa es bastante más compleja). El caso es que, con la regla de Hebb, podemos hacer sistemas de redes neuronales que aprendan. Y esa es la titánica tarea de la Inteligencia Artificial actual: hay que pensar cómo enseñar y qué enseñar. De nuevo, han de aliarse disciplinas aparentemente dispares: neurología y pedagogía, lo cual me parece magnífico (de los matrimonios más extraños salen los hijos más bellos). Así, ya tenemos a CB2, diseñado por los ingenieros de la Universidad de Osaka.

No obstante,  se me ocurre la principal objeción teórica a todo este asunto de la ingeniería inversa. Si decimos que hay grandes problemas teóricos para crear una máquina que pasara el test de Turing quizá porque el lenguaje o el pensamiento no sean enteramente computables… ¿No parece contradictorio que de algo computable como las redes neuronales (si es que realmente lo son) surja algo que quizá tiene elementos no computables (si es que existe o no algo no computable)? ¿Podría lo no computable emerger de lo computable?

Esta entrada continua a: Los límites de la computabilidad (I)  ¿Qué es una máquina de Turing?