eugene-goostman-600x338

He tenido el honor de formar parte del Gabinete de Crisis de la Singularidad, capitaneado por Santiago Bustamante para el mítico programa Fallo de Sistema de Radio 3. Rodeado de reconocidos expertos en neurociencias e Inteligencia Artificial, he estado hablando del Test de Turing y de su supuesta superación, y del genial Ray Kurzweil. Os adjunto la dirección del podcast de un programa tremendamente interesante.

Radio 3. Fallo de Sistema. Capítulo 141: desmontando a Kurzweil 02.

Hace unos días el excéntrico ciborg de la Universidad de Reading, Kevin Warwick, daba a conocer la noticia de que un programa había superado el peliagudo Test de Turing, consiguiendo engañar a un 33% de los jueces de que estaban hablando con un humano y no con una computadora. Es una noticia increible, un hito tecnológico histórico. Desde que Turing hablara de su famoso test en los años 50, llevábamos más de sesenta años luchando sin éxito por construir una máquina con un manejo tan sólido del lenguaje natural que pudiera conversar con nosotros con total normalidad. Y es que la tarea es mucho más difícil de lo que, en principio, parecía puesto que el lenguaje humano es mucho más rico y ambiguo de lo que los ingenieros pensaron, además de que múltiples aspectos contextuales o extralingüísticos determinan sensiblemente el sentido de cualquier conversación, mientras que los ordenadores son muy poco sensibles a todo lo que no sea una instrucción literal.

Y entonces llegó Eugene Goostman, un programa creado ya en el 2001 por los ingenieros Eugene Demchenko, Vladimir Veselov y Sergei Ulasen. Ya en otros años había estado a punto de superar la prueba, estando en el 2012 a solo un 1% de conseguirlo, pero ha sido ahora, en junio de 2014, cuando Eugene Goostman ha engañado a más de un 30% de sus interlocutores. Sin enbargo, ¿ha sido realmente así? ¿Se ha superado el Test de Turing? ¿Estamos en un momento histórico? No.

1. Eugene Goostman ha sido programado como un niño de 13 años. Esto es hacer trampas para esquivar a los jueces. Un niño de trece años puede no comprender ciertas preguntas o no saber las respuestas, respondiendo de forma extraña pero, aún así, engañar a su interlocutor. Pensemos que ahora nosotros presentamos a la prueba un programa que representa a un niño de un año de edad que solo sabe decir «tata» y «gugu»… ¡Sin duda pasaría el test!

2. De la misma forma, su nacionalidad es ucraniana (de Odessa) por lo que su dominio del inglés no es perfecto. Otra trampa: así se le podrían perdonar cualquier tipo de errores gramaticales u ortográficos, o incluso, de nuevo, que no comprendiera las afirmaciones de su interlocutor. Igual que antes, pasaríamos el test si presentamos un programa llamado «Mumbutu» que no sabe nada de inglés ya que el solo habla el lingala (idioma del Congo).

3. Hay limitaciones en la prueba, tal como que la conversación no dura más de cinco minutos. ¿Por qué no veinte o treinta? ¿Con qué criterio se pone esta restricción?

4. Hay un extraño secretismo en torno al evento bastante sospechoso. No podemos chatear con Eugene (lo han retirado rápidamente de su web) y, en general, no hay nada de información sobre un evento que debería ser histórico. ¿Cómo funciona el programa? ¿Qué innovaciones representa con respecto a otros programas previos que no pasan el test? En estos días he estado intentando obtener más información en la red con pocos resultados. En los próximos días informaré si encuentro alguna novedad interesante.

5. Y es que yo creo que todo esto no tiene ni la más mínima imporancia. Si escucháis el programa de radio que enlacé arriba y analizais la coversación que Santiago Bustamante pudo conseguir, veréis que roza el esperpento. Yo no comprendo cómo ha engañado ni durante cinco minutos a un interlocutor humano. Creo que todo es algo bastante tramposo que, lamentablemente, va a empañar para siempre el reto de superar el Test de Turing. Como bien dice Antonio Orbe en el programa, Watson de IBM es la joya de la corona, un programa, con total seguridad, muy superior a Goostman y bastante más interesante de seguir.

comentarios
  1. Leí aquellos días que Turing en ningún momento dijo que se «pasaría» el test si se lograba engañar a tantos ni a cuantos, simplemente vaticinó que hacia el 2000 se lograría engañar a un 30% (lo cual no es establecer ningún rasero). También leí el diálogo y es surrealista.

  2. pharmakoi dice:

    Has oído hablar de cleverbot? sabes si tiene alguna validez ese programa en el ámbito académico?. Lo digo porque en la wikipedia lo ponen bien, pero en la página oficial es bastante simple. Aunque dicen que hicieron una prueba con humanos con una versión mejorada y dió el pego, pero claro habría que verla como todo. Con una versión mejorada o con más capacidad de procesamiento ya que recibía menos preguntas.
    http://en.wikipedia.org/wiki/Cleverbot
    http://www.cleverbot.com/

    A mi no me convence mucho, pero es que dependiendo del contexto yo pienso que puede ser muy difícil distinguir un humano de un programa, sobre todo en una conversación informal. De todas formas el clever bot a veces parece que simplemente se estuvieran cruzando rspuestas, y de hecho decían que en español funciona así.

    Sobre lo del lenguaje estoy de acuerdo, justo estuve viendo un post antiguo tuyo en el que más bien decías que simular el lenguaje no era una tarea especialmente complicada, pero yo tenía la idea de que aún sabemos bastante poco sobre el tema y las simulaciones del lenguaje no están mucho más avanzadas que las de otros procesos cognitivos como la percepción.

    Este vídeo está interesante, una conversación con chuck norris (su doble cyborg).

  3. Antonio Orbe dice:

    Fue un placer conocerte. El programa resultó bastante divertido. Y tus aportaciones sabrosas. Me gustó (entre otras muchas cosas) eso de que sobrevaloramos lo que solo es producto del azar (la naturaleza, la evolución) y rechazamos lo está diseñado inteligentemente como los gadgets. Espero que nos veamos (oigamos) en otra

  4. pharmakoi dice:

    Cuando lo piensas en detalle suena un poco mal no? un robot que es capaz de hacer creer a la gente que es un niño de trece años en una conversación en internet…

    No, no es envidia. Es aburrimiento. Por cierto, lo que dices de individuos genéticamente envidiosos y «malos» suena un poco a chiste «malo». De todas formas, si la envidia es algo genético, los poderosos son el mejor ejemplo (sólo el que envidia al poderoso ansía convertirse en él). Los poderosos dejaron de envidiar lo que tienen los demás, para envidiar lo que podrían tener. (por eso piensan que les pertenece un trozo del pastel especialmente grande, para que los demás se queden con un trozo más pequeño que el suyo).

Deja un comentario