HAL, quiero que seas capaz de reconocer las letras del vocabulario mediante tus sensores visuales. Empecemos por la “a”. Voy a darte un patrón para que reconozcas los diferentes tipos de aes que puedas encontrarte.

De acuerdo Dave. Introduce el patrón.

Su forma se asemeja a un triángulo.

ERROR. La “a” minúscula suele ser redondeada.

Tiene un hueco aproximadamente en el centro.

ERROR. Por ejemplo, en la imagen de arriba, la tercera y la cuarta “a” de la última fila no tienen huecos en el centro. O la última de todas, que es un hueco toda ella, siendo el relleno su fondo.

Una línea horizontal cruza otras dos líneas aproximadamente verticales.

ERROR. La “a” minúscula no tiene línea horizontal. Igualmente, hay un montón de ejemplos de aes sin línea horizontal en la imagen.

¿Cómo es posible? ¿Cómo puede ser que ya desde niños seamos capaces de identificar todo el abecedario sin dificultad alguna, pero que reconocer simplemente la letra “a” sea uno de los  grandes desafíos de la inteligencia artificial? La respuesta es que estamos muy acostumbrados a pensar con ideas claras y distintas tal como nos enseñó Descartes. Queremos un patrón único que defina límpiamente la letra “a”, de modo que el computador la identifique de un modo fácil y 100% seguro.  Queremos algo así como la esencia de la “a”. Pedimos demasiado. Seguramente la forma en la que el ser humano identifica letras es mucho menos precisa, más desordenada y funciona por vagas aproximaciones  y tentativas. ¿Por qué en vez de utilizar una única condición y lógica bivalente, utilizamos más condiciones y en diferentes proporciones? ¿Qué tal si probáramos algo así?:

HAL, sigue estos patrones:

Si su forma se asemeja a un triángulo suma un 60% de probabilidades de estar ante una “a”, si no resta 30%

Si tiene un hueco aproximadamente en el centro suma un 20% de probabilidades, si no resta 40%

Si tiene una línea horizontal curzando otras dos líneas aproximadamente verticales suma otro 50%, si no resta 30%

Si tiene un rabillo al final suma un 30% si no resta un 5%

Incluso podemos intruducir datos contextuales:

Si está entre dos consonantes hay un 90% de que sea vocal.

Si es vocal habrá un 20% de que sea una “a”.

HAL se equivocaría muchas veces (con toda certeza que muchas, ya que los percentiles los he puesto más o menos a bote pronto), pero podríamos ir refinando las condiciones en función de sus aciertos. Sabemos que el cerebro procesa mucha cantidad de información en paralelo y, seguramente, que mucha de esa información será parcial y contradictoria, de modo que, al final, las decisiones sean probabilísticas y, muchas veces, equívocas. ¿No es así como actuamos nosotros en nuestra vida cotidiana? Ya sabemos que nuestro cerebro es un kludge. Pues en esta línea apuntan las investigaciones en visión artificial de las últimas décadas, y quizá sea la forma de afrontar muchos otros problemas dentro de la AI. Señores, si queremos imitar al hombre no hay que construir máquinas perfectas, sino chapuzas que, de modo casi inexplicable, funcionen muy bien.

 

Anuncios
comentarios
  1. Alejandro Vukasovic dice:

    Pues sí… Parece que no hubiera que construír una máquina endemoniadamente perfecta… Un sistema estocástico que “acierte gran parte de las veces” suena interesante y parece una metodología válida. También me hace pensar que nosotros nos tenemos una estima muy grande (y sólo somos reproducibles con computadores electrónicos que ocupen la mitad de la galaxia).

    PD: Gracias por la sugerencia… Divagaré un tiempo con ella… Algo saldrá. 🙂

  2. Alejo Urzass dice:

    “si queremos imitar al hombre”
    ¿Para qué? El concepto de herramienta tiene que ver con aquello que no somos: nuestros dedos no cortan como tenazas, nuestros puños no son martillos, nuestros ojos no llegan demasiado lejos ni demasiado cerca, etc. ¿Para qué queremos inteligencia humana artificial? ¿Para tener codicia artificial o algo así? De hecho ¿no estamos ya con índices de superpoblación elevadísimos?

    Lo de la “a” (muy interesante) también tiene que ver con nuestra memoria para recordar hilvanes que quedan sueltos por la entropía que se esconde tras la repetición a lo largo de siglos, acumulando errores y adornos de moda en proporciones variables. Hasta tiene algo que ver con ésto.

  3. Alejandro:

    ¡Cuanto daño ha hecho el creernos el ombligo del mundo!

    Alejo:

    Bueno, estaría genial poder construir “codicia artificial”. Me encantaría que mi tostadora se negara a darme las tostadas una mañana. En general se busca imitar al hombre para comprenderlo mejor. La AI supone un banco de pruebas experimental inmejorable para entender qué es la inteligencia o la conciencia humanas. Pero sí, ya lo hemos hablado aquí alguna vez, quizá las máquinas no debieran imitar al hombre sino seguir su propio camino.

    Y… ¿qué tiene que ver la “a” con el tratado de rinocentología?

  4. Antonio dice:

    Santiago, parece que discurro en un discurso paralelo al tuyo, aunque afortunadamente hay entrecruzamientos.
    Llevo varias semanas con el asunto de Watson, el ganador del concurso de preguntas y respuestas Jeopardy.
    Watson plantea algunos de los mismos temas que tú.
    Para empezar, Alejo, en los asuntos de computación, solo imitamos lo que hace el hombre. Los ordenadores siguen esquemas humanos, aunque no en la misma secuencia y desde luego mucho mas rápido, pero todos los algoritmos computacionales son humanos ya sea para ganar al ajedrez como para hacer la nómina.
    Curiosamente sobre Watson y la “a” hay un vídeo en Youtube del programa americano Nova (minuto 5:50)

    El truco de Watson es el que tú nombras: es una chapuza. Establece múltiples hipótesis alternativas (brainstorming) y busca evidencias que las soporten. La mejor hipótesis es la respuesta más probable y ninguna lo es al 100%. Se acabó pretender dar con la respuesta matemáticamente exacta. Y funciona, ¡ya lo creo! Por cierto, ¿es esto humano?
    Además de la búsqueda de evidencias que soporten la hipótesis, realiza un aprendizaje automático (machine learning). En el mismo vídeo, más adelante, Watson sorprende a los diseñadores ya que aprende que una categoría de preguntas se refiere a los meses del año. (minuto 12:30)

    Imagina que las reglas que le has dado a HAL las descubre él. Le vas presentado letras (entre ellas aes) y le vas dando las respuestas (sí o no es una “a”). Es decir, aprende. ¿Es esto un comportamiento humano?
    Los traductores automáticos, los programas de reconocimiento de voz… usan aprendizaje automático para reconocer patrones.
    Y sí, cada día más los ordenadores e mueven en mundos difusos como el lenguaje humano donde no hay respuestas matemáticas.
    Un saludo

  5. Alejo Urzass dice:

    Es muy interesante esto del pensamiento difuso, que no es lo mismo que el pensamiento chapuza (a ver si luego saco un rato para ver los vídeos). Bajo mi punto de vista lo más relevante de la AI es que nos solucione problemas, más que servir como método de conocimiento de nuestro cerebro. Y lo mejor son cosas incompatibles (o sencillamente estudios distintos).
    La futura AI llevada a un altísimo nivel de desarrollo se convertiría en algo sagrado, un oráculo donde resolver cualquier problema práctico, desde lo jurídico a lo económico. Sería un dios hecho por nosotros.

    Santiago, le encantaría eso de su tostadora se rebelase, pero solo el primer día. A la segunda, a la calle.

    Lo de los rinos no estaba emparentado con la AI. Lo traje para “explicar” cómo algo (un dibujo, un símbolo) puede acabar por representarse a sí mismo más que a su referente original. Entre tantas aes parece difícil ver que haya una conexión entre ellas (entre los trazos que la dibujan). Si el rinoceronte se hubiera extinguido en el s XVI, hoy pensaríamos que era como lo dibujó Durero, porque la mayoría de los que lo dibujaron en el siglo siguiente, no dibujaron un rinoceronte sino que dibujaron el dibujo que Durero había hecho, o el dibujo del dibujo de otro dibujo basado en el de Durero, y así… Era un poco de off-topic.

  6. Alejo:

    Efectivamente, la AI como pretensión de emular a lo humano y la AI como pretensión de herramienta útil son dos campos de investigación diferentes, si bien, lógicamente, se solapan muchas veces.

    “La futura AI llevada a un altísimo nivel de desarrollo se convertiría en algo sagrado, un oráculo donde resolver cualquier problema práctico, desde lo jurídico a lo económico. Sería un dios hecho por nosotros.”

    Yo no diría tanto como un dios, pero la efectividad con la que las máquinas solucionan problemas (y también los crean) es realmente alucinante. Yo no dejo de maravillarme por el hecho de poder mantener esta conversación contigo.

    Ok, lo de los rinos ya lo entiendo. La comparación con una realidad que se convierte en símbolo, siendo el símbolo mucho más conocido, y ya muy diferente, que la auténtica realidad, es muy válida para la AI. Conocemos mucho más a HAL y a los replicantes de Blade Runner que a los proyectos técnicos reales, los cuales, desgraciadamente, dista muchísimo de sus representantes ficticios.

    Antonio:

    Ya me he dado una vuelta por tu blog leyendo tus entradas sobre Watson.

    Desde luego me parece que la forma de actuar de este ordenador es algo más humana (todavía evidentemente muy lejos) que la de las computadoras convencionales. Trabajar con nubes de probabilidad, lanzar hipótesis y apostar por ellas en función de razones que las respaldan es algo mucho más humano que buscar una por una la solución entre un conjunto de soluciones ya dadas. Watson puede enfrentarse, hasta cierto punto, con algo de novedad, comportamiento éste propiamente inteligente.

    La forma que tiene de resolver el problema de la “a” es interesante en la medida en que implica aprendizaje, aunque creo que dista de ser muy humano, precisamente, por la base de datos con miles de aes diferentes. ¿Un niño pequeño ve miles de aes diferentes y extrae un patrón de ellas? ¿O más bien un niño ve sólo unas pocas y ya con eso tiene, inexplicablemente, suficiente para identificar todas las que vea el resto de su vida? Aquí cabría aplicar el chomskiano argumento de la pobreza del estímulo. De algún modo, nuestro cerebro tiene que poder reconocer patrones con una ridícula cantidad de información… ¿cómo lo hace? Ahí está la pregunta del millón.

  7. gabriel dice:

    El proceso, que en forma brillante describís, es el de construcción de una memoria, aspecto clave en los procesos de aprendizaje y de “AI” en cualquiera de sus formas. Pero además es un proceso cuyos aspectos formales están claros desde hace tiempo ya, por lo menos en lo referente a sus formalismos matemáticos. Y lo interesante es que tanto desde el punto de vista formal como biológico, las memorias que “funcionan” son precisamente las que “funcionan mal”: es decir las memorias deben su éxito biológico al hecho de no ser 100% perfectas, o quizá menos.
    Borges ilustra esa imposible (o insufrible situación) en el cuento “Funes el memorioso”.

    Una estupenda entrada,

    Saludos.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s