Block y su argumento Blockhead

Publicado: 13 noviembre 2017 en Sin categoría
Etiquetas:, , ,

En su artículo “Psychologism and behaviourism” (1981), el filósofo norteamericano Ned Block, nos ofrece una versión, a mi juicio más precisa, del celebérrimo argumento de la Caja China de Searle: y que se ha denominado comúnmente como argumento Blockhead. Vamos a verlo:

El número de oraciones sintáctica y gramaticalmente correctas con las que puede comenzarse una conversación es un número finito (que ese número sea muy alto no nos importa). Entonces cabría construir un computador que tuviera dichas oraciones en su memoria. De la misma forma, el número de oraciones correctas con las que puede responderse al comienzo es igualmente finito, por lo que también podríamos almacenarlas en un computador. Y el número de respuestas posibles a estas respuestas es, de exactamente la misma forma, finito, por lo que, de nuevo, podríamos almacenarlas en el mismo computador. Repitiendo una y otra vez el proceso, podríamos almacenar toda respuesta posible a toda conversación posible.

De modo similar a como los ordenadores modernos agotaron juegos como las damas, sencillamente, a base de fuerza bruta (creando enormes árboles de decisión en el que se contenían todas las jugadas posibles), podríamos crear un computador que pudiera agotar todo acto comunicativo verbal posible. Entonces, necesariamente, este programa pasaría el Test de Turing sin el más mínimo problema (y engañaría a todos los interlocutores, y no solo al 30% previsto por el propio Turing). La máquina que nos propone Block sería Turing-perfecta en el sentido que no cabría imaginar una máquina mejor para superar el test (realmente podrían diseñarse máquinas más eficientes que hicieran lo mismo sin recurrir a la pura fuerza bruta computacional, pero para el caso lo que nos interesa es solo el resultado: la máquina cumple su propósito a la perfección).

La cuestión es: ¿Esa máquina piensa? Evidentemente no o, como mínimo, no mucho (por eso la han llamado blockhead). El programa no entiende ni una palabra de lo que dice, no tiene semántica de ningún tipo. Solo es un gigantesco árbol de decisión que conecta unas cadenas de símbolos con otras sin saber lo que significan. Ni siquiera sabe de gramática ni sintaxis, solo sabe de conectar unos símbolos con otros que ya tiene almacenados en su enorme memoria. Podríamos, por el contrario, tener obra máquina que dispusiera de gramática, semántica, sintaxis, etc. muchísimo más sofisticada y, por tanto, mucho más inteligente, que, sin embargo, no fuera capaz de pasar el Test de Turing o, al menos, no con la misma competencia.

Conclusión: el test de Turing no es un buen método para saber si una máquina piensa. Se puede exhibir una conducta muy inteligente sin un pensamiento inteligente detrás y, por el contrario, se puede mostrar conducta menos inteligente con un pensamiento mucho más inteligente detrás.

Nota: de estas cosas hablaremos este jueves a las 18:00 h. en la Escuela Técnica Superior de Ingenieros Industriales de Madrid. Contaremos con figuras de la talla de Julio Cesar Armero, Jesús Vega Encabo o Ricardo Sanz. Habrá una fase de preguntas muy amplia, por lo que podréis preguntar y comentar cualquier cosa que os plazca ¡Animaos!

Ilustración de Mattias Adolfsson.

Anuncios
comentarios
  1. Carlos Pino dice:

    Y quién nos asegura que el pensamiento humano no es más que un gigantesco arbol de decisión que responde ante un complejo vector de estimulos tanto sensoriales como linguisticos, procesados por una superficiente red neural producto de miles de años de evolución?

  2. Carlos:

    No te digo que no. Mi entrada no va de eso. El caso es que podríamos tener un organismo que fuera un sofisticado árbol de decisión procesado por una supereficiente red neuronal producto de millones de años de evolución y que no pasara el Test de Turing, mientras que otro que fuera un estúpido árbol de decisión de pura y dura fuerza bruta lo pasara.

  3. Sergio dice:

    Voy a responderte con teoría de coste computacional. No fue posible implementar un algoritmo de fuerza bruta para jugar al ajedez q examinara todas los movimientos posibles para una jugada y decidiera el mejor pq no existen suficiente materia en todo el universo para fabricar la ram que haría falta… no hablemos ese algoritmo tardaría más q toda la historia del universo (15 mil millones de años) en devolver una respuesta. Sólo cuando se emplearon técnicas heurísticas, podas de árboles binarios y demás, empezó a ser factible.
    Si se pudiera almacenar toda conversación posible (imposible por la inabarcable combinatoria) aún quedaría el problema de “elegir” una respuesta “correcta” para pasar el test de turing.

    Me has recordado al problema de los infinitos monos con infinitas máquinas de escribir, que escriben infinito tiempo … al final alguna de esas combinaciones debe ser el quijote, no?

  4. Sirnewton3813 dice:

    Esa clase de maquinas seria facil pillarlas en el sentido de que no son humanos, ya que solo hay que hacerle una o varias preguntas que un ser humano no podria contestar rapidamente, por ejemplo un calculo complejo matematico, si la maquina te contesta en segundos rapidamente esta claro que no es humana.

    A la cuestión de si piensa habría que distinguir si su pensamiento es o no es CONSCIENTE, ya que quizás podria decirse que posee un pensamiento algoritmico inconsciente, (ya que hay procesos internos que operan al “margen” de sus respuestas, pero necesarias para esas respuestas).

    Puede tener un pensamiento puramente funcional y ligado a sus respuestas, pero sin autorepresentacion consciente.

  5. Sergio:

    No entiendo a qué me estás respondiendo. Ya sé muy bien como funcionan los programas de ajedrez y son, efectivamente, más inteligentes que la máquina de Block. Y, también sé, que, seguramente, esa máquina es imposible de construir en la realidad debido a la explosión combinatoria que supondría tan enorme árbol de variantes. El caso es que si es pensable, es decir, si podemos pensar en que una máquina así es lógicamente posible y que tal máquina, a pesar de su rotunda estupidez, pasaría el test de Turing, el test de Turing no es una buena herramienta para juzgar la inteligencia de una máquina.

    Y, efectivamente, el ejemplo de los monos pulsando teclas al azar es otra magnífica prueba de que un test que solo juzgue el resultado observable no puede ser un buen test de inteligencia. Un mecanismo aleatorio trabajando millones de años podría llegar a escribir el Quijote, una obra genial, siendo un mecanismo imbécil donde los hubiere.

  6. Sirnewton:

    No sería muy difícil programar a una máquina para que fingiera tener unas aptitudes matemáticas similares a las humanas.

    Y, evidentemente, la máquina no sería ni consciente ni autoconsciente de nada, sería más estúpida e inconsciente que una calculadora de mano. Su único conocimiento (que no es lo mismo que consciencia) sería la conexión entre un grupo de símbolos (que no entiende) con otro grupo de símbolos.

  7. Yack dice:

    El test de Turing es un procedimiento práctico para determinar si una entidad es inteligente, basado en el hecho de que la inteligencia (a nivel práctico) se define como el conjunto de habilidades “inteligentes” que solo pueden coexistir en un cerebro humano.

    Se da por supuesto que blockhead no puede existir, de igual manera que tampoco puede existir una máquina que responda correctamente al test de Turing por el procedimiento de generar secuencias de letras aleatoriamente.

    En ambos casos, la probabilidad de que exista ese tipo de máquinas es tan baja que se asume, por puro sentido común, que no pueden existir.

    Por lo tanto, el test de Turing sigue siendo un procedimiento válido a nivel práctico. Si nos salimos del nivel práctico, no llegamos a ninguna parte desde el momento que no podemos definir qué es la inteligencia y por tanto, todo lo demás sobra.

    Saludos.

  8. Sirnewton3813 dice:

    Santiago,

    Cierto es que se podría dotar a la maquina además de ciertos algoritmos de camuflaje de tal forma que simulen contestaciones como un ser humano, pero bueno, ahí ya podemos empezar a hablar de que se les dota a esos sistemas de cierta “inteligencia”, y por tanto ya no tan estupidas.

    La cuestion es que se entiende por inteligencia??, porque a mi modo de ver ya hay sistemas inteligentes y no conscientes.

    Si un sistema algoritmico o lo que sea, posee amplitud de datos y combinación suficiente de esos datos para ser creativo, a mi ya me vale para decir que el sistema es inteligente.

    Se da cuenta el sistema que es inteligente? No,
    Y??
    El que el sistema no se de cuenta de que no es inteligente no es debido a que el sistema es estupido, es debido a que el sistema no posee consciencia(en principio).

    En definitiva la estupidez del sistema es debido a la IGNORANCIA a nivel consciente de sus estados algoritmicos o lo que sea, pero a mi juicio puede ser muy o mas inteligente a la larga que un ser humano.

Responder

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Cerrar sesión / Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Cerrar sesión / Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Cerrar sesión / Cambiar )

Google+ photo

Estás comentando usando tu cuenta de Google+. Cerrar sesión / Cambiar )

Conectando a %s