Posts etiquetados ‘Jack Copeland’

El ojo humano es lo bastante sensible como para permitir la la detección consciente de la llegada a la retina de un único cuanto de luz; y que se emita o no un único cuanto desde su fuente en un momento particular es aleatorio según la física moderna. Una forma efectiva de “desatar” nuestro futuro sería colocarnos en el aparato que Sakitt empleó para demostrar esta notable sensibilidad del ojo y hacer con nosotros mismos un contrato del tenor siguiente: “Si durante los próximos tres segundos detecto una emisión de un fotón, dejo todo y me voy a la India en autostop”.

Jack Copeland, Inteligencia Artificial

La historia es la siguiente: el mundo a escala macroscópica parece estar gobernado por el mecanicismo laplaciando. El universo se asemeja a una gran máquina en la que todos sus engranajes funcionan según la fuerte necesidad que tanto gustaba a Spinoza. Aquí no hay sitio para actos libres pues las causas del pasado determinan los efectos del futuro: somos autómatas. Sin embargo, llega el Siglo XX y con él una nueva generación de científicos que rompen con esta concepción: en el mundo de la cuántica ocurren fenómenos extraños, se dan hechos sin causa alguna, impredecibles a todas luces, hechos auténticamente aleatorios. Entonces para realizar una acción que rompa con el determinismo laplaciano bastaría con determinar la conducta con un fenómeno aleatorio, con un “aleatorizador cuántico”, de tal modo que el diablillo de Laplace nunca pudiera predecir mi decisión. Sería el acto revolucionario por excelencia: romper con el orden del cosmos, con su rígida necesidad causal. Copeland nos da unas instrucciones para ello. Pero la cuestión no se acaba: ¿es un acto aleatorio verdaderamente un acto libre?

PD: he utilizado la máquina de Sakitt y… el próximo post lo tendré que hacer desde la India.

Terry Winograd es el genio de la informática que diseñó SHRDLU, un programa que, allá por finales de los 60, era capaz de una notable comprensión del lenguaje. Con un entorno muy simplificado (lo que desde entonces se ha llamado mundo de bloques), podría realizar múltiples interacciones (coger un cono y ponerlo entre el cubo y la pirámide) obedeciendo mandatos lingüísticos (SHRDLU, coge el cono y ponlo entre el cubo y la pirámide). Se le podía preguntar sobre el historial de acciones y la justificación de su conducta. Un ejemplo de conversación que muestra los poderes de este programa sería (en cursiva las respuestas de SHRDLU):

¿Puede una pirámide sostener otra pirámide?

No lo sé.

Apila dos pirámides

(SHRDLU lo intenta y fracasa). No puedo.

La pirámide azúl es mía.

Entiendo.

Yo poseo los bloques que no son rojos pero no poseo nada que sostenga una pirámide.

Entiendo.

¿Poseo la caja?

No

¿Poseo algo que esté dentro de la caja?

Sí, dos cosas: el bloque azul y la pirámide azul.

¿Hay algo que sea mayor que cualquier pirámide que no sea tan ancho como la cosa que lo sostiene?

Sí, el bloque azul.

¿Sostiene algo verde la cosa más corta que sostiene el soporte de la pirámide más alta?

Sí, la pirámide verde.

¿De qué color es?

Supongo que te refieres a la cosa más corta que sostiene el soporte de la pirámide más alta. Rojo.

Una torre.

Lo siento, no conozco la palabra torre.

Una “torre” es un apilamiento que contiene dos cubos verdes y una pirámide.

Entiendo.

¿Hay alguna torre ahora?

No.

¿Puedes apilar, por favor, los dos bloques rojos y un cubo verde o una pirámide?

De acuerdo (SHRDLU hace lo que le ordenan).

[…]

¿Has tocado alguna pirámide antes de poner una sobre el bloque verde?

Sí, la verde.

¿Cuándo la cogiste?

Cuando estaba apilando un cubo rojo, un cubo verde grande y un bloque rojo grande.

¿Por qué?

Para quitarla.

¿Por qué hiciste eso?

Para despejar el cubo rojo.

[…]

¿Por qué hiciste eso?

Porque me lo pediste tú.

Extraído de Jack Copeland, Inteligencia Artifical

Una conversación tan impresionante auguraba que en unos pocos años tendríamos máquinas que pasaran con creces el Test de Turing, e innegable inteligencia artificial a la vuelta de la esquina. ¡Si parece que estamos conservando con HAL 9000! ¿Qué pasó entonces? ¿Por qué no estoy ahora mismo charlando de la crisis con mi tostadora? SHRLDU se movía bastante bien en su micromundo. Se pensó que lo único que había que hacer era ir aumentando progresivamente la complejidad de ese mundo hasta hacerlo tan grande y complejo como el nuestro. Pero aquí estuvo el gran problema: la complejidad de multiplica exponencialmente, no siendo nada fácil pasar de un mundo de simples formas geométricas a la realidad humana. El mundo simbólico del hombre es insondablemente más complicado de lo que nadie pudiese imaginar. Pero es más, ¿y si no sólo fuera muy complejo de la forma en que progresivamente, con arduo y lento trabajo, podamos acercarnos a él, sino que fuera insuperablemente complejo? SHRDLU es un programa trivial si lo comparamos con un ser humano enfrentándose a la realidad y, sin embargo, su creador Terry Winograd, a pesar de poseer un grandísimo talento para la programación, confesaba:

El código presenta una masa densa, con pocos asideros. Incluso yo, que he escrito el programa, me encuentro cerca del límite de lo que puedo retener en la cabeza. Después de abandonarlo unos pocos meses, es muy difícil responder a las preguntas sobre partes específicas, o anticipar los efectos de cambios propuestos.

Y es que el cerebro humano tiene una cantidad tan grande de conexiones sinápticas, su complejidad es tal que, ¿nadie se ha planteado la posibilidad de que sea imposible sin más tener un modelo matemático de él? ¿Nadie se ha planteado la, desalentadora sin duda, idea de que hay cosas que nuestra limitada capacidad intelectual no podrá hacer? Yo no puedo memorizar dos millones de números. Si para diseñar tal o cual ingenio hace falta memorizarlos… ¿no será que no puedo y punto? ¿No existirá un límite Winograd para llegar a comprender o descubrir ciertas cosas?

Los del CYC ahí siguen, insensibles al desaliento.

1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.