Posts etiquetados ‘Burrhus Skinner’

Tal como sugirió Bacon con sus ídolos de la tribu, la maquinaria humana de reconocimiento de patrones tiende a dispararse en exceso, lo cual conlleva que creamos ver patrones en lo que en realidad es simple ruido. Hay un famoso experimento en el que este fenómeno produce el divertido resultado de que los sujetos humanos suelen rendir peor que las palomas y las ratas al afrontar la misma tarea. Al sujeto se le muestran dos lámparas, una roja y otra verde. A intervalos regulares, una de ellas se enciende y a los sujetos se les pide que predigan qué lámpara se encenderá a continuación. No se les informa sobre ningún mecanismo subyacente a la secuencia de encendidos de la lámpara roja y de la verde, pero lo cierto es que se encienden al azar, con un 0,8 de probabilidad para la roja frente a un 0,2 para la verde, independientemente de lo que haya sucedido antes. Los sujetos humanos observan la asimetría, intentan imitar el intrincado patrón de las luces, y predicen que la lámpara roja se enciende el 80% de las veces y la verde el 20% restante. De este modo acaban averiguando el correcto encendido aproximadamente 0,8 . 0,8 + 0,2 . 0,2 = 68% de las veces. Los animales más simples rápidamente averiguan cuál es la que se enciende con más frecuencia, con lo que aciertan un 80% de las veces. Ver, por ejemplo, Hinson y Staddon (1983), y Wolford, Miller y Gazzaniga (2000).

Häggström, Olle. Aquí hay dragones

Bacon tenía toda la razón del mundo: la metafísica tradicional tendió a ver en la realidad muchísimo más de lo que en ella había. La navaja de Ockham y el tenedor de Hume fueron una buena terapia aunque, parece ser que todavía no lo suficiente. Seamos humildes y aceptemos nuestro papel de intentar, al menos, ser unos buenos escépticos.

Véase, por supuesto, la superstición en las palomas de Skinner.

Falacia cum hoc ergo propter hoc: porque dos fenómenos se den a la vez, se infiere que uno es causa del otro. La base de todas nuestras supersticiones. Si hago un examen, llevo una pata de conejo y lo apruebo, la pata de conejo es causa del aprobado. Forma muy fácil de combatir tal falacia: prueba a ir al examen sin estudiar y con la pata de conejo, y estudiando y sin la pata de conejo y compara los resultados.

Dicho de otro modo: si tenemos dos fenómenos A y B que cuando ocurren, ocurre C, de primeras, no podemos saber cuál de las dos, A o B, es la causa de C. Necesitamos un segundo paso, probar qué pasa cuando solo se da A sin B o B sin A. Esa es la auténtica forma de actuar de la ciencia y que, en este caso, se opone diametralmente al ethos de la superstición. La ciencia establece relaciones causales cada vez más y más finas, es decir, va puliendo falsas causas, reduciendo su número, hasta llegar a la correcta (o siendo algo escéptico, hasta que ya no puede reducir más).

El problema se hace más complejo en el caso de la paloma. Cuando existe una distancia temporal entre la causa y el efecto, teniendo en cuenta que entre uno y otro pasan un montón fenómenos susceptibles a ser también causas, es más difícil determinar la causa correcta. Bueno, probemos igual que antes a ir eliminando todos los fenómenos que se han dado entre la causa y el efecto hasta que demos con la única que puede causar el efecto por sí sola. La paloma se daría cuenta de que solamente aleteando no abre la puerta mientras que solamente dando al manipulandum sí.

Pero llevemos al extremo el razonamiento. Pensemos en que si todos los fenómenos que han ocurrido previamente a cualquier efecto son susceptibles a ser su causa, cualquier cosa que haya pasado desde el Big Bang hasta ahora podría ser la causa de cualquier fenómeno del presente, la tarea de ir eliminando uno por uno todos los sucesos hasta llegar al primero sería algo que ni el mejor superordenador imaginable que pudiéramos construir en el futuro podría conseguir ni en una infinitésima parte. Simplemente el hecho de calcular todos los movimientos de partículas subatómicas que han ocurrido en mi cuarto en el segundo anterior a éste es algo prácticamente incalculable, cuánto más calcular las de los trece mil setecientos millones de años que suponemos que tiene de edad el universo. ¿Cómo es posible entonces que, habitualmente y con cierta precisión, descubramos las causas de la mayoría de los fenómenos cotidianos que nos ocurren a diario?

Respuestas:

1. En primer lugar, los fenómenos que ocurren a diario no son caóticos, sino que siguen unas reglas dadas que los hacen más sencillos. Por ejemplo, todos los átomos que forman parte de una pelota de tenis se comportan de una forma similar cuando la pelota viene hacía mí, de tal modo que no hace falta calcular la trayectoria de todos los átomos uno por uno, sino solo la trayectoria de grupos de ellos. Por decirlo de algún modo, la naturaleza se comporta haciendo «packs»: hay muchas regularidades y repeticiones. Si no fuera así, conocerla y actuar en ella hubiera sido imposible.

2. Nuestro cerebro, desde sus remotos orígenes, ha ido descubriendo y simplificando el comportamiento de estos «packs», de estas regularidades naturales.  Cuando veo la pelota de tenis acercarse hacia mí, no veo millones de partículas interactuando, sino una única unidad, la pelota, desplazándose en el aire. Mi sistema perceptivo se adaptó a percibir la realidad de un modo económico y eficaz teniendo en cuenta sus limitados recursos. Pensemos en cómo utilizo el concepto «perro» para referirme a un montón de entidades distintas: perros de diferentes colores, edades, tamaños, razas… a todos los llamo «perro».

3. Pero no solo mi percepción simplifica, mi razón también lo hace. Un ejemplo. Tengo un coche y lo guardo en mi garaje, olvidándoseme echarle gasolina. El auto permanece diez años en el garaje y un día decido sacarlo. Cuando lo saco, a los cien metros, el coche se para y yo me pregunto cuál será la causa. ¿Tengo entonces que ir analizando todo lo que ha pasado de aquí a diez años atrás para descubrir la causa? No: hipersimplifico. Solo pienso en eventos relacionados con el coche y su funcionamiento porque yo ya sé, previamente, que los coches funcionan con gasolina. Entonces recuerdo que no le eché gasolina y descubro, entre infinitas causas posibles, la correcta. La clave está en que conozco el funcionamiento del coche, tengo almacenado en mi memoria las diversas causas que explican cómo funciona un automóvil, poseo ese resumen, esa síntesis causal, lo cual evita que tenga que obrar por ensayo y error, eliminando posibles causas, cada vez que intente explicar su funcionamiento.

4. La historia evolutiva ha tenido que ser un colosal proceso de simplificación causal. Desde los primeros seres unicelulares que aprendieron a responder de una manera y no de cualquier otra a los cambios en su entorno, hasta la llegada de los mamíferos y de los sapiens, todo fue un enorme dispositivo de almacenamiento de información causal, primero en el ADN y luego en nuestras portentosas memorias de primate. La evolución es hipersimplificación.

1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.

El problema de la libertad acaba por disolverse. Si al no encontrar causas de nuestra conducta lo llamamos libre arbitrio, cuando las encontramos, la libertad se convierte en una hipótesis innecesaria.

Ver también Por qué somos robots zombi

¿Esta manzana es roja o verde?

¿De qué color es esta manzana? ¿Verde? ¿Naranja? ¿Roja? Si quisiéramos decir con precisión el color deberíamos recurrir a la estadística: 23% verde, 42% naranja y 35% roja. Aún así, ¿estaríamos describiendo con precisión su color? En esta manzana hay más de tres colores, hay muchas tonalidades, así que debemos indagar más: 16% verde oscuro, 6% verde claro, 21% naranja claro, 21% naranja oscuro… Además, habría que decir que el color depende también de factores externos: la luminosidad. Por la noche los tonos serán más oscuros y por el día más claros. ¡Las cosas no tienen un color permanente definido!

Precisamente esto es lo que denuncia la lógica borrosa o Fuzzy Logic: en nuestra vida cotidiana utilizamos el lenguaje de forma binaria. Las manzanas son rojas o verdes, buenas o malas, grandes o pequeñas… cuando sabemos que en realidad no es así. La lógica aristotélica era bivalente, sólo aceptaba dos valores de verdad. La lógica borrosa pretende subsanar esta limitación aceptando muchos valores de verdad, por eso también se la llama lógica multivalente. Las cosas no son ni verdaderas ni falsas, sino «Probablemente verdaderas», «Casi, casi verdaderas» o «Muy poco verdaderas» al igual que la manzana puede ser «un poco verde». No obstante podría objetarse que en nuestro lenguaje cotidiano utilizamos la lógica bivalente por un principio de economía. Si cada vez que tuviéramos que hablar del color de una manzana tuviésemos que mencionar todas sus tonalidades cromáticas, tardaríamos horas en pronunciar la expresión «acércame la manzana roja». La lógica borrosa parece simplemente «estadística camuflada».

Pero independientemente de esta discusión, la lógica borrosa se hace muy interesante al ser aplicada. Durante los años 60 del siglo pasado, dominó en psicología lo que se llamó conductismo. Sus máximos representantes, J.B. Watson y Burrhus Skinner, entendieron el comportamiento humano mediante el binomio estímulo-respuesta. En un alarde de ingenuidad, pensaron que sería posible predecir la conducta de cualquier ser humano, simplemente, estudiando las conexiones entre las diversos estímulos que nos acechan y las respuestas que les damos. Pronto se toparon con la complejidad y aparente indeterminación de nuestra conducta: ante los mismos estímulos se daba gran cantidad de respuestas diferentes y viceversa. Era prácticamente imposible establecer leyes pues no había patrones de conducta que se repitieran concluyentemente.

Y aquí esta el quid: ¿quién ha dicho que para predecir la conducta  humana haya que seguir férreas leyes bipolares? La lógica borrosa puede ser un modelo más interesante a la hora de aplicarse a mecanismos de decisión que la lógica binaria de Skinner.  Supongamos que queremos diseñar un coche que conduzca sólo, sin nadie al volante. Nuestro prototipo es muy sencillo: sólo gira unos grados a la derecha o a la izquierda en función de las órdenes que reciba de un sensor que detecta los bordes de la carretera. Si utilizamos lógica binaria, nuestro coche, cuando detecta el borde de la carretera a la izquierda gira unos grados a la derecha. Si sigue detectando gira más y más hasta que deja de detectarlo. Perfecto, nuestro coche no se estrella pero si contemplamos su recorrido, es tosco, lleno de largas líneas rectas que giran formando ángulos rectos. El recorrido parecerá muy robótico.

Ahora, supongamos que el coche funciona utilizando lógica borrosa. Cuando detecta el borde izquierdo, sólo gira a la derecha el 70% de las veces («muchas posibilidades de ser verdadero»). Cuando observemos el recorrido realizado veremos que es más curvo, más natural, más propio de un ser vivo que de un robot.  Es interesante que en esto se introduce la idea de que el error no es algo que hay que evitar a toda costa. Hay veces que nuestro coche gira a la derecha cuando el borde está a la derecha, acercándose al desastre, pero no pasa nada, pues la naturaleza no es perfecta, acepta el error.

En el vídeo tenemos un sistema de navegación que utiliza lógica borrosa. Nótese que el recorrido que se sigue no es siempre el más corto y que la trayectoria parece muy natural, perfectamente propia, por ejemplo, de una abeja o una mosca. Los humanos, como seres vivos que somos, parece que, igualmente utilizamos la lógica borrosa en nuestra toma de decisiones. Cuando conducimos, por ejemplo, no siempre giramos al mismo tiempo cuando nos acercamos al borde de la carretera: unas veces lo hacemos antes, otras después, corregimos, retroalimentamos… de modo borroso; de tal forma que sería imposible que realizáramos dos veces exactamente la misma ruta. En nuestra conducta, la incorporación del error es algo esencial. Sin él no habría tentativa, no habría opciones mejores que otras, en definitiva, no habría aprendizaje.

Pero, ¿sería extrapolable la fuzzy logic más allá de la realización de modelos de toma de decisiones? ¿Podría ser útil en otras circunstancias? Según el profesor Bart Kosko sí. Una de sus reflexiones es que en política, utilizamos una lógica binaria (más en España que en ningún lado): izquierdas o derechas, facha o rojo, no hay más. Estas ideologías quizá sólo son formas de homogeneizar el pensamiento (es decir, de imposibilitarlo) cuando todo el mundo sabe que no todo es malo en cada una de ellas. Además, cada bando se inventa un muñeco de paja a su medida como chivo expiatorio para todos los males que realmente no representa a nadie. No existe nadie en la derecha que sea franquista, obispo, machista,esté a favor de la pena de muerte, de la tendencia de armas y de la guerra por la guerra, ultracapitalista, protaurino; al igual que en la izquierda no hay nadie que sea comunista, fumador de porros, vago, homosexual, tremendamente promiscuo y enemigo de la familia tradicional, que esté siempre pegándose con los antidisturbios y que sea íntimo amigo de Fidel Castro. Estos extremos negativos no existen, si bien se dan en alguna medida en muchos. Parece que lo más normal y lo más realista es acercarse en cierto grado a unos aspectos o a otros de la derecha o de la izquierda. Para Kosko, tanto los que están al 100% a la derecha o a la izquierda son dignos de poca confianza o tienen una visión muy distorsionada de la realidad. Yo creo que tiene razón.