Posts etiquetados ‘Conductismo’

El funcionalismo es la postura filosófica de la actual psicología cognitiva. Por ende, también lo es de la mayoría de los ingenieros en Inteligencia Artificial. Es, por tanto, una postura compartida por gran parte de la comunidad científica dedicada al tema de la mente, el stablishment contemporáneo (donde más disidencias hay es entre los neurólogos y, como no podría ser de otra manera, entre los filósofos). Vamos a elaborar un pequeño análisis crítico viendo sus ventajas pero, sobre todo, los inconvenientes que hacen de esta posición algo inviable y subrayando como conclusión la disyuntiva entre abandonarla por completo o reparar algunas de sus partes.

Todo surge con el problema epistemológico de la mente. Si la psicología pretendía ser una disciplina científica, tenía que hacer de la mente un objeto de estudio claro y preciso, algo cuantificable, observable empíricamente. Como no podía, decidió hacer como si la mente no existiera. Eso es el conductismo: entender la psicología como la ciencia de la conducta (algo que sí puede observarse), por lo que intentó explicarlo todo mediante el binomio estímulo-respuesta (sin nada entre ellos). El fracaso fue rotundo, por lo que surgieron alternativas: una es la teoría de la identidad en sus distintas vertientes. Los defensores de la identidad sostienen que los estados mentales son idénticos a procesos neuronales. Un estado mental es exactamente lo mismo que una red neuronal concreta en funcionamiento. La virtud de esta perspectiva es que es perfectamente monista y materialista y casa a la perfección con los avances de las neurociencias. Además, su negación, parece absurda: ¿qué si no van a ser los pensamientos que sucesos neuroquímicos? Sin embargo, tiene dos problemas bastante graves:

1. Que sepamos, no hay nada en las reacciones físico-químicas de una red neuronal que pueda explicar, ni remotamente, un pensamiento o  una sensación. Las descargas eléctricas de los potenciales de acción que recorren los axones de las neuronas o las reacciones químicas que se dan en las sinapsis no son estados mentales.

2. Ponemos en problemas a los ingenieros de IA. Si un estado mental es idéntico a un estado neuronal, no es idéntico al proceso computacional que se da en un ordenador. Únicamente los seres con un sistema nervioso similar al humano podrían tener estados mentales. Las máquinas no.

HilaryPutnam

Y entonces llegó el funcionalismo, como una reacción al conductismo y como una solución a los problemas de la teoría de la identidad.  La clave está en definir los estados mentales como estados funcionales. ¿Qué quiere decir esto? Que un estado mental es siempre algo que causa un efecto o que es efecto de una causa, y se define exclusivamente por su función. Por ejemplo, un dolor de muelas es un estado mental porque es la causa de que yo me tome un analgésico. Uno de los fundadores del funcionalismo (si bien luego se retractó y se volvió muy crítico con su criatura) fue Hilary Putnam, quien entendió lo que era un estado mental a través de la tablatura de programa de una máquina de Turing. Este tipo de máquina, además de una definición de computabilidad, es un ordenador primitivo, una máquina capaz de hacer cálculos. Putnam afirmaba que las diversas órdenes que el programa da a la máquina son estados mentales (ya que tienen poderes causales). Esta concepción podría parecernos extraña a priori, pero soluciona un montón de problemas:

1. Para el funcionalismo, la relación entre estados físicos y mentales no es de equivalencia sino de superveniencia. Dos entes físicamente idénticos tienen los mismos poderes causales (realizan las mismas funciones), pero una misma función puede ser realizada por diferentes entes físicos. Dicho de otro modo: misma materia implica misma función pero misma función no implica misma materia. El funcionalismo con su superveniencia parece una gran idea: incluye la mente olvidada por el conductismo, salva la objeción de la teoría de la identidad hacia la Inteligencia Artificial, a la vez que no se lleva mal con la misma teoría de la identidad. Veamos eso más despacio:

a) El conductismo tenía un embarazoso problema con lo que llamamos estados intencionales o actitudes proposicionales (por ejemplo, las creencias o los deseos). Como prescindía de todo lo que no fuera conductual, no podía explicar el poder causal de una creencia. Por ejemplo, si yo creo que va a llover y por eso me pongo un chubasquero, una creencia causa mi conducta. Para el conductismo, como una conducta (respuesta) solo podía ser causada por otra conducta (estímulo) las creencias no podían causar nada, así que los conductistas no podían dar cuenta de algo tan sencillo y habitual como ponerse un chubasquero porque va a llover. El funcionalismo no tiene problemas con las creencias: una creencia es causa de un efecto, por lo tanto, es un estado mental.

b) El funcionalismo permite que los ingenieros de IA construyan máquinas con estados mentales. Siguiendo a Putnam, la orden que da un programa a un computador es un estado mental que puede ser idéntico al de un humano si cumple la misma función, a pesar de que el sistema físico que los genera es diferente (uno de silicio y otro de carbono). Es la gran virtud de la relación de superveniencia.

c) El funcionalismo permite cierta independencia a la psicología sobre la neurología. Como lo explica todo en términos funcionales, permite que no tengamos que hablar siempre en términos neuroquímicos. Por ejemplo, para explicar que la creencia de que llueva ha causado que me ponga un chubasquero, no es preciso que hable en términos de axones y dendritas. Puedo decir que la creencia causa mi conducta con funciones claramente adaptativas: si me mojo puedo ponerme enfermo y morir. Predecir el clima tiene una clara función adaptativa. Así, el funcionalismo se lleva fantásticamente bien con la psicología evolucionista, ya que ésta, igualmente, explica la mente en términos adaptativos, es decir, de funcionalidad biológica. Los funcionalistas permiten que la psicología pueda hablar en un lenguaje que no se reduce al fisicalista lo cual es fantástico para los psicólogos, ya que no tienen que estar constantemente mirando por el microscopio y hablando de neuronas.

d) El funcionalismo es perfectamente compatible con la neurología. No tiene problema alguno en admitir que un estado mental es idéntico a un estado neuronal, sencillamente, puede hablar de él sin que la ciencia haya descubierto aún tal identidad. Podemos decir que la creencia en que va a llover causa que yo me ponga un chubasquero, aceptando que la creencia en que va llover es idéntica a un estado neuronal concreto y reconociendo que aún la neurología no ha descubierto tal estado neuronal. Incluso si la neurología descubriera cada correlato neural de todos nuestros estados mentales, el funcionalismo podría seguir hablando en términos funcionales sin contradicción alguna. Simplemente diría que mi creencia es un estado neuronal x que, igualmente, causa que yo me ponga mi chubasquero, lo cual tiene una función claramente adaptativa.

e) Incluso el funcionalismo no tiene ningún compromiso ontológico con el monismo materialista. Podríamos ser funcionalistas y dualistas. Un estado mental podría no ser algo materia y tener, igualmente, poderes causales sobre mi conducta. Algunos dualistas que, por ejemplo, para explicar la mente se basan en la distinción informática entre hardware (base física) y software (programas), sosteniendo que mientras el hardware es material, el software no lo es, pueden ser perfectamente funcionalistas. Por el contrario, si un funcionalista quiere ser materialista, solo tiene que añadir otra condición a la tesis de que los estados mentales son funcionales, a saber, que toda relación causal es material, que una causa y un efecto siempre son dos entes materiales. ¡El funcionalismo vale para todos los gustos!

Comprobamos que el funcionalismo es una gran teoría debido a sus grandes ventajas. De aquí su éxito en la actualidad. Sin embargo, tiene dos serios problemas, a los que a día de hoy, nadie ha encontrado una solución satisfactoria:

1. El problema de la conciencia fenomenológica o de los qualia. El funcionalismo no puede explicar de ninguna manera el hecho de que tengamos sensaciones conscientes (sentience). Cuando me duelen las muelas y, debido a ello, me tomo un analgésico, siento conscientemente el dolor de muelas. Una computadora no siente ningún dolor cuando algo falla en su sistema, aunque lo detecte y tome medidas para repararlo. Una computadora, a pesar de que pudiese tener una conducta muy similar a la humana, no siente que hace lo que hace, no desea hacerlo, no se enfada ni se pone nerviosa cuando se equivoca… ¡Una máquina no es consciente de absolutamente nada! No poder dar cuenta de la distinción entre estados conscientes e inconscientes es un gravísimo problema del funcionalismo: ¿por que la selección natural ha gastado tantos recursos en hacer que sintamos cuando podría haber conseguido lo mismo generando organismos totalmente inconscientes? Es la objeción de los zombis de Chalmers ante la que el funcionalismo calla.

2. El problema semántico expuesto por John Searle.  Estamos ante el archiconocidísimo argumento de la caja china que no voy a entrar a explicar. La idea tiene como trasfondo el concepto de intencionalidad de Franz Brentano: los estados mentales tienen la cualidad de siempre referirse a algo que no son ellos mismos. Su contenido siempre es otra cosa diferente a ellos, siempre apuntan a otra cosa. En este sentido, los estados mentales son simbólicos. Si analizamos el funcionamiento de un ordenador, la máquina trata todo con lo que trabaja como objetos físicos y no como símbolos. Un computador que traduce del español al chino, no entiende realmente ninguno de los dos idiomas. Trata las palabras como objetos físicos que intercambia siguiendo unas pautas sin entender nada de lo que está haciendo. La conclusión de Searle es que las máquinas no tienen semántica sino tan solo sintaxis. Es un argumento bastante fuerte y aunque se han hecho muchos intentos de refutarlo, ninguno lo ha conseguido del todo.

FranzBrentano

No he conocido ninguna teoría que, ya desde su comienzo, no haya tenido serios problemas. El funcionalismo no es diferente, pero debe resultarnos chocante que el sustrato filosófico que hay debajo de la psicología actual más comúnmente aceptada por la comunidad científica sea deficiente. A mí no deja de resultarme difícil de digerir como conocidos científicos cometen errores garrafales por no tener ni idea de lo que están hablando cuando hablan de la mente. Entre otros, me refiero al popular Ray Kurzweil, el cual ignora completamente la filosofía de la mente a la vez que habla constantemente de temas por ella tratados (y además, tiene el atrevimiento de decir que muy pronto vamos a construir una mente indistinguible de la humana). Nos quedan dos alternativas: o lo abandonamos completamente y pensamos algo radicalmente nuevo (o volvemos a otras posturas más viejas), o intentamos arreglar los desperfectos. Hay algunos intentos: por un lado está el interesante materialismo anómalo de Donald Davidson o, el mismo David Chalmers de los zombis, quien intenta una especie de compatibilismo entre los qualia y el funcionalismo. Hablaremos de ellos otro día.

Falacia cum hoc ergo propter hoc: porque dos fenómenos se den a la vez, se infiere que uno es causa del otro. La base de todas nuestras supersticiones. Si hago un examen, llevo una pata de conejo y lo apruebo, la pata de conejo es causa del aprobado. Forma muy fácil de combatir tal falacia: prueba a ir al examen sin estudiar y con la pata de conejo, y estudiando y sin la pata de conejo y compara los resultados.

Dicho de otro modo: si tenemos dos fenómenos A y B que cuando ocurren, ocurre C, de primeras, no podemos saber cuál de las dos, A o B, es la causa de C. Necesitamos un segundo paso, probar qué pasa cuando solo se da A sin B o B sin A. Esa es la auténtica forma de actuar de la ciencia y que, en este caso, se opone diametralmente al ethos de la superstición. La ciencia establece relaciones causales cada vez más y más finas, es decir, va puliendo falsas causas, reduciendo su número, hasta llegar a la correcta (o siendo algo escéptico, hasta que ya no puede reducir más).

El problema se hace más complejo en el caso de la paloma. Cuando existe una distancia temporal entre la causa y el efecto, teniendo en cuenta que entre uno y otro pasan un montón fenómenos susceptibles a ser también causas, es más difícil determinar la causa correcta. Bueno, probemos igual que antes a ir eliminando todos los fenómenos que se han dado entre la causa y el efecto hasta que demos con la única que puede causar el efecto por sí sola. La paloma se daría cuenta de que solamente aleteando no abre la puerta mientras que solamente dando al manipulandum sí.

Pero llevemos al extremo el razonamiento. Pensemos en que si todos los fenómenos que han ocurrido previamente a cualquier efecto son susceptibles a ser su causa, cualquier cosa que haya pasado desde el Big Bang hasta ahora podría ser la causa de cualquier fenómeno del presente, la tarea de ir eliminando uno por uno todos los sucesos hasta llegar al primero sería algo que ni el mejor superordenador imaginable que pudiéramos construir en el futuro podría conseguir ni en una infinitésima parte. Simplemente el hecho de calcular todos los movimientos de partículas subatómicas que han ocurrido en mi cuarto en el segundo anterior a éste es algo prácticamente incalculable, cuánto más calcular las de los trece mil setecientos millones de años que suponemos que tiene de edad el universo. ¿Cómo es posible entonces que, habitualmente y con cierta precisión, descubramos las causas de la mayoría de los fenómenos cotidianos que nos ocurren a diario?

Respuestas:

1. En primer lugar, los fenómenos que ocurren a diario no son caóticos, sino que siguen unas reglas dadas que los hacen más sencillos. Por ejemplo, todos los átomos que forman parte de una pelota de tenis se comportan de una forma similar cuando la pelota viene hacía mí, de tal modo que no hace falta calcular la trayectoria de todos los átomos uno por uno, sino solo la trayectoria de grupos de ellos. Por decirlo de algún modo, la naturaleza se comporta haciendo “packs”: hay muchas regularidades y repeticiones. Si no fuera así, conocerla y actuar en ella hubiera sido imposible.

2. Nuestro cerebro, desde sus remotos orígenes, ha ido descubriendo y simplificando el comportamiento de estos “packs”, de estas regularidades naturales.  Cuando veo la pelota de tenis acercarse hacia mí, no veo millones de partículas interactuando, sino una única unidad, la pelota, desplazándose en el aire. Mi sistema perceptivo se adaptó a percibir la realidad de un modo económico y eficaz teniendo en cuenta sus limitados recursos. Pensemos en cómo utilizo el concepto “perro” para referirme a un montón de entidades distintas: perros de diferentes colores, edades, tamaños, razas… a todos los llamo “perro”.

3. Pero no solo mi percepción simplifica, mi razón también lo hace. Un ejemplo. Tengo un coche y lo guardo en mi garaje, olvidándoseme echarle gasolina. El auto permanece diez años en el garaje y un día decido sacarlo. Cuando lo saco, a los cien metros, el coche se para y yo me pregunto cuál será la causa. ¿Tengo entonces que ir analizando todo lo que ha pasado de aquí a diez años atrás para descubrir la causa? No: hipersimplifico. Solo pienso en eventos relacionados con el coche y su funcionamiento porque yo ya sé, previamente, que los coches funcionan con gasolina. Entonces recuerdo que no le eché gasolina y descubro, entre infinitas causas posibles, la correcta. La clave está en que conozco el funcionamiento del coche, tengo almacenado en mi memoria las diversas causas que explican cómo funciona un automóvil, poseo ese resumen, esa síntesis causal, lo cual evita que tenga que obrar por ensayo y error, eliminando posibles causas, cada vez que intente explicar su funcionamiento.

4. La historia evolutiva ha tenido que ser un colosal proceso de simplificación causal. Desde los primeros seres unicelulares que aprendieron a responder de una manera y no de cualquier otra a los cambios en su entorno, hasta la llegada de los mamíferos y de los sapiens, todo fue un enorme dispositivo de almacenamiento de información causal, primero en el ADN y luego en nuestras portentosas memorias de primate. La evolución es hipersimplificación.

2_f

Viajamos a Oxford por primera vez. Un representante de la universidad nos va enseñando los diferentes edificios que componen la Universidad: aulas, bibliotecas, museos, despachos, etc. Después de varias horas de visita turística decimos a nuestro guía:

– Muy bien. Hemos visto muchas aulas, bibliotecas, museos y despachos, pero yo he venido aquí a visitar la Universidad de Oxford. ¿Cuándo la visitaremos?

– Disculpe señor – nos responderá perplejo el guía – pero es que esto es la Universidad de Oxford.

– No, ahora mismo estamos en una biblioteca. ¿Me está usted diciendo que esta biblioteca es la Universidad de Oxford? ¿La Universidad no es más que una biblioteca?

– No señor, la Universidad es el conjunto de todos los edificios que hemos visitado, de todas las personas que en ellos trabajan y de todas las actividades que en ellos se realizan.

– No, no puede ser. Entonces, ¿qué tipo de entidad es la Universidad de Oxford? Dese cuenta que usted me está diciendo que la Universidad de Oxford no es nada, no es un objeto material como tal, no es una substancia… No la puedo ver, oír, tocar…

– Está usted diciendo cosas muy extrañas. Claro que puede tocar la Universidad. Ahora mismo está pisando su suelo.

– No, yo estoy pisando el suelo de la biblioteca, no de la Universidad de Oxford. ¡Deje de tomarme el pelo! ¡Lléveme inmediatamente con el Rector!

Un rato más tarde el personal de seguridad nos invita a abandonar el recinto de Oxford. Pero, ¿qué hay de raro en este razonamiento? A, después de ver todos los edificios, personal y actividades que componen la Universidad, seguir preguntando dónde está la Universidad es lo que Gilbert Ryle denomina error categorial. En este ejemplo pretendemos que Oxford sea un objeto físico, una substancia, cuando realmente no lo es (o es algo más).  Y Ryle hace una cosa muy interesante: aplica esta forma errónea de razonar a como entendemos habitualmente la mente.

Desde Descartes se ha tendido a pensar que la mente es una substancia, una especie de “cosa”, un recipiente en donde se dan todos nuestros pensamientos, emociones, recuerdos, etc. lo cual ha generado gran confusión y múltiples problemas filosóficos que, en el fondo, no serían más que pseudoproblemas. La contrariedad más evidente es la que surge cuando nos preguntamos por la naturaleza ontológica de esa mente: si Descartes opuso la mente a la materia como dos cosas completamente diferentes, ¿de qué están hechos los pensamientos? ¿Cuál es la naturaleza de los estados mentales? ¿Son espirituales, intangibles, etéreos… y, por tanto, inasequibles a la investigación científica?

Ryle niega la mayor: la mente no es una “cosa”, no hay ningún órgano corporal al que podamos llamar “mente”, sino que la mente son los procesos mentales. En este sentido la mente no es algo único sino múltiple, tesis que iría contra siglos de tradición filosófica. La mente no es un objeto sino muchas y variadas “actividades”. Pero, ¿qué son los procesos mentales? Aquí Ryle da una respuesta muy original aunque contraintutitiva y extraña: los procesos mentales  son disposiciones conductuales, es decir, algo así como potencialidades para la acción. Sigamos un ejemplo del mismo Ryle: el talento de un payaso. Si un payaso tiene talento diremos que es porque tiene una serie de habilidades que se expresarán en una conducta exitosa a la hora de, por ejemplo, hacer reír a los niños. Pero, ¿qué son esas habilidades? No son objetos observables ya que una habilidad solo es observable cuando se ejecuta pero puede existir sin que se ejecute nunca. Yo puedo ser muy habilidoso jugando a los dardos a pesar de que no haya jugando nunca. Pero tampoco son algo inexistente: yo tengo esa habilidad.

Llegados a este punto Ryle introduce otra interesante diferenciación: knowing that (saber que) y knowing how (saber cómo). Saber qué se refiere a lo que todo el mundo entenderíamos por conocer algo teóricamente (un conocimiento de hechos, acontecimientos), mientras que saber cómo se referiría al conocimiento práctico: saber reglas y criterios (saber nadar, leer o montar en bicicleta). Sería muy interesante, siguiendo la afirmación del segundo Wittgenstein de que aprender el significado de algo consiste en seguir una regla, es decir, en saber cómo hacer algo, pensar que todo conocimiento es un saber cómo y que, por tanto, no existe eso de saber qué (daríamos así un impresionante golpe antimetafísico en la mesa). Pues bien, “saber cómo” es una disposición conductual, por lo que los procesos mentales son formas de knowing how, habilidades “ocultas” que salen a la luz en la conducta.

Pero, ¿qué pasa con los qualia? ¿Qué pasa con las sensaciones conscientes? ¿No tienen algún tipo de existencia? No, esta falsa creencia es fruto de la herencia cartesiana que, repetimos, tiende a ver la mente como algún tipo de objeto. Es el mito del fantasma en la máquina. Para Ryle no existe ningún lugar al que solo cada uno tiene un acceso privilegiado: no existe ningún “episodio privado” ni ninguna labor de “introspección”, sencillamente porque no existen los objetos que esos episodios o labores experimentan: no existen contenidos mentales, no existe la mente. Este antimentalismo encaja perfectamente con la corriente psicológica dominante en el momento de la publicación de la obra de Ryle El concepto de lo mental (1949): el conductismo. Si lo único que podemos observar científicamente es la conducta de los sujetos, siendo la mente algo extraño y problemático como objeto de investigación, quitémosla de en medio. Damas y caballeros, según Ryle ustedes no tienen mente.

Por cierto, quién quiera entender de forma clara y sencilla la filosofía del primer Wittenstein puede leer mi artículo para Hypérbole.

Después del éxito en visitas de mi última entrada en donde, por primera vez en este blog, sacaba una imagen de una chica ligera de ropa para reflexionar sobre una comparación tan audaz como asemejarla a una mosca de la fruta, me he animado a repetir la experiencia, y aquí os traigo ahora a la modelo de Victoria’s Secret Adriana Lima. Qué leches, la reflexión filosófica no tiene por qué estar reñida con alegrarse un poco la vista. La cuestión de hoy es: ¿Por qué actuamos como actuamos? ¿Por qué al ver la foto de Adriana siento unos deseos irrefrenables de acercarme a ella lo más cerca como legalmente me sea posible? ¿Cómo resolver la vieja y misteriosa pregunta de la conducta humana?

La primera explicación clásica la dio, como no podría ser de otra manera, Aristóteles. Nos movemos para conseguir algo porque nuestra naturaleza (y la del Cosmos en su totalidad) es teleológica. Todo ser existente se mueve porque persigue un fin, un objetivo, un telos. Aristóteles hablaba principalmente de los seres vivos (fue el gran primer naturalista de la historia y escribió más de zoología que de cualquier otro tema) pero también extendía este modelo a los seres inertes. Una piedra caía hacía abajo no porque existiera ninguna fuerza que la moviera, sino porque en su naturaleza existía la finalidad, el objetivo de estar lo más abajo posible. Todos los seres tenían un principio intrínseco que les hacía perseguir una serie de objetivos, y no otros. La bellota tenía en su naturaleza la finalidad de convertirse en encina y por eso crecía (se movía) y cambiaba para conseguirlo. En su esencia estaba en potencia (como posibilidad) ser una encina y no un dinosaurio. El fluir de la naturaleza era un continuo actualizar potencias, conseguir en acto lo que sólo existía como posibilidad. Quiero acercarme a Adriana porque en mi naturaleza humana está en potencia acercarme a chicas guapas, cosa que como ya sabemos, no me ocurriría si yo fuera una drosophila.

Pero a pesar de ser una sofisticada teoría que, a priori, conseguía explicar todo el movimiento y el cambio en la naturaleza, no era completamente satisfactoria.  ¿Qué pasa con los seres, quizá la mayoría de los existentes, que no pueden representarse tales finalidades? ¿Cómo va un ser a perseguir un objetivo si no sabe cuál es? Una hormiga persigue el buen funcionamiento del hormiguero al que pertenece. Sin embargo, ¿tiene la hormiga una representación mental clara en su diminuto cerebro de cómo funciona el hormiguero y de cuál es su papel en él? Parece que no. Y si nos vamos al ejemplo de la piedra la objeción se hace más patente: ¿sabe algo la piedra sobre sus fines si no sabe nada? Es muy preclaro que una piedra no obra teleológicamente.

Otra explicación de la conducta, mucho más moderna, es la que nos dio el conductismo. De un modo extremadamente sencillo, la conducta era la mera respuesta de un organismo (un output) a un estímulo dado (un input). Ni fines ni objetivos, sólo estímulos y respuestas. Esta teoría explica mejor que la aristotélica el hacer de la hormiga. No es que la hormiga trabaje en pro del funcionamiento global de su hormiguero, sino que tiene programadas una serie de respuestas ante unos estímulos que, cuando las realiza, como por arte de magia, consigue el objetivo requerido. Cuando la hormiga persigue el rastro hormonal de sus compañeras no lo hace representando en su mente que conseguirá comida y la podrá traer de vuelta al hormiguero, sino que simplemente responde así y, al hacerlo, consigue su objetivo.

Pensemos en un brazo robótico en una cadena de montaje de automóviles. Cada movimiento que realiza lo hace obedeciendo un programa sin que en tal programa se “visualice” de ninguna manera el objetivo final de poner un tornillo en la puerta del coche. La máquina mueve una de sus piezas, luego otra y luego otra siguiendo los pasos de un algoritmo, de modo que, al seguir todas las pautas en el orden requerido, pone el tornillo en su lugar. El objetivo final sólo estaba en la mente del ingeniero pero no está dado ni en el programa ni en la conducta de la máquina. Veámoslo más claramente poniendo el ejemplo de cómo podrían ser las instrucciones que el brazo sigue:

1. Mueve el antebrazo 23º a la derecha.

2. Gira el rotor 2 14º a la izquierda.

3. Activa el servomotor  1 durante 6 segundos.

4. Vuelve al paso 1.

¿Se ve que en ninguna instrucción la máquina se representa el objetivo final?

No obstante, el conductismo tenía un grave problema para explicarlo todo. A saber, no tenía en cuenta lo que ocurre entre el input y el output. Es posible que para explicar la conducta de una hormiga o de un brazo robótico, el conductismo baste, pero para comprender el comportamiento de organismos más complejos no. Un ser humano dará diferentes y muy variadas respuestas ante un mismo estímulo. De aquí el fracaso del delirio watsoniano de predecir y controlar toda la conducta humana sólo en base a esos dos parámetros. ¿Pero qué es lo que faltaba entonces?

Muchos conductistas se dieron pronto cuenta. Uno de ellos, Hull, propuso una de las primeras teorías de la motivación. En esta última palabra estaba la clave: los seres vivos actúan por motivos que no son otra cosa que activaciones del sistema nervioso central. Ahora, ya existía algo entre el input y el output: con miedo todavía a llamarlo mente, Hull sólo habló de SNC. Y en función de cómo se active este sistema nervioso se darán unas respuestas u otras.

Motivo, una especie de fuerza, de impulso o deseo (no sé como llamarlo de otra manera) que empuja a conseguir cualquier cosa. Los mamíferos superiores incorporaron sofisticados sistemas de representación mental para planificar con mayor eficacia la satisfacción de un motivo. Pero hay que tener muy claro que la representación mental de un objetivo, por sí misma, no explica la conducta. Yo puedo representarme mentalmente con todo lujo de detalles el objetivo de conseguir una chuleta de cerdo, incluso puedo planificar muy bien cómo conseguirla, pero si no tengo hambre alguna, difícil será que mi conducta se dirija hacia el filete. Hace falta motivación.

Una consecuencia muy interesante de este descubrimiento supone un enorme reto para los ingenieros de inteligencia artificial. Podemos hacer una máquina que se represente unos objetivos dados (más sofisticada que nuestro brazo robótico) y que cambie su conducta de tal modo que encuentre los medios más eficaces para conseguirlos. Sin embargo, no podemos conseguir que esa máquina esté motivada, que deseé realmente conseguir los objetivos. Las máquinas no sienten deseos por muy bien que cumplan sus funciones. La razón es la de siempre: aún no hemos conseguido que una máquina pueda tener algún tipo de sensación ni emoción consciente. Si queremos emular la conducta de los seres vivos, ineludiblemente, éste tendrá que ser el siguiente paso: máquinas deseantes. O dicho en román paladín, hasta que no tengamos una máquina que se ponga cachonda al ver la foto de Adriana… hasta entonces sólo tendremos un cero en conducta.

Las dos posturas ontológicas que tradicionalmente han dominado la historia de la filosofía han sido, primero, el dualismo de propiedades (anteriormente conocido como dualismo platónico o cartesiano) y, luego, el materialismo, siendo esta última la que domina en los ambientes intelectuales de corte cientificista de la actualidad.

El dualismo, en la medida en que sostiene la total independencia e incomunicación entre la mente y el cuerpo, es una teoría absurda. Aunque no sepamos cómo nuestro cerebro genera estados mentales, ni sepamos qué relación hay entre uno y otros,  tenemos claro que existe una estrecha relación. Creo que no hace falta ni mencionar, por obvio, lo que ocurre con nuestros estados mentales cuando bebemos mucho alcohol o cuando nos anestesian.

Y con respecto al materialismo ya sabéis mi postura : creo que no sabemos lo suficientemente bien qué es la materia para enarbolar la proposición “Todo lo que existe es x, siendo x materia” , como subrayaba la crítica de Moulines al materialismo y que discutimos largamente en este blog. Además, el materialismo siempre ha tenido, y tendrá, el problema de la conciencia como bestia negra: ¿Cómo explicar la existencia de estados mentales que no son claramente definibles en términos materiales? Las estrategias pasan por negar la existencia de tales estados, bien directamente (Ryle, Dennett o Patricia Churchland), bien reduciéndolos a estados funcionales (Fodor y, al principio, Putnam) o, directamente, hacerlos idénticos a los estados neuronales (Smart); o de modo casi embarazoso, evitando hablar de ellos (el conductismo en general). Desgraciadamente para todos ellos, los estados mentales se resisten a ser reducidos y ninguna de las propuestas parece satisfactoria. ¿Qué hacer entonces? ¿Es que cabe otra alternativa a ser materialista o dualista? Pienso que sí.

Una de las aportaciones más famosas de Wittgenstein en sus Investigaciones Filosóficas es el concepto de “parecidos de familia”.  Wittgenstein intenta definir qué es el lenguaje, pero se encuentra con una pluralidad de lenguajes diferentes (los que llamará juegos de lenguaje) a los que no encuentra una característica en común tal que nos sirva para la definición:

66. Considera, por ejemplo, los procesos que llamamos “juegos”. Me refiero a los juegos de tablero, juegos de cartas, juegos de pelota, juegos de lucha, etc. ¿Qué hay de común a todos ellos? – No digas: “Tiene que haber algo común a ellos o no los llamaríamos juegos” – sino mira si hay algo común a todos ellos. – Pues si los miras no verás por cierto algo que sea común a todos, sino que verás semejanzas, parentescos y, por cierto, toda una serie de ellos. Como se ha dicho: ¡no pienses, sino mira! Mira, por ejemplo, los juegos de tablero con sus variados parentescos. Pasa ahora a los juegos de cartas: aquí encuentras muchas correspondencias con la primera clase, pero desaparecen muchos rasgos comunes y se presentan otros. Si ahora pasamos a los juegos de pelota, continúan manteniéndose carias cosas comunes pero muchas se pierden – ¿Son todos ellos entretenidos? Compara el ajedrez con las tres en raya. ¿O hay siempre un ganar o perder, o una competición entre los jugadores? Piensa en los solitarios. En los juegos de pelota hay ganar y perder; pero cuando un niño lanza la pelota a la pared y la recoge de nuevo, ese rasgo ha desaparecido. Mira qué papel juegan la habilidad y la suerte. Y cuán distinta es la habilidad en el ajedrez y la habilidad en el tenis. Piensa ahora en los juegos de corro: Aquí hay el elemento del entretenimiento, ¡pero cuántos de los otros rasgos característicos han desaparecido! Y podemos recorrer así los muchos otros grupos de juegos. Podemos ver cómo los parecidos surgen y desaparecen.

Y el resultado de este examen reza así: Vemos una complicada red de parecidos que se superponen y entrecruzan. Parecidos a gran escala y de detalle.

Cuando observamos la realidad, contemplamos una ingente cantidad de clases de “cosas” entre las que solamente encontramos parecidos, sin conseguir vislumbrar nada que todas ellas tengan en común de tal modo que podamos decir que en la realidad únicamente hay x (tal como erróneamente hace el materialismo) pues, ¿qué tendrían en común un átomo, un dolor de muelas, un teorema matemático, la velocidad, los tipos de interés, la batalla de San Quintín y la digestión? Algunas similitudes, parentescos… parecidos de familia:

67. No puedo caracterizar mejor esos parecidos que con la expresión “parecidos de familia”; pues es así como se superponen y entrecruzan los diversos parecidos que se dan entre los miembros de una familia: estatura, facciones, color de los ojos, andares, temperamento, etc., etc. – Y diré: los ‘juegos’ componen una familia.

¿A qué postura nos llevaría aplicar la teoría de parecidos de familia de Wittgenstein a la ontología? A un pluralismo ontológico (n-ismo de propiedades si se quiere): existe un sólo mundo (no necesitamos un mundo platónico dónde existen los teoremas matemáticos ni otro mundo para los estados mentales como pasa con Popper o Penrose) pero en él hay muchas propiedades diferentes tal que no podemos definir cuál sería la característica común a todas ellas. Como dice Searle:

Hay montones de propiedades en el mundo: electromagnéticas, económicas, geológicas, históricas, matemáticas, por decir algunas. De manera que si mi posición es un dualismo de propiedades, en realidad debería llamarse pluralismo de propiedades, n-ismo de propiedades, dejando abierto el valor de n. La distinción verdaderamente importante no es la que puede darse entre lo mental y lo físico, entre la mente y el cuerpo, sino la que puede darse entre aquellos rasgos del mundo que existen independientemente de los observadores – rasgos como la fuerza, la masa y la atracción gravitatoria – y aquellos rasgos que son dependientes de los observadores – como el dinero, la propiedad, el matrimonio y el gobierno -. El caso es que, aunque todas las propiedades dependientes del observador dependen de la conciencia para su existencia, la conciencia misma no es relativa al observador. La conciencia es un rasgo real e intrínseco de ciertos sistemas biológicos como el suyo y el mío”.

John Searle, El misterio de la conciencia.

La mente, a pesar del materialismo, permanece irreductible a lo material. Sin embargo, no por ello hay que aceptar el dualismo. ¡Acepta el n-ismo de propiedades!


1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.

¿Esta manzana es roja o verde?

¿De qué color es esta manzana? ¿Verde? ¿Naranja? ¿Roja? Si quisiéramos decir con precisión el color deberíamos recurrir a la estadística: 23% verde, 42% naranja y 35% roja. Aún así, ¿estaríamos describiendo con precisión su color? En esta manzana hay más de tres colores, hay muchas tonalidades, así que debemos indagar más: 16% verde oscuro, 6% verde claro, 21% naranja claro, 21% naranja oscuro… Además, habría que decir que el color depende también de factores externos: la luminosidad. Por la noche los tonos serán más oscuros y por el día más claros. ¡Las cosas no tienen un color permanente definido!

Precisamente esto es lo que denuncia la lógica borrosa o Fuzzy Logic: en nuestra vida cotidiana utilizamos el lenguaje de forma binaria. Las manzanas son rojas o verdes, buenas o malas, grandes o pequeñas… cuando sabemos que en realidad no es así. La lógica aristotélica era bivalente, sólo aceptaba dos valores de verdad. La lógica borrosa pretende subsanar esta limitación aceptando muchos valores de verdad, por eso también se la llama lógica multivalente. Las cosas no son ni verdaderas ni falsas, sino “Probablemente verdaderas”, “Casi, casi verdaderas” o “Muy poco verdaderas” al igual que la manzana puede ser “un poco verde”. No obstante podría objetarse que en nuestro lenguaje cotidiano utilizamos la lógica bivalente por un principio de economía. Si cada vez que tuviéramos que hablar del color de una manzana tuviésemos que mencionar todas sus tonalidades cromáticas, tardaríamos horas en pronunciar la expresión “acércame la manzana roja”. La lógica borrosa parece simplemente “estadística camuflada”.

Pero independientemente de esta discusión, la lógica borrosa se hace muy interesante al ser aplicada. Durante los años 60 del siglo pasado, dominó en psicología lo que se llamó conductismo. Sus máximos representantes, J.B. Watson y Burrhus Skinner, entendieron el comportamiento humano mediante el binomio estímulo-respuesta. En un alarde de ingenuidad, pensaron que sería posible predecir la conducta de cualquier ser humano, simplemente, estudiando las conexiones entre las diversos estímulos que nos acechan y las respuestas que les damos. Pronto se toparon con la complejidad y aparente indeterminación de nuestra conducta: ante los mismos estímulos se daba gran cantidad de respuestas diferentes y viceversa. Era prácticamente imposible establecer leyes pues no había patrones de conducta que se repitieran concluyentemente.

Y aquí esta el quid: ¿quién ha dicho que para predecir la conducta  humana haya que seguir férreas leyes bipolares? La lógica borrosa puede ser un modelo más interesante a la hora de aplicarse a mecanismos de decisión que la lógica binaria de Skinner.  Supongamos que queremos diseñar un coche que conduzca sólo, sin nadie al volante. Nuestro prototipo es muy sencillo: sólo gira unos grados a la derecha o a la izquierda en función de las órdenes que reciba de un sensor que detecta los bordes de la carretera. Si utilizamos lógica binaria, nuestro coche, cuando detecta el borde de la carretera a la izquierda gira unos grados a la derecha. Si sigue detectando gira más y más hasta que deja de detectarlo. Perfecto, nuestro coche no se estrella pero si contemplamos su recorrido, es tosco, lleno de largas líneas rectas que giran formando ángulos rectos. El recorrido parecerá muy robótico.

Ahora, supongamos que el coche funciona utilizando lógica borrosa. Cuando detecta el borde izquierdo, sólo gira a la derecha el 70% de las veces (“muchas posibilidades de ser verdadero”). Cuando observemos el recorrido realizado veremos que es más curvo, más natural, más propio de un ser vivo que de un robot.  Es interesante que en esto se introduce la idea de que el error no es algo que hay que evitar a toda costa. Hay veces que nuestro coche gira a la derecha cuando el borde está a la derecha, acercándose al desastre, pero no pasa nada, pues la naturaleza no es perfecta, acepta el error.

En el vídeo tenemos un sistema de navegación que utiliza lógica borrosa. Nótese que el recorrido que se sigue no es siempre el más corto y que la trayectoria parece muy natural, perfectamente propia, por ejemplo, de una abeja o una mosca. Los humanos, como seres vivos que somos, parece que, igualmente utilizamos la lógica borrosa en nuestra toma de decisiones. Cuando conducimos, por ejemplo, no siempre giramos al mismo tiempo cuando nos acercamos al borde de la carretera: unas veces lo hacemos antes, otras después, corregimos, retroalimentamos… de modo borroso; de tal forma que sería imposible que realizáramos dos veces exactamente la misma ruta. En nuestra conducta, la incorporación del error es algo esencial. Sin él no habría tentativa, no habría opciones mejores que otras, en definitiva, no habría aprendizaje.

Pero, ¿sería extrapolable la fuzzy logic más allá de la realización de modelos de toma de decisiones? ¿Podría ser útil en otras circunstancias? Según el profesor Bart Kosko sí. Una de sus reflexiones es que en política, utilizamos una lógica binaria (más en España que en ningún lado): izquierdas o derechas, facha o rojo, no hay más. Estas ideologías quizá sólo son formas de homogeneizar el pensamiento (es decir, de imposibilitarlo) cuando todo el mundo sabe que no todo es malo en cada una de ellas. Además, cada bando se inventa un muñeco de paja a su medida como chivo expiatorio para todos los males que realmente no representa a nadie. No existe nadie en la derecha que sea franquista, obispo, machista,esté a favor de la pena de muerte, de la tendencia de armas y de la guerra por la guerra, ultracapitalista, protaurino; al igual que en la izquierda no hay nadie que sea comunista, fumador de porros, vago, homosexual, tremendamente promiscuo y enemigo de la familia tradicional, que esté siempre pegándose con los antidisturbios y que sea íntimo amigo de Fidel Castro. Estos extremos negativos no existen, si bien se dan en alguna medida en muchos. Parece que lo más normal y lo más realista es acercarse en cierto grado a unos aspectos o a otros de la derecha o de la izquierda. Para Kosko, tanto los que están al 100% a la derecha o a la izquierda son dignos de poca confianza o tienen una visión muy distorsionada de la realidad. Yo creo que tiene razón.