Posts etiquetados ‘Intencionalidad’

Una perspectiva en el desarrollo de máquinas conscientes (o con mente, si equiparamos ambos conceptos) es construir artefactos con capacidad de representarse a sí mismos. A priori, podría parecer una perspectiva errónea ya que cuando somos conscientes de algo no necesariamente nos representamos a nosotros mismos. Si yo soy consciente del color rojo de una amapola, la amapola no forma parte de mí mismo. Consciencia y autorepresentación podrían no tener demasiado que ver. Sin embargo, no siendo demasiado quisquillosos, podríamos conceder que, aunque parezca empezar a construir la casa desde el tejado (ya que la autoconsciencia parece algo posterior a la consciencia), autoconsciencia sí que implica autorrepresentación. Si yo soy consciente del color de la piel de mi mano, estoy representando mi mano mentalmente. Quizá podamos descubrir algo por ahí.

Un segundo problema está en establecer los límites del mí-mismo, es decir, encontrar la frontera entre lo que consideramos parte de nosotros mismos y lo que no. Si miramos la imagen de arriba (Transfer, de William Anastasi, 1968), observamos una videocámara que enfoca su fuente de alimentación y la muestra por el monitor. Si entendemos el conjunto cámara, monitor y cable de enchufe como un «individuo», tendríamos una cierta autorrepresentación. El monitor ofrece información del cable, una parte de nuestro individuo monitoriza otra parte (Aunque siendo puntillosos, verdaderamente no hay ninguna autorrepresentación, ya que los que ven la imagen del monitor son los observadores, y no la propia máquina). Empero, ¿con qué criterio definimos a este individuo como formado por monitor, cámara y cable de enchufe? ¿Por qué, por ejemplo, no le añadimos el enchufe de la pared o parte del cableado eléctrico que va por detrás del muro? También podríamos definir como dos individuos diferentes a la cámara y al monitor… ¿Qué es lo que hace de algo un ente individual? ¿Cuál es el principio de individuación?

Precisamente, una posible respuesta es la consciencia. Pensemos en nosotros mismos: ¿dónde está nuestra frontera? Yo sé, por ejemplo, que no soy el teclado del ordenador (aunque sea una propiedad mía, yo no soy lo que poseo), pero sí que hago mías mis manos ¿Por qué? Porque cuando me pinchan en ellas me duele, tengo consciencia de mi dolor. Así, todo mi cuerpo, en tanto que sujeto paciente de sensaciones, es un individuo.  Y eso es lo que nos diferencia de los objetos: hemos definido la cámara, el monitor y el cable como un individuo porque nos ha dado la real gana, de una forma completamente convencional o arbitraria, ya que podríamos haber elegido cualquier otra configuración de elementos. Sin embargo, eso mismo no lo podemos hacer con una persona. No podemos decirle: tu cabeza, tu torso y tu brazo izquierdo forman parte de ti, pero tus dos piernas y tu brazo derecho no.

Entonces tenemos la clave: la parte de la máquina monitorizada por la propia máquina será el individuo. En el caso de la obra de Anastasi, podríamos decir que la zona en la que el cable está enchufado a la pared es el individuo, ya que esa esa la parte «sentida»; la parte en la que si ocurre algo, el resto de la máquina «se da cuenta», ya que se visualizará en la pantalla. No tan deprisa, nos hemos topado con el nudo gordiano: ¿qué quiere decir exactamente que la máquina sea capaz de sentir algo? Pues, lamentablemente, algo muy distinto a que el sistema tenga información de su entorno. Un micrófono no es consciente del sonido que recibe y una cámara tampoco es consciente de la luz que entra a través de sus lentes. Y es que tener información o conocimiento sobre algo no es lo mismo que ser consciente de algo. Yo, ahora mismo, no soy consciente de todo el conocimiento que tengo almacenado en mi cerebro. Yo puedo no ser consciente ahora mismo de la aseveración «Londres es la capital de Inglaterra», pero tengo ese conocimiento. Si alguien me preguntara cuál es la capital de Inglaterra yo haría consciente ese conocimiento en ese instante. El conocimiento puede ser consciente o inconsciente, mientras que la consciencia siempre alberga algún conocimiento. No puede existir una consciencia de nada (de aquí el concepto de intencionalidad de Brentano).

¿Y qué es lo que hace consciente la posesión de una determinada información? Esa es la pregunta millón amigos. No lo sabemos bien, pero aquí la tradición filosófica habla del tan famoso como misterioso concepto de yo, entendido, al menos, como un sujeto paciente (capaz de padecer) de sensaciones. El argumento central es: ¿sería posible la existencia de la sensación de dolor sin alguien que lo sufriera? ¿Es posible un dolor que no duela a nadie? No, toda percepción consciente va asociada a un yo, tiene un sujeto. Nuestra cámara-monitor, por mucho que pudiera tener una cierta autorrepresentación, no tiene yo, por lo que no tiene ninguna experiencia subjetiva.  Ahora, el enigma está en comprender qué es ese rarísimo yo ¿Qué es ese ente capaz de percibir contenidos como sentidos, sufridos, padecidos?

Entonces el gran problema que tenemos si queremos implementar consciencia en máquinas es que hay que construir yoes, y de momento, nadie tiene ni la más remota idea de cómo hacer algo así. Queridos amigos, los grandes modelos de lenguaje no son conscientes en absoluto, ni hay visos de que vayan a serlo en breve. En esto, la IA está tan verde como lo estaba en tiempos de Turing. Que no os vendan humo.

El funcionalismo es la postura filosófica de la actual psicología cognitiva. Por ende, también lo es de la mayoría de los ingenieros en Inteligencia Artificial. Es, por tanto, una postura compartida por gran parte de la comunidad científica dedicada al tema de la mente, el stablishment contemporáneo (donde más disidencias hay es entre los neurólogos y, como no podría ser de otra manera, entre los filósofos). Vamos a elaborar un pequeño análisis crítico viendo sus ventajas pero, sobre todo, los inconvenientes que hacen de esta posición algo inviable y subrayando como conclusión la disyuntiva entre abandonarla por completo o reparar algunas de sus partes.

Todo surge con el problema epistemológico de la mente. Si la psicología pretendía ser una disciplina científica, tenía que hacer de la mente un objeto de estudio claro y preciso, algo cuantificable, observable empíricamente. Como no podía, decidió hacer como si la mente no existiera. Eso es el conductismo: entender la psicología como la ciencia de la conducta (algo que sí puede observarse), por lo que intentó explicarlo todo mediante el binomio estímulo-respuesta (sin nada entre ellos). El fracaso fue rotundo, por lo que surgieron alternativas: una es la teoría de la identidad en sus distintas vertientes. Los defensores de la identidad sostienen que los estados mentales son idénticos a procesos neuronales. Un estado mental es exactamente lo mismo que una red neuronal concreta en funcionamiento. La virtud de esta perspectiva es que es perfectamente monista y materialista y casa a la perfección con los avances de las neurociencias. Además, su negación, parece absurda: ¿qué si no van a ser los pensamientos que sucesos neuroquímicos? Sin embargo, tiene dos problemas bastante graves:

1. Que sepamos, no hay nada en las reacciones físico-químicas de una red neuronal que pueda explicar, ni remotamente, un pensamiento o  una sensación. Las descargas eléctricas de los potenciales de acción que recorren los axones de las neuronas o las reacciones químicas que se dan en las sinapsis no son estados mentales.

2. Ponemos en problemas a los ingenieros de IA. Si un estado mental es idéntico a un estado neuronal, no es idéntico al proceso computacional que se da en un ordenador. Únicamente los seres con un sistema nervioso similar al humano podrían tener estados mentales. Las máquinas no.

HilaryPutnam

Y entonces llegó el funcionalismo, como una reacción al conductismo y como una solución a los problemas de la teoría de la identidad.  La clave está en definir los estados mentales como estados funcionales. ¿Qué quiere decir esto? Que un estado mental es siempre algo que causa un efecto o que es efecto de una causa, y se define exclusivamente por su función. Por ejemplo, un dolor de muelas es un estado mental porque es la causa de que yo me tome un analgésico. Uno de los fundadores del funcionalismo (si bien luego se retractó y se volvió muy crítico con su criatura) fue Hilary Putnam, quien entendió lo que era un estado mental a través de la tablatura de programa de una máquina de Turing. Este tipo de máquina, además de una definición de computabilidad, es un ordenador primitivo, una máquina capaz de hacer cálculos. Putnam afirmaba que las diversas órdenes que el programa da a la máquina son estados mentales (ya que tienen poderes causales). Esta concepción podría parecernos extraña a priori, pero soluciona un montón de problemas:

1. Para el funcionalismo, la relación entre estados físicos y mentales no es de equivalencia sino de superveniencia. Dos entes físicamente idénticos tienen los mismos poderes causales (realizan las mismas funciones), pero una misma función puede ser realizada por diferentes entes físicos. Dicho de otro modo: misma materia implica misma función pero misma función no implica misma materia. El funcionalismo con su superveniencia parece una gran idea: incluye la mente olvidada por el conductismo, salva la objeción de la teoría de la identidad hacia la Inteligencia Artificial, a la vez que no se lleva mal con la misma teoría de la identidad. Veamos eso más despacio:

a) El conductismo tenía un embarazoso problema con lo que llamamos estados intencionales o actitudes proposicionales (por ejemplo, las creencias o los deseos). Como prescindía de todo lo que no fuera conductual, no podía explicar el poder causal de una creencia. Por ejemplo, si yo creo que va a llover y por eso me pongo un chubasquero, una creencia causa mi conducta. Para el conductismo, como una conducta (respuesta) solo podía ser causada por otra conducta (estímulo) las creencias no podían causar nada, así que los conductistas no podían dar cuenta de algo tan sencillo y habitual como ponerse un chubasquero porque va a llover. El funcionalismo no tiene problemas con las creencias: una creencia es causa de un efecto, por lo tanto, es un estado mental.

b) El funcionalismo permite que los ingenieros de IA construyan máquinas con estados mentales. Siguiendo a Putnam, la orden que da un programa a un computador es un estado mental que puede ser idéntico al de un humano si cumple la misma función, a pesar de que el sistema físico que los genera es diferente (uno de silicio y otro de carbono). Es la gran virtud de la relación de superveniencia.

c) El funcionalismo permite cierta independencia a la psicología sobre la neurología. Como lo explica todo en términos funcionales, permite que no tengamos que hablar siempre en términos neuroquímicos. Por ejemplo, para explicar que la creencia de que llueva ha causado que me ponga un chubasquero, no es preciso que hable en términos de axones y dendritas. Puedo decir que la creencia causa mi conducta con funciones claramente adaptativas: si me mojo puedo ponerme enfermo y morir. Predecir el clima tiene una clara función adaptativa. Así, el funcionalismo se lleva fantásticamente bien con la psicología evolucionista, ya que ésta, igualmente, explica la mente en términos adaptativos, es decir, de funcionalidad biológica. Los funcionalistas permiten que la psicología pueda hablar en un lenguaje que no se reduce al fisicalista, lo cual es fantástico para los psicólogos, ya que no tienen que estar constantemente mirando por el microscopio y hablando de neuronas.

d) El funcionalismo es perfectamente compatible con la neurología. No tiene problema alguno en admitir que un estado mental es idéntico a un estado neuronal, sencillamente, puede hablar de él sin que la ciencia haya descubierto aún tal identidad. Podemos decir que la creencia en que va a llover causa que yo me ponga un chubasquero, aceptando que la creencia en que va llover es idéntica a un estado neuronal concreto y reconociendo que aún la neurología no ha descubierto tal estado neuronal. Incluso si la neurología descubriera cada correlato neural de todos nuestros estados mentales, el funcionalismo podría seguir hablando en términos funcionales sin contradicción alguna. Simplemente diría que mi creencia es un estado neuronal x que, igualmente, causa que yo me ponga mi chubasquero, lo cual tiene una función claramente adaptativa.

e) Incluso el funcionalismo no tiene ningún compromiso ontológico con el monismo materialista. Podríamos ser funcionalistas y dualistas. Un estado mental podría no ser algo material y tener, igualmente, poderes causales sobre mi conducta. Algunos dualistas que, por ejemplo, para explicar la mente se basan en la distinción informática entre hardware (base física) y software (programas), sosteniendo que mientras el hardware es material, el software no lo es, pueden ser perfectamente funcionalistas. Por el contrario, si un funcionalista quiere ser materialista, solo tiene que añadir otra condición a la tesis de que los estados mentales son funcionales, a saber, que toda relación causal es material, que una causa y un efecto siempre son dos entes materiales. ¡El funcionalismo vale para todos los gustos!

Comprobamos que el funcionalismo es una gran teoría debido a sus grandes ventajas. De aquí su éxito en la actualidad. Sin embargo, tiene dos serios problemas, a los que a día de hoy, nadie ha encontrado una solución satisfactoria:

1. El problema de la conciencia fenomenológica o de los qualia. El funcionalismo no puede explicar de ninguna manera el hecho de que tengamos sensaciones conscientes (sentience). Cuando me duelen las muelas y, debido a ello, me tomo un analgésico, siento conscientemente el dolor de muelas. Una computadora no siente ningún dolor cuando algo falla en su sistema, aunque lo detecte y tome medidas para repararlo. Una computadora, a pesar de que pudiese tener una conducta muy similar a la humana, no siente que hace lo que hace, no desea hacerlo, no se enfada ni se pone nerviosa cuando se equivoca… ¡Una máquina no es consciente de absolutamente nada! No poder dar cuenta de la distinción entre estados conscientes e inconscientes es un gravísimo problema del funcionalismo: ¿por que la selección natural ha gastado tantos recursos en hacer que sintamos cuando podría haber conseguido lo mismo generando organismos totalmente inconscientes? Es la objeción de los zombis de Chalmers ante la que el funcionalismo calla.

2. El problema semántico expuesto por John Searle.  Estamos ante el archiconocidísimo argumento de la caja china que no voy a entrar a explicar. La idea tiene como trasfondo el concepto de intencionalidad de Franz Brentano: los estados mentales tienen la cualidad de siempre referirse a algo que no son ellos mismos. Su contenido siempre es otra cosa diferente a ellos, siempre apuntan a otra cosa. En este sentido, los estados mentales son simbólicos. Si analizamos el funcionamiento de un ordenador, la máquina trata todo con lo que trabaja como objetos físicos y no como símbolos. Un computador que traduce del español al chino, no entiende realmente ninguno de los dos idiomas. Trata las palabras como objetos físicos que intercambia siguiendo unas pautas sin entender nada de lo que está haciendo. La conclusión de Searle es que las máquinas no tienen semántica sino tan solo sintaxis. Es un argumento bastante fuerte y aunque se han hecho muchos intentos de refutarlo, ninguno lo ha conseguido del todo.

FranzBrentano

No he conocido ninguna teoría que, ya desde su comienzo, no haya tenido serios problemas. El funcionalismo no es diferente, pero debe resultarnos chocante que el sustrato filosófico que hay debajo de la psicología actual más comúnmente aceptada por la comunidad científica sea deficiente. A mí no deja de resultarme difícil de digerir como conocidos científicos cometen errores garrafales por no tener ni idea de lo que están hablando cuando hablan de la mente. Entre otros, me refiero al popular Ray Kurzweil, el cual ignora completamente la filosofía de la mente a la vez que habla constantemente de temas por ella tratados (y además, tiene el atrevimiento de decir que muy pronto vamos a construir una mente indistinguible de la humana). Nos quedan dos alternativas: o lo abandonamos completamente y pensamos algo radicalmente nuevo (o volvemos a otras posturas más viejas), o intentamos arreglar los desperfectos. Hay algunos intentos: por un lado está el interesante materialismo anómalo de Donald Davidson o, el mismo David Chalmers de los zombis, quien intenta una especie de compatibilismo entre los qualia y el funcionalismo. Hablaremos de ellos otro día.

Brentano tuvo una ingeniosa idea para clarificar la compleja diferenciación entre objetos físicos y objetos mentales, a la que llamó intencionalidad. Que un objeto sea intencional quiere decir que una de sus características es la de referir o apuntar a algo. Cuando yo pienso que «Brentano inventó una teoría», mi pensamiento tiene la característica de ser intencional, a saber, de referirse a algo, concretamente a la circunstancia de Brentano inventando una teoría. Por el contrario, los objetos físicos no refieren a nada, son directamente ellos mismos sin necesitar referir a nada para existir. La piedra es, sin más, no apunta a nada.

Sin embargo, la cosa no es tan sencilla y lo que, a priori, parece una definición clarificadora quizá acaba, a posteriori, por oscurecerlo todo. En primer lugar, ¿todos mis estados mentales apuntan a algo? Es que en mi mente no sólo hay «pensamientos sobre algo» sino también, por ejemplo, emociones. Cuando yo sufro dolor, parece que el sufrimiento no refiere a nada fuera de él, tiene tanta entidad como cualquier objeto físico. Es muy probable que en mi mente haya muchas cosas que no son puramente intencionales (sensaciones, sentimientos, automatismos, etc.), por lo que la distinción de Brentano no es suficiente. Pero es que si nos vamos al mundo físico o, como mínimo, extramental, también encontramos objetos no humanos cuya naturaleza es probablemente intencional. Es el caso de los libros: cualquier texto apunta hacia algo pues la naturaleza de la escritura, al ser simbólica, suele referirse a cosas que no son ella misma… ¿tendría mi libro estados mentales?

No, qué disparate, podríamos decir. El libro no es consciente, necesita un lector para «activar su intencionalidad». Sí pero, ¿y si existieran pensamientos inconscientes? Si fuera así, la consciencia no sería requisito para ser estado mental. ¿Qué diferenciaría entonces mis estados mentales de los del libro? No, de nuevo, el libro no tiene pensamientos, ni conscientes ni inconscientes… ¿pero no habíamos dicho que lo que definía al pensamiento era la intencionalidad? El libro es intencional… ¿piensa o no?