Posts etiquetados ‘Jerry Fodor’

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

“Si llegas después de las siete estarás llegando tarde”

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

“Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

 

Aunque Descartes, y tantos otros antes que él, definiera la mente por su inextensión, es decir, por no ocupar lugar alguno en el espacio, por ser inmaterial, o si se prefiere, espiritual, todo el mundo con dos dedos de frente, ubica la mente “dentro” del cerebro. Sin saber muy bien qué tipo de entidad ontológica es, sin poder siquiera definirla con precisión, todo el mundo cree que se piensa con la cabeza. Nadie acepta de buen grado que le digas que su mente no está en ningún sitio, o que su último pensamiento está ubicado a 1.000 kilómetros de su cerebro.

Es más, dado el materialismo monista imperante en las ciencias de la mente, gran parte de la gente algo letrada en el tema apuesta por la teoría de la identidad: mi mente es equivalente a una serie de procesos físico-químico-biológicos que, en cuanto a tales, ocurren en una precisa ubicación espacial: mi tejido cerebral. Mi mente se forma, de alguna manera todavía no aclarada, entre esa increíblemente densa enredadera de neuronas que pueblan mi encéfalo.

Así que, solo por llevar la contraria y violentar un poco las mentes de mis brillantes lectores, vamos a ver una teoría clásica en filosofía de la mente  que pretende romper este “chauvinismo cerebral” de creer que los sucesos mentales solo ocurren “dentro” del cerebro: es la teoría de la mente extendida. Quizá la primera en plantearla fue la filósofa norteamericana Susan Hurley en su obra Conscioussness in Action de 1998, pero el texto clásico es el artículo de Andy Clark y David Chalmers The Extended Mind  del mismo año, y entró de lleno en el debate cuando Clark publicó el libro Supersizing the mind en 2008.

La teoría de la mente extendida es una consecuencia lógica del funcionalismo imperante en las ciencias cognitivas (ya lo describimos y lo criticamos aquí). El funcionalismo dice que los estados mentales son estados funcionales que conectan causalmente estímulos con respuestas (o estados funcionales con otros estados funcionales). En este sentido si yo quiero realizar una operación matemática y me valgo para ello de una calculadora de bolsillo, entre el input (por ejemplo, la visualización de los dos factores que voy a multiplicar) y el output (obtener el resultado), transcurren multitud de estados funcionales, unos “dentro” del cerebro y otros “fuera”. “Dentro”, por ejemplo, está mi miente ordenando a mis dedos qué teclas de la calculadora pulsar, y “fuera” estaría el microprocesador de la calculadora procesando los datos y mostrando en pantalla el resultado.

Si definimos los estados mentales por su función, es decir, por ser elementos causales en la cadena entre el estímulo y la respuesta, tanto mis pensamientos sobre que teclas pulsar como el funcionamiento del microprocesador de la calculadora, son eslabones causales de la cadena, ¿por qué decir  que solo los estados causales que están “dentro” de mi cabeza son estados realmente mentales, mientras que los que están “fuera” ya no lo serían? Supongamos que nos sometemos a los designios de Elon Musk y de su empresa Neuralink, y nos insertamos la calculadora en el cerebro, conectando sus circuitos a nuestros axones y dendritas neuronales. Entonces, si hiciésemos un cálculo ayudados por la calculadora, todo ocurriría “dentro” de nuestro cerebro ¿Ahora sí aceptamos lo que hace la calculadora como parte de nuestra mente y antes no? ¿Los criterios para distinguir lo mental son, únicamente, algo tan pobre como “dentro” y “fuera”?

Extendamos entonces la mente a lo bestia. Cuando usamos Google para buscar información, devolviéndonos Google la respuesta que buscábamos, nuestro proceso de causas y efectos funcionales ha viajado desde nuestra mente hasta diferentes servidores a lo largo del mundo, incluso ha podido ir al espacio y rebotar en antenas de satélites, hasta volver a nosotros… ¡Nuestros estados mentales se han extendido hasta el infinito y más allá! Seríamos, por utilizar terminología más guay, cíborgs cognitivos o mind cyborgs…

Según Clark, nuestra vida mental es un continuo negociar y re-negociar los límites de la mente con los diferentes dispositivos cognitivos que tenemos a nuestro alcance. Extendemos y reducimos la mente a cada momento: cada vez que encendemos la tele,miramos un reloj, nuestro móvil.. Lo interesante es que podríamos utilizar esta extensión para medir el potencial cognitivo de un individuo o sociedad: desde lo mínimo, un neanderthal escribiendo en la arena con un palo, hasta las actuales megalópolis de millones de individuos  hiperconectados entre ellos y con el resto del mundo, teniendo acceso a una incontable cantidad de información. Los hitos fundamentales en una historia de la humanidad concebida desde su capacidad de extensión mental serían la aparición del lenguaje, primero hablado y luego escrito (la extensión de la memoria), el desarrollo del cálculo y de sus herramientas que concluirían con la llegada del computador y, el estadio en el que nos encontramos: internet y su casi ilimitado acceso a todo tipo de datos.

Problemas: si la teoría de la mente extendida puede estar bien para medir la potencia cognitiva de un sistema, habría que entenderla únicamente como una etiqueta pragmática, como una forma de hablar útil en determinados contextos, ya tiene exactamente los mismos problemas del funcionalismo (como hemos dicho, no es más que una consecuencia lógica de éste): no explica la consciencia fenomenológica y no superaría la crítica de la caja china de Searle. Autores como Jerry Fodor, desde una perspectiva cerebrocéntrica o, Robert Rupert, desde todo lo contrario, han sido bastante críticos con ella. Y es que pasa lo de siempre: la explicación funcionalista de los estados mentales es muy incompleta y, llevada a su extremo, llega a ser confusa.

Ejemplo: de nuevo voy a realizar un cálculo extendiendo mi mente hacia una calculadora. Sin embargo, me doy cuenta de que no tiene pilas, así que bajo a la tienda de abajo de mi casa a comprar unas. Desafortunadamente no les quedan ¡Los vendedores de pilas están de huelga! Así, recorro decenas de tiendas pero en ninguna tienen nada. Viajo por toda España en busca de las pilas malditas, hasta que en un pequeño pueblecito perdido en los Pirineos, encuentro una tienda donde, al fin, las consigo. Después de tres meses de búsqueda vuelvo a mi casa, y puedo usar la calculadora para terminar mi cálculo… ¿Todo este tedioso proceso de búsqueda geográfica de tiendas de pilas formaría parte de un proceso cognitivo? ¿Lo englobaríamos dentro de un proceso mental? Echar gasolina al coche, conducir, preguntar a transeúntes, usar el GPS… ¿todos son estados mentales? ¿Dónde queda el límite entre lo que es y lo que no es un estado mental si cualquier cosa es susceptible de participar en un proceso causal?

Aceptando la controvertida tesis de que nuestro cerebro es un computador y que, como tal, manipula información según una serie determinada de reglas, habríamos de suponer que dichas reglas están “escritas” en un determinado código. Al igual que nuestros programas informáticos están escritos en Java o en C, debería haber un lenguaje en el cual esté programado nuestro cerebro: es lo que Fodor o Pylyshyn llaman mentalés. Es un lenguaje privado, previo a los lenguajes públicos (inglés, castellano…) y, naturalmente, no está escrito en ningún lado, sólo está codificado del mismo modo que, en nuestras computadoras, el lenguaje máquina está codificado magnéticamente en la memoria. Cuando nosotros aprendemos cualquier lengua, sus oraciones son traducidas al mentalés al ser aprendidas (al igual que nuestros compiladores traducen nuestras instrucciones al lenguaje máquina). Curiosamente, Fodor afirma que nuestras representaciones mentales no son más que cadenas de símbolos escritas en mentalés. Para cualquier psicólogo cognitivo de corte mentalista, parecería normal aceptar la existencia de representaciones mentales de naturaleza semántica (con significado). Sin embargo, parece más difícil pensar que estas representaciones tienen sintaxis (tienen partes que pueden combinarse entre sí consiguiendo nuevos significados), es decir, son un lenguaje. Y esa es la controvertida tesis de Fodor.  La representación mental cobra un sentido mecánico al ser causada mediante la combinación estructurada de sus componentes. Y si algo funciona mecánicamente, la ciencia puede estudiarlo con suma facilidad. Ya está, según esta perspectiva tenemos las bases para una auténtica ciencia de la mente. Además, para poner las cosas aún más fáciles, el mentalés sería el propio modelo matemático de la mente… ¡El modelo y el objeto a descubrir son lo mismo! Nuestro instrumento de descubrimiento, la simulación informática mediante programas, y el lenguaje de la mente, un lenguaje informático, coincidirían. ¿Puede haber un programa de investigación que ponga las cosas más a tiro?

El descubrimiento de este lenguaje supondría además el descubrimiento del lenguaje más humano, nuestro lenguaje máquina. En este sentido, a la hora de elegir qué lenguaje quisiéramos que hablaran nuestros hijos, el mentalés sería el lenguaje más natural pues, ¿qué habría más familiar a tu mente que aprender su propio lenguaje más que otros productos artificiales como el inglés o el chino? Sin embargo, quizá pasaría como con los lenguajes de programación de alto y bajo nivel. El mentalés sería de bajo nivel, por lo que seguramente sería complejo, lento, trabajoso, poco práctico, no apto para la comunicación. Quizá el inglés o el chino, al ser de alto nivel, son más simples y manejables. Quizá por eso la selección natural hizo que no habláramos mentalés, sino subproductos evolutivos mucho más útiles.

Las dos posturas ontológicas que tradicionalmente han dominado la historia de la filosofía han sido, primero, el dualismo de propiedades (anteriormente conocido como dualismo platónico o cartesiano) y, luego, el materialismo, siendo esta última la que domina en los ambientes intelectuales de corte cientificista de la actualidad.

El dualismo, en la medida en que sostiene la total independencia e incomunicación entre la mente y el cuerpo, es una teoría absurda. Aunque no sepamos cómo nuestro cerebro genera estados mentales, ni sepamos qué relación hay entre uno y otros,  tenemos claro que existe una estrecha relación. Creo que no hace falta ni mencionar, por obvio, lo que ocurre con nuestros estados mentales cuando bebemos mucho alcohol o cuando nos anestesian.

Y con respecto al materialismo ya sabéis mi postura : creo que no sabemos lo suficientemente bien qué es la materia para enarbolar la proposición “Todo lo que existe es x, siendo x materia” , como subrayaba la crítica de Moulines al materialismo y que discutimos largamente en este blog. Además, el materialismo siempre ha tenido, y tendrá, el problema de la conciencia como bestia negra: ¿Cómo explicar la existencia de estados mentales que no son claramente definibles en términos materiales? Las estrategias pasan por negar la existencia de tales estados, bien directamente (Ryle, Dennett o Patricia Churchland), bien reduciéndolos a estados funcionales (Fodor y, al principio, Putnam) o, directamente, hacerlos idénticos a los estados neuronales (Smart); o de modo casi embarazoso, evitando hablar de ellos (el conductismo en general). Desgraciadamente para todos ellos, los estados mentales se resisten a ser reducidos y ninguna de las propuestas parece satisfactoria. ¿Qué hacer entonces? ¿Es que cabe otra alternativa a ser materialista o dualista? Pienso que sí.

Una de las aportaciones más famosas de Wittgenstein en sus Investigaciones Filosóficas es el concepto de “parecidos de familia”.  Wittgenstein intenta definir qué es el lenguaje, pero se encuentra con una pluralidad de lenguajes diferentes (los que llamará juegos de lenguaje) a los que no encuentra una característica en común tal que nos sirva para la definición:

66. Considera, por ejemplo, los procesos que llamamos “juegos”. Me refiero a los juegos de tablero, juegos de cartas, juegos de pelota, juegos de lucha, etc. ¿Qué hay de común a todos ellos? – No digas: “Tiene que haber algo común a ellos o no los llamaríamos juegos” – sino mira si hay algo común a todos ellos. – Pues si los miras no verás por cierto algo que sea común a todos, sino que verás semejanzas, parentescos y, por cierto, toda una serie de ellos. Como se ha dicho: ¡no pienses, sino mira! Mira, por ejemplo, los juegos de tablero con sus variados parentescos. Pasa ahora a los juegos de cartas: aquí encuentras muchas correspondencias con la primera clase, pero desaparecen muchos rasgos comunes y se presentan otros. Si ahora pasamos a los juegos de pelota, continúan manteniéndose carias cosas comunes pero muchas se pierden – ¿Son todos ellos entretenidos? Compara el ajedrez con las tres en raya. ¿O hay siempre un ganar o perder, o una competición entre los jugadores? Piensa en los solitarios. En los juegos de pelota hay ganar y perder; pero cuando un niño lanza la pelota a la pared y la recoge de nuevo, ese rasgo ha desaparecido. Mira qué papel juegan la habilidad y la suerte. Y cuán distinta es la habilidad en el ajedrez y la habilidad en el tenis. Piensa ahora en los juegos de corro: Aquí hay el elemento del entretenimiento, ¡pero cuántos de los otros rasgos característicos han desaparecido! Y podemos recorrer así los muchos otros grupos de juegos. Podemos ver cómo los parecidos surgen y desaparecen.

Y el resultado de este examen reza así: Vemos una complicada red de parecidos que se superponen y entrecruzan. Parecidos a gran escala y de detalle.

Cuando observamos la realidad, contemplamos una ingente cantidad de clases de “cosas” entre las que solamente encontramos parecidos, sin conseguir vislumbrar nada que todas ellas tengan en común de tal modo que podamos decir que en la realidad únicamente hay x (tal como erróneamente hace el materialismo) pues, ¿qué tendrían en común un átomo, un dolor de muelas, un teorema matemático, la velocidad, los tipos de interés, la batalla de San Quintín y la digestión? Algunas similitudes, parentescos… parecidos de familia:

67. No puedo caracterizar mejor esos parecidos que con la expresión “parecidos de familia”; pues es así como se superponen y entrecruzan los diversos parecidos que se dan entre los miembros de una familia: estatura, facciones, color de los ojos, andares, temperamento, etc., etc. – Y diré: los ‘juegos’ componen una familia.

¿A qué postura nos llevaría aplicar la teoría de parecidos de familia de Wittgenstein a la ontología? A un pluralismo ontológico (n-ismo de propiedades si se quiere): existe un sólo mundo (no necesitamos un mundo platónico dónde existen los teoremas matemáticos ni otro mundo para los estados mentales como pasa con Popper o Penrose) pero en él hay muchas propiedades diferentes tal que no podemos definir cuál sería la característica común a todas ellas. Como dice Searle:

Hay montones de propiedades en el mundo: electromagnéticas, económicas, geológicas, históricas, matemáticas, por decir algunas. De manera que si mi posición es un dualismo de propiedades, en realidad debería llamarse pluralismo de propiedades, n-ismo de propiedades, dejando abierto el valor de n. La distinción verdaderamente importante no es la que puede darse entre lo mental y lo físico, entre la mente y el cuerpo, sino la que puede darse entre aquellos rasgos del mundo que existen independientemente de los observadores – rasgos como la fuerza, la masa y la atracción gravitatoria – y aquellos rasgos que son dependientes de los observadores – como el dinero, la propiedad, el matrimonio y el gobierno -. El caso es que, aunque todas las propiedades dependientes del observador dependen de la conciencia para su existencia, la conciencia misma no es relativa al observador. La conciencia es un rasgo real e intrínseco de ciertos sistemas biológicos como el suyo y el mío”.

John Searle, El misterio de la conciencia.

La mente, a pesar del materialismo, permanece irreductible a lo material. Sin embargo, no por ello hay que aceptar el dualismo. ¡Acepta el n-ismo de propiedades!