Posts etiquetados ‘Herbert Simon’

Es cierto que su “Alchemy and Artificial Intelligence” para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado.

Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban.  Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron.

El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más.

Vamos a hacer un somero resumen de sus planteamientos. Su crítica pueden dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades esenciales al ser humano que la IA nunca será capaz de reproducir.

Presupuestos discutibles de la IA:

  1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off  de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de ésto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestro modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro.
  2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente.  La mente está, según Dreyfus, muy lejos de ser igual a un ordenador.
  3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones?
  4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico.  Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica.

Aspectos del ser humano que la IA no puede, ni podrá nunca, simular:

  1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition.
  2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien ésto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su critica desde una perspectiva completamente opuesta a la visión materalista-naturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental.
  3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña).

Hubert Dreyfus falleció el pasado 22 de abril. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.

Imagen_2

Sigo leyendo y leyendo y por todos lados no hago más que encontrar un entusiasmo desbocado hacia las promesas de la Inteligencia Artificial.  Muchísimos investigadores siguen asumiendo acríticamente las tesis de la IA fuerte, a saber, la posibilidad de crear en un plazo muy corto de tiempo una mente mecánica, en principio idéntica, pero inmediatamente después superior a la humana. A esta idea la acompañan felizmente ocurrencias como la del mind uploading (poder descargar nuestra mente en una memoria electrónica), la de que vivimos en una simulación informática del tipo Matrix,  o la grave preocupación acerca de qué harán con la humanidad estos emergentes seres superiores cuando lleguen: ¿nos exterminarán al vernos como una amenaza o nos dejarán como mascotas? Si uno estudia detenidamente los logros reales de la ingeniería computacional de los últimos años comprueba con mucha facilidad que tal entusiasmo o temor son absolutamente infundados. No quiero ser el clásico pensador conservador vilipendiado por la historia que niega grandes avances de la ciencia. Nada más lejos de mi intención pasar por un Belarmino o un Wilberforce, pero considero que es mi deber intelectual sacar la falsedad a la luz. Que conste que a nadie le gustaría más que a mí que tales promesas fueran ciertas y posibles: he fantaseado miles de veces con hablar de metafísica mientras juego al ajedrez con HAL 9000.

Vamos a exponer en siete puntos las críticas que se pueden plantear a estas fantasiosas ideas:

1. Se hace demasiado hincapié en el rápido aumento de la capacidad de computación. Constantemente leemos noticias en las que se nos presenta un nuevo transistor del tamaño de una millonésima de millonésima de algo, capaz de realizar tropecientos millones de millones de operaciones por milisegundo. Estos avances están muy bien y, seguramente, son condiciones de posibilidad para crear una mente electrónica que iguale la capacidad de computo de la mente humana, pero con ellos se olvida que mucho más importante que poder calcular cantidades infinitas es saber qué pretendemos calcular con ello. Vale, tenemos un supercomputador impresionante pero, ¿qué hacemos con él?. ¿Cómo emulamos el hecho de que yo recuerde con nostalgia a mi abuela con millones de cómputos por milisegundo? Esta es la cuestión, y para ella no hay todavía respuesta alguna.

2. Estamos lejísimos de comprender el funcionamiento biológico del cerebro. Vamos sabiendo cada vez más cosas de la química neuronal pero todavía estamos a años luz de saber bien cómo funciona. Lo he dicho en muchas ocasiones: tenemos más de cien mil millones de neuronas altamente interconectadas que se comunican entre sí por impulsos eléctricos y químicos. Pues bien, si solo somos eso, no somos lo suficiente. Si solo somos flujo de información, no somos nada. La información sirve para hacer cosas, para activar procesos. Seguramente que necesito información que viaje por mis neuronas para crear la imagen de un tigre en mi mente, pero, aparte de esa información, necesito procesos físico-químicos que generen el miedo que siento ante la visión del tigre, y eso no es solo información, es un hecho físico. Y no tenemos ni la más remota idea de cómo un conjunto de redes neuronales genera un sentimiento, ni la más remota: ¿por qué entonces este entusiasmo en que vamos a conseguir copiar la mente en unos pocos años?

3. Una computadora o, un sistema universal de símbolos en términos de Herbert Simon, es únicamente eso: un sistema que transforma unos símbolos en otros según unas determinadas reglas. ¿Por qué presuponemos que un sistema que transforma símbolos va a ser capaz de realizar ciertos procesos físico-químicos como pueden ser los sentimientos? Yo puedo hacer un programa de ordenador que simule bastante bien el funcionamiento de las glándulas mamarias de una vaca, pero, ¿me dará ese ordenador leche? No, porque la tesis de la independencia de sustrato que muchos ingenieros sostienen ingenuamente no es plenamente cierta. Es posible que podamos construir una máquina de Turing en una cantidad muy amplia de sustratos físicos, pero es que una máquina de Turing solo puede calcular, no dar leche. O dicho de otro modo más claro: a lo mejor, es posible que algún tipo de neurotransmisor o de sustancia química del cerebro tenga una gran relación con los estados mentales. Por ejemplo, es posible que la dopamina, la adrenalina o el glutamato tengan que ver con lo que siento o pienso cuando siento o pienso. Estos compuestos tienen unas propiedades químicas únicas que es posible que sean imposibles de emular a no ser por otros compuestos muy similares. ¿Qué razones hay para pensar que un transistor de silicio puede hacer lo mismo que una molécula de serotonina? Seguramente que el pensamiento humano dependa mucho de las propiedades químicas de los componentes del cerebro, propiedades éstas de las que carecen por completo los componentes electrónicos de un ordenador. La independencia de sustrato podrá cumplirse para realizar todo tipo de cálculos, pero no para generar propiedades físicas. Para hacer fuego, necesito madera o algún elemento combustible; para hacer una mente, necesito algo que se parezca físicamente mucho a un cerebro.

4. Clarifiquemos en el siguiente esquema la confusión habitual:

ConfusiónIA

Los ingenieros de IA tienden a confundir el funcionamiento de un ordenador con los resultados físicos del funcionamiento del cerebro. Suelen afirmar que cuando un ordenador computa (manipula símbolos) está pensando, cuando no hay razón alguna para considerarlo así. Es posible que el cerebro humano realice computaciones, pero eso no es tener un estado mental. Los estados mentales son, en cualquier caso, los resultados de las computaciones, no las computaciones mismas. De nuevo, si yo veo un tigre, es probable que mi cerebro haga computaciones que fluyan a través de los axones de mis neuronas, pero el miedo (el estado mental) y la acción de salir huyendo (mi conducta) no son computaciones, son sucesos físicos (sentir miedo un proceso, fundamentalmente, químico y huir, fundamentalmente, un proceso mecánico). Hay que tener en cuenta que las computaciones de mi cerebro suceden a nivel inconsciente, mientras que mis estados mentales son conscientes. Cuando yo hablo no pienso a nivel consiente que detrás del sujeto va el predicado o que antes de un sustantivo he de poner un artículo. Eso lo hace mi cerebro por mí y mi mente consciente solo tiene acceso al resultado. Precisamente, el resultado es lo que solemos entender por mente.

5. Una vía de investigación algo más interesante es lo que se ha llamado programa conexionista y del que Pentti Haikonen es hoy uno de sus más célebres representantes. El plan es que en vez de intentar diseñar un maravilloso software capaz pensar, sentir y ser consciente de sí, mejor empezar por debajo: intentemos emular mecánicamente los elementos físicos del sistema nervioso, comenzando por los más simples, y sigamos avanzando hacia arriba a ver lo que pasa. Creo que es el camino correcto, pero dados los frutos que ha conseguido hoy en día, que son notables pero que van despacito, no es justificado ningún tipo de optimismo acerca tener a HAL 9000 en las próximas décadas.

6. La humanidad ha tendido históricamente a comparar al ser humano con el último avance tecnológico del momento. Se ha pensado que el cerebro era un sistema hidráulico o una centralita telefónica, y ahora pensamos que el cerebro es un ordenador cuando, insistimos, no hay evidencia disponible para sustentar tal afirmación de un modo completo. Yo pienso que el cerebro tiene componentes cuyo funcionamiento es similar al de un computador, pero nos falta mucho para que la metáfora sea perfecta. Quizá, en un futuro, sea posible fabricar computadores que se asemejen más, pero los actuales no son, ni de lejos, similares a la mente.

7. A la Inteligencia Artificial le ha ido mucho mejor cuando ha avanzado sin tener en mente el objetivo de simular al ser humano, que cuando lo ha tenido. El ordenador personal que utilizo para escribir ahora mismo es un instrumento maravilloso. Me sirve para reproducir música, vídeo, hacer operaciones matemáticas complejas, editar fotografías, etc. Que yo sepa, ningún humano tiene esas cualidades y, sin embargo, son fabulosas. Mi ordenador se fabricó sin la intención de ser un humano y así funciona maravillosamente bien. Quizá la Inteligencia Artificial deba seguir su camino sin la obsesión de emular al humano. Es más, quizá así será cuando consiga cosas incluso mucho mejores que un sapiens.

bahamas_2836_600x450

Dice Marvin Minsky que la mejor forma de comprender la mente es construyendo una. Estamos de acuerdo, así que vamos a ver uno de los intentos clásicos de hacerlo. En 1957, Simon, Shaw y Newell, diseñaron uno de los grandes hitos de la historia de la Inteligencia Artificial: el General Problem Solver. Era un programa creado para solucionar cualquier problema de tipo general, rompiendo con la preconcepción de que las máquinas solo podían resolver problemas muy específicos. Su estructura, muy simplificada, venía a ser la siguiente:

Sin título

El GPS funcionaba realizando una analogía entre su situación actual y el objetivo a cumplir, efectuaba un análisis de las diferencias entre ambos estados, utilizaba métodos para reducir las diferencias, y luego volvía a realizar la analogía inicial hasta que no existiesen diferencias entre el estado actual y el estado deseable. El diseño es muy interesante, sobre todo, por las similitudes que parece reflejar con respecto a la forma que tenemos los seres humanos de solucionar problemas, manteniendo, empero, una estructura muy simple:

1. Al realizar una comparación entre su situación y sus objetivos, tiene una cierta representación de sí mismo. Si quiero irme de viaje a las Bahamas, lo primero que tengo que saber es que YO no estoy en las Bahamas. Estaríamos todavía a años luz de la autoconsciencia, pero ya es un paso.

2. Para reducir las diferencias, el GPS podía suspender momentáneamente su objetivo principal para resolver sub-objetivos. Esto es una característica plenamente humana: suspender las urgencias del presente en pro de un objetivo futuro, es decir, planificar una acción en pasos. Si quiero irme a las Bahamas tengo que solucionar sub-problemas como pagar los billetes de avión, hacer las maletas, coger un taxi al aeropuerto, etc. Cuando queremos solucionar un gran problema, una buena forma de hacerlo es dividirlo en problemas más pequeños.

3. El GPS razonaba por analogía, quizá la forma humana más habitual de razonar. ¿Cómo sé que hay que hacer para viajar a las Bahamas? Porque antes he realizado otros viajes o porque he visto a otros hacerlos. Realizo analogías entre ese conocimiento previo y el problema al que me enfrento. Si yo viajé antes a Hawai, también hice las maletas y cogí un taxi al aeropuerto, pero a la hora de comprar los billetes de avión ahora tendré que comprarlos para Bahamas y no para Hawai y, probablemente, el precio será diferente. Hay similitudes que utilizaré sin problemas y diferencias que tendré que solucionar.

Sin embargo (ah, el siempre triste sin embargo), el GPS tenía el defecto que, hasta la fecha, no ha podido solucionarse (y del que ya hemos hablado en muchas entradas). Si realizar una analogía entre como estoy y lo que quiero hacer no parece presentar demasiados problemas, encontrar métodos de reducción de diferencias sí. Cuando nuestra máquina se encuentra en el aeropuerto y comprueba que “comprar un billete para Hawai” no le llevará a las Bahamas tiene que saber, de algún modo, que “en un aeropuerto pueden comprarse billetes a muchos sitios diferentes”. Si no sabe eso, es imposible que pueda solucionar tan simple problema. Y es que el GPS solo funcionaba en entornos muy formalizados, no en el mundo real. Estamos ante el enigma del sentido común: si el GPS podía resolver teoremas matemáticos de gran complejidad, no podría comprar un billete de avión.

Una forma de entender este dilema se ha formulado afirmando que cuando realizamos cualquier acción existe un montón de conocimiento implícito que excede el conocimiento de una simple descripción simbólica como la que maneja un computador. Douglas Lenat nos ofrece un magnífico ejemplo de ello: analicemos la frase “Fred le dijo al camarero que él quería patatas fritas a la inglesa”. ¿Qué tenemos que saber para entender esta afirmación?:

La palabra él se refiere a Fred, y no al camarero. Eso sucedía en un restaurante. Fred era un cliente que estaba cenando allí. Fred y el camarero se encontraban más o menos a un metro de distancia. El camarero trabajaba allí y en aquel momento estaba atendiendo a Fred.

Fred quiere patatas en rodajas finas, no en tiras. Fred no desea unas patatas determinadas, sino solo un tipo determinado de patatas.

Fred indica esto mediante las palabras habladas que dirige al camarero. Tanto Fred como el camarero son seres humanos. Ambos hablan el mismo idioma. Ambos tienen edad suficiente para poder expresarse, y el camarero tiene edad suficiente para trabajar.

Fred tiene hambre. Desea y espera que en unos minutos el camarero le traiga una ración normal, que Fred empezará a comer en cuanto le sirvan.

Asimismo podemos suponer que Fred supone que el camarero también supone todas esas cosas.

No hay más que decir: o el GPS sabe o puede deducir todo este conocimiento implícito, o jamás podrá resolver problemas que ocurran cuando tenga que pedir una ración de patatas en un restaurante. La solución que se dio fue la de crear sistemas expertos. Podríamos dotar al GPS de un montón de conocimiento sobre todos los pasos que hay que dar para realizar un viaje o comer en un restaurante. No obstante, al hacerlo, estamos incumpliendo nuestro propósito inicial, a saber, que nuestra máquina solucione cualquier tipo de problemas y no únicamente problemas específicos. Este es el asunto en el que la Inteligencia Artificial lleva estancada durante las últimas décadas y que no tiene demasiados visos de resolverse a corto plazo.

Véanse, en la misma línea:

Contexto o como no montar una orgía

Cero en conducta

El límite Winograd

El mismo Lenat lleva años intentando dotar a las máquinas de sentido común. En esta entrada hablé de su encomiable proyecto: la inteligencia son cien millones de reglas.