Posts etiquetados ‘Rodney Brooks’

Para un trabajo que realicé para la asignatura Bases Neurológicas de la Cognición del Máster en Ciencias Cognitivas que imparte la Universidad de Málaga, tuve que enumerar una serie de características que yo considerada imprescindibles para crear una máquina que imitara el funcionamiento del cerebro humano. Concedo que son principios muy generales, pero creo que no hay que perderlos de vista porque son, esencialmente, verdaderos, y uno se encuentra por ahí, más veces de lo que querría, con teorías de la mente que se alejan, muy mucho, de ellos.

  1. El cerebro es un kludge (klumsy: torpe, lame: poco convincente, ugly: feo, dumb: tonto, but good enough: pero bastante bueno) fruto de la evolución biológica. Tal como defiende el neurocientífico David Linden (Linden, 2006), si aplicamos los principios de funcionamiento de la selección natural, el diseño del cerebro dista mucho de ser una máquina perfecta fruto del trabajo racional de ingenieros, siendo más bien un cúmulo de chapuzas, de soluciones, muchas veces poco eficientes, que lo único que han pretendido es aumentar el fitness del organismo dado un ecosistema concreto. Teniendo en cuenta que los ecosistemas cambian debido, por ejemplo, a cambios en las condiciones climáticas o por aumentos o disminuciones en las poblaciones de competidores, lo que hoy podría ser una excelente adaptación, mañana puede ser una carga inútil. Es por eso que nuestro cerebro puede estar lleno de órganos rudimentarios (adaptaciones que perdieron su función pero que no fueron eliminados) y exaptaciones (antiguas adaptaciones que se están rediseñando en la actualidad para una nueva función), o de las famosas pechinas de Jay Gould y Richard Lewontin (elementos que solo obedecen a necesidades estructurales de auténticas adaptaciones). También hay que tener en cuenta que el cerebro no es una máquina acabada, sino que, al seguir siendo afectado por la selección natural, sigue construyéndose, siempre siendo un estado intermedio. El cerebro, al contrario que cualquier máquina diseñada por el hombre, tiene una larga historia biológica, lo cual, dicho sea de paso, dificulta mucho la labor de ingeniería inversa necesaria para su estudio.
  2. El cerebro como una máquina de movimiento. La gran diferencia entre el reino animal y el vegetal fue, originariamente, la capacidad de movimiento. Se da el hecho de que las plantas no tienen sistema nervioso y esto se explica, precisamente, por su quietud: si apenas te mueves no necesitas un complejo sistema que ligue tu percepción al control del movimiento. Por tanto, el sistema nervioso surge con la función biológica de coordinar la percepción con el sistema motor. Podemos entonces entender que muchas de las funciones cognitivas actuales son exaptaciones de funciones perceptivo-motoras. O dicho de otro modo: nuestro cerebro se construyó a partir de otro que únicamente servía para percibir y moverse, por lo que parece esencial, comprender bien cómo eso puede afectar al diseño del cerebro. Pensemos como sería construir un ordenador personal a partir de las piezas de un automóvil.
  3. El cerebro como máquina de visión. El órgano de los sentidos que mejor servía para moverse eficazmente en el mundo animal, ha sido la visión (con honrosas excepciones como la ecolocalización de los murciélagos). Y es por ello que los animales más evolucionados como los mamíferos superiores tienen los mejores sistemas visuales de toda la biosfera ¿Qué es lo que ve, lo que percibe nuestro cerebro? En este sentido es muy interesante la teoría de la interfaz (Hoffman, 1998 y 2015) del científico cognitivo Donald Hoffman ¿Percibimos la realidad tal cómo es? No. En primer lugar hay que tener en cuenta que el cerebro no es una máquina con infinitos recursos sino que tiende a optimizarlos para competir en situaciones de escasez. Percibir toda la realidad sería un enorme derroche cuando solo tiene que percibir necesario para aumentar sus posibilidades de supervivencia y reproducción: alimento, presas/depredadores y parejas sexuales. Todo lo demás, lo que es indiferente a los factores evolutivos no tiene por qué ser percibido. Y después, tampoco hace falta percibir lo que se percibe tal y como es, sino que nos bastaría con una etiqueta, con un símbolo que, sencillamente, identificara la función de lo percibido. Es por eso que Hoffman nos habla de nuestra percepción como una interfaz, como el típico escritorio de Windows lleno de iconos. Pensemos que cada icono es un símbolo que representa una función (Abrir el programa determinado), pero ese símbolo no tiene nada que ver (no se parece en nada a su función), pero es muy práctico y eficiente: un pequeño dibujito vale como etiqueta para indicarme que debo hacer clic en ella para ejecutar un programa (el cual puede ser tremendamente complejo en sí mismo). Por otro lado, el órgano de los sentidos que más información proporciona al ser humano, es con diferencia, la visión (el córtex visual ocupa casi un tercio del volumen del cerebro), por lo que a la hora de establecer cómo procesamos la información y cómo realizamos acciones cognitivas o conductuales, habría que tener muy en cuenta que, principalmente, trabajamos con información visual, por lo que habría que tener muy en cuenta sus propiedades y peculiaridades con respecto a otros tipos de información.
  4. La división entre rutinas y subrutinas. En su famosa obra The society of mind (1986), el informático Marvin Minsky nos describía el cerebro como un gran conjunto de pequeños módulos funcionales que realizan tareas relativamente sencillas pero que, trabajando coordinadamente, hacen emerger una conducta muy inteligente. Esto nos da dos ideas: en primer lugar nos sirve para establecer la distinción entre procesos conscientes y subconscientes. La tarea de esos sencillos módulos funcionales (que quizá podrían identificarse con clusters de redes neuronales) ocurriría a nivel inconsciente, siendo únicamente el resultado, lo que aparece a nivel consciente (o, si no, solo el trabajo de ciertos tipos de módulos encargados, precisamente, de los procesos conscientes). Y, en segundo lugar, da pie a todo el programa de investigación conexionista (en redes neuronales artificiales): buscar modelos matemáticos del funcionamiento del cerebro centrados en sus unidades básicas (la neurona) y en sus relaciones (las redes). Una neurona es una célula relativamente sencilla, pero millones de ellas funcionando en paralelo podrían dar lugar a comportamiento complejo. Como Rodney Brooks (Brooks, 1991) demostró en sus investigaciones en robótica, es posible hacer emerger comportamiento inteligente mediante un conjunto de dispositivos sin que exista ningún módulo de control que dirija la acción. Serían dispositivos automáticos que actúan siguiendo el patrón percepción-acción sin apenas procesamiento de la información. En este sentido la metáfora del funcionamiento de los programas informáticos actuales es perfecta: un programa llama constantemente a otros (llamados subrutinas) para que le den un valor, un resultado. El programa principal no sabe qué hacen ni cómo funcionan cada uno de estos subprogramas, pero le son útiles porque le dan el resultado que necesita para acometer una determinada tarea. Incluso puede ser el caso de que funcionen sin ningún tipo de comunicación con ningún centro de mando, sencillamente realizando una tarea de forma completamente autónoma.
  5. Conocer es actuar. Ha sido un gran error histórico (quizá el mayor error de la historia de la filosofía) entender el conocimiento desde la gnoseología platónico-aristotélica, es decir, entender que conocer consiste en volver a presentar (re-presentar) el mundo exterior a nosotros, abstrayendo una especie de esencia incluida en el objeto conocido y “colocándola dentro” de nuestro entendimiento. Esta concepción mixtifica, sobrenaturaliza la acción de conocer y, evidentemente, saca el estudio del conocimiento del ámbito científico. Conocer no es repetir el mundo exterior dentro de nuestro mundo interior, ya que eso nos llevaría a una cadena infinita de homúnculos. Conocer es un acto biológico con finalidades evolutivas que no tiene nada que ver con representar el mundo. Sería absurdo que nuestra percepción fuera como una cámara de fotos que solo intenta hacer una réplica lo más fidedigna posible de lo fotografiado porque ¿qué hacer luego con la foto? ¿Para qué queremos, solamente, una foto realista? La información obtenida mediante los sentidos es procesada, manipulada o transformada simbólicamente, para hacer cosas con ella, para intervenir en la realidad y no para describirla. Conocer es un proceso que tiene que entenderse exactamente igual que cualquier otro proceso biológico como la digestión o la acción del sistema inmunitario. Y, en un nivel inferior, el acto de conocimiento es una acción físico-química como cualquier otra. Cuando percibimos mediante la vista, el primer paso se da cuando fotones golpean las capas de discos membranosos de los fotorreceptores de nuestra retina, generando una cascada de disparos neuronales que forman patrones que posteriormente serán procesados por redes neuronales. En toda esta compleja red de procesos no se atrapa ninguna esencia ni se repite ni siquiera una supuesta estructura de la realidad, sino que se elabora un mapa funcional, se elabora todo un sistema para tomar decisiones de modo eficiente.
  6. Módulos cerebrales de reconocimiento de patrones (Kurzweil, 2013) Parece que lo que mejor saber hacer las últimas herramientas de la IA conexionista, las redes neuronales convolucionales, es encontrar patrones en entornos poco (o nada) formalizados, es decir, muy difusos. Así están venciendo uno de los grandes obstáculos de la IA: la visión artificial. Ya existen redes neuronales que distinguen rostros con suma fiabilidad, o que reconocen cualquier tipo de objeto que observan, estando ese objeto en diferentes posiciones, iluminado con diferentes intensidades de luz, incluso en movimiento. Esto sirve como fuerte indicio para apostar por una teoría computacional de la percepción y del conocimiento: si al utilizar redes neuronales artificiales conseguimos hacer máquinas que ven de una forma, aparentemente, muy similar a la nuestra, será porque nuestro cerebro también funciona así. Además, una de las teorías de la percepción más influyentes del siglo XX, la famosa Gestalt, ya afirmaba que la percepción no consistía en la suma de todos los estímulos visuales (como sostenía la escuela elementarista), sino en dar sentido, en comprender una estructura profunda de la imagen vista (en, según sus propios términos, obtener una gestalten). Ese sentido que otorga significado a lo observado bien puede entenderse como el reconocimiento de un patrón. Además, esta forma encaja perfectamente con la teoría de la interfaz de Hoffman: no percibimos todo ni lo real, sino una información (que será deseablemente la mínima) suficiente para responder adecuadamente.

Imagen del artista Pablo Castaño.

Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte «inmaterial» de la máquina. Lo demás, lo físico, era cosa de electricistas.

En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?

Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos «estúpidos» pueden emerger conductas muy sofisticadas e inteligentes.

Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).

Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.

Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.

Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.

Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

Adjunto el famoso paper de Brooks (muy criticado en su momento):

Intelligence without reason – Rodney Brooks

Si la vanguardia de la robótica es una cabeza de canguro que mira donde tú miras, estamos lejos, lejos de conseguir algo realmente sorprendente. ¿Alguien se cree que Kismet tiene realmente conducta emocional? ¿Alguien se cree que Kismet siente empatía con sus interlocutores? A lo sumo tenemos un más o menos competente imitador de los gestos que acompañan a las emociones sin sentir realmente emociones (en lo cual estamos igual que en el siglo IV a.C.). De aquí a la AI de Spielberg va un océano.

Léase Alabada sea su divinidad robótica.