Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte «inmaterial» de la máquina. Lo demás, lo físico, era cosa de electricistas.
En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?
Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos «estúpidos» pueden emerger conductas muy sofisticadas e inteligentes.
Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?
Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).
Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.
Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.
Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.
Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.
Adjunto el famoso paper de Brooks (muy criticado en su momento):
Estimado, esos pequeños homúnculos no son más que las propias neuronas, las cuales se activan independientemente, según sean las señales sensoriales, generando sensaciones y respuestas conductuales.
«la embodied cognition, un enfoque casi opuesto a la independencia de substrato»
Parecen conceptos opuestos. Sin embargo son complementarios.