Posts etiquetados ‘Marvin Minsky’

Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte “inmaterial” de la máquina. Lo demás, lo físico, era cosa de electricistas.

En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?

Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos “estúpidos” pueden emerger conductas muy sofisticadas e inteligentes.

Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).

Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.

Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.

Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.

Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

Adjunto el famoso paper de Brooks (muy criticado en su momento):

Intelligence without reason – Rodney Brooks

Anuncios

bahamas_2836_600x450

Dice Marvin Minsky que la mejor forma de comprender la mente es construyendo una. Estamos de acuerdo, así que vamos a ver uno de los intentos clásicos de hacerlo. En 1957, Simon, Shaw y Newell, diseñaron uno de los grandes hitos de la historia de la Inteligencia Artificial: el General Problem Solver. Era un programa creado para solucionar cualquier problema de tipo general, rompiendo con la preconcepción de que las máquinas solo podían resolver problemas muy específicos. Su estructura, muy simplificada, venía a ser la siguiente:

Sin título

El GPS funcionaba realizando una analogía entre su situación actual y el objetivo a cumplir, efectuaba un análisis de las diferencias entre ambos estados, utilizaba métodos para reducir las diferencias, y luego volvía a realizar la analogía inicial hasta que no existiesen diferencias entre el estado actual y el estado deseable. El diseño es muy interesante, sobre todo, por las similitudes que parece reflejar con respecto a la forma que tenemos los seres humanos de solucionar problemas, manteniendo, empero, una estructura muy simple:

1. Al realizar una comparación entre su situación y sus objetivos, tiene una cierta representación de sí mismo. Si quiero irme de viaje a las Bahamas, lo primero que tengo que saber es que YO no estoy en las Bahamas. Estaríamos todavía a años luz de la autoconsciencia, pero ya es un paso.

2. Para reducir las diferencias, el GPS podía suspender momentáneamente su objetivo principal para resolver sub-objetivos. Esto es una característica plenamente humana: suspender las urgencias del presente en pro de un objetivo futuro, es decir, planificar una acción en pasos. Si quiero irme a las Bahamas tengo que solucionar sub-problemas como pagar los billetes de avión, hacer las maletas, coger un taxi al aeropuerto, etc. Cuando queremos solucionar un gran problema, una buena forma de hacerlo es dividirlo en problemas más pequeños.

3. El GPS razonaba por analogía, quizá la forma humana más habitual de razonar. ¿Cómo sé que hay que hacer para viajar a las Bahamas? Porque antes he realizado otros viajes o porque he visto a otros hacerlos. Realizo analogías entre ese conocimiento previo y el problema al que me enfrento. Si yo viajé antes a Hawai, también hice las maletas y cogí un taxi al aeropuerto, pero a la hora de comprar los billetes de avión ahora tendré que comprarlos para Bahamas y no para Hawai y, probablemente, el precio será diferente. Hay similitudes que utilizaré sin problemas y diferencias que tendré que solucionar.

Sin embargo (ah, el siempre triste sin embargo), el GPS tenía el defecto que, hasta la fecha, no ha podido solucionarse (y del que ya hemos hablado en muchas entradas). Si realizar una analogía entre como estoy y lo que quiero hacer no parece presentar demasiados problemas, encontrar métodos de reducción de diferencias sí. Cuando nuestra máquina se encuentra en el aeropuerto y comprueba que “comprar un billete para Hawai” no le llevará a las Bahamas tiene que saber, de algún modo, que “en un aeropuerto pueden comprarse billetes a muchos sitios diferentes”. Si no sabe eso, es imposible que pueda solucionar tan simple problema. Y es que el GPS solo funcionaba en entornos muy formalizados, no en el mundo real. Estamos ante el enigma del sentido común: si el GPS podía resolver teoremas matemáticos de gran complejidad, no podría comprar un billete de avión.

Una forma de entender este dilema se ha formulado afirmando que cuando realizamos cualquier acción existe un montón de conocimiento implícito que excede el conocimiento de una simple descripción simbólica como la que maneja un computador. Douglas Lenat nos ofrece un magnífico ejemplo de ello: analicemos la frase “Fred le dijo al camarero que él quería patatas fritas a la inglesa”. ¿Qué tenemos que saber para entender esta afirmación?:

La palabra él se refiere a Fred, y no al camarero. Eso sucedía en un restaurante. Fred era un cliente que estaba cenando allí. Fred y el camarero se encontraban más o menos a un metro de distancia. El camarero trabajaba allí y en aquel momento estaba atendiendo a Fred.

Fred quiere patatas en rodajas finas, no en tiras. Fred no desea unas patatas determinadas, sino solo un tipo determinado de patatas.

Fred indica esto mediante las palabras habladas que dirige al camarero. Tanto Fred como el camarero son seres humanos. Ambos hablan el mismo idioma. Ambos tienen edad suficiente para poder expresarse, y el camarero tiene edad suficiente para trabajar.

Fred tiene hambre. Desea y espera que en unos minutos el camarero le traiga una ración normal, que Fred empezará a comer en cuanto le sirvan.

Asimismo podemos suponer que Fred supone que el camarero también supone todas esas cosas.

No hay más que decir: o el GPS sabe o puede deducir todo este conocimiento implícito, o jamás podrá resolver problemas que ocurran cuando tenga que pedir una ración de patatas en un restaurante. La solución que se dio fue la de crear sistemas expertos. Podríamos dotar al GPS de un montón de conocimiento sobre todos los pasos que hay que dar para realizar un viaje o comer en un restaurante. No obstante, al hacerlo, estamos incumpliendo nuestro propósito inicial, a saber, que nuestra máquina solucione cualquier tipo de problemas y no únicamente problemas específicos. Este es el asunto en el que la Inteligencia Artificial lleva estancada durante las últimas décadas y que no tiene demasiados visos de resolverse a corto plazo.

Véanse, en la misma línea:

Contexto o como no montar una orgía

Cero en conducta

El límite Winograd

El mismo Lenat lleva años intentando dotar a las máquinas de sentido común. En esta entrada hablé de su encomiable proyecto: la inteligencia son cien millones de reglas.

Sufrimiento

Publicado: 16 junio 2013 en Evolución, Filosofía de la mente
Etiquetas:, ,

¿Por qué sufrimos tanto? Si pensamos en que en la actualidad, en Occidente, durante la inmensa mayoría de nuestro tiempo no hay guerreros de la tribu vecina que quieran matarnos, no hay lobos ni osos cavernarios al acecho, no nos falta la comida ni el agua, es decir, nuestras necesidades de supervivencia están más que garantizadas… ¿por qué la selección natural nos diseñó de tal modo que sufrimos constantemente por problemas y amenazas que nunca son tan graves para amenazar nuestra vida? ¿Por qué me preocupo tanto por una discusión con un amigo, un desencuentro amoroso, un mal día en el trabajo? ¿Por qué, además, esas preocupaciones aparentemente superfluas pueden ocasionarme conductas tan disfuncionales evolutivamente hablando como pueden ser la depresión o el mismo suicidio? Es absurdo: un sujeto termina depresivo debido a un conjunto de circunstancias vitales que nunca eran tan graves para amenazar su vida ni sus posibilidades de éxito reproductivo. La depresión sí que acaba por causarle comportamientos que, a la postre, pueden amenazar su vida y sus posibilidades reproductivas. ¿Acaso hay algo más contraevolutivo?

Una de las mejores respuestas que he leído es esta:

Quizá una respuesta sea que los malos efectos del dolor crónico no evolucionaron en absoluto a través de la selección, sino que surgieron simplemente de un “bicho que apareció en la programación”. Las cascadas a las que llamamos “sufrimiento” deben de haber evolucionado a partir de esquemas anteriores que nos ayudaban a limitar nuestras lesiones, planteando el objetivo de huir del dolor con una prioridad extremadamente alta. La consiguiente alteración de otros pensamientos fue solo un pequeño inconveniente hasta que nuestros antepasados desarrollaron unos intelectos nuevos y más amplios. Dicho de otro modo, nuestras antiguas reacciones a dolores crónicos no han sido todavía adaptadas para ser compatibles con los pensamientos reflexivos y los planes clarividentes que más tarde evolucionaron en nuestra inteligencia. La evolución nunca tuvo la menor idea de cómo podrían evolucionar las especies en un futuro, por lo que no previó cómo podría el dolor alterar nuestras futuras capacidades de alto nivel. Por todo esto, llegamos a desarrollar un diseño que protege nuestros cuerpos, pero arruina nuestras mentes.

Marvin Minsky, La máquina de las emociones

Minsky nos explica muy bien este mal acoplamiento entre el cerebro animal o reptiliano y el cerebro racional como causante del sufrimiento evolutivamente injustificado. Sin embargo, no explica el por qué del mismo sufrimiento. ¿Por qué existe el dolor? Los seres humanos podríamos haber sido diseñados como los automóviles que viene equipados con un sensor sonoro de proximidad. Cuando se acerca el peligro, simplemente pitan, no sufren. Nosotros podríamos ser así. Si he tomado un veneno, en vez de sufrir un terrible dolor de tripa, podría tener un indicador que dijera a mi cerebro que algo va mal en el estómago sin dolor ni sufrimiento alguno. En definitiva, estamos en lo de siempre: ¿por qué los qualia? Minsky promete dar una buena explicación a este problema en el capítulo 9 de su muy recomendable libro. Ya os contaré.

Marvin Minsky en Máquinas inteligentes:

En particular, todos compartimos la noción de que dentro de cada persona se esconde otra persona, que llamamos el “yo”, y que piensa y siente por nosotros: toma nuestras decisiones y hace planes que después aprueba o rechaza. Esto se parece mucho a lo que Daniel Dennett llama el Teatro Cartesiano – la quimera universal de que en alguna parte en lo profundo de la mente hay un lugar especial donde todos los sucesos mentales convergen finalmente para ser experimentados -. En este sentido, el resto de nuestro cerebro – todos los mecanismos del lenguaje, el control motriz – son meros accesorios que el “yo” encuentra convenientes para sus propósitos ocultos.

David Hume lo dijo ya hace algunos siglos. No hay ninguna evidencia a favor de un “lugar” donde todas nuestras experiencias se encuentren “unificadas”. Cuando estoy hablando con alguien ocurren varios procesos: por un lado veo una imagen (la cara de mi interlocutor) y, por el otro, escucho unos sonidos (su voz), luego proceso todo eso mediante un montón de sistemas cerebrales: traducir e interpretar los sonidos en unidades con significado dentro de un entorno social muy específico, comprender las señales faciales o gestuales que nos envía, elaborar una respuesta lingüística, mover los músculos necesarios para mantener mi postura corporal y ejecutar sonidos articulados, etc. . Toda esta complejísima miríada de procesos ocurren a la vez pero, ¿quién me dice que hay una “entidad mental”, un “espacio” en el que todo esto ocurre a la vez de forma que un nuevo espectador percibe todo y actúa unitariamente?

Esta es una idea obviamente absurda, porque no explica nada. Entonces, ¿por qué es tan popular? Respuesta: ¡precisamente porque no explica nada! Eso es lo que la hace ser tan útil para la vida diaria. Uno puede dejar de preguntarse por qué hace lo que hace y por qué siente lo que siente. Por arte de magia, nos exime de la responsabilidad y el deseo de comprender cómo tomamos nuestras decisiones. Uno simplemente dice “yo decido” y transfiere toda la responsabilidad a su imaginario ego interno.

El “yo” parece la última respuesta, la causa última que “explica” todas nuestras decisiones y creencias, la base de mi libertad, mi historia, mi auténtica esencia. Pero, ¿qué podemos explicar a través de esa instancia? ¿Hacia dónde podemos seguir pensando contando con ella? Cuando en un juicio le preguntan al presunto culpable por qué ha cometido el crimen, si el dice “porque yo lo quise, fue mi decisión”, bastará para declararlo culpable sin más pesquisas. El concepto de “yo” es una vía muerta de investigación.

Presumiblemente, cada persona adquiere esta idea en la infancia, a partir de la maravillosa percepción de que uno mismo es otra persona, muy semejante a las que ve a su alrededor. Lo positivo de esta percepción es que profundamente útil cuando se trata de predecir lo que uno, uno mismo, va a hacer, a partir de la experiencia de los otros.

Efectivamente, si decimos que el “yo” es una ilusión hay que explicar el por qué de esa ilusión, qué función podría desempeñar. Y aquí la tenemos: función predictiva de la conducta de los otros. Si yo creo que dentro de mí hay otra persona (ese homúnculo de Dennett) que se comporta como cualquier otra, puedo predecir el comportamiento de los otros observando esa persona dentro de mí. Ya hablamos de eso aquí: la autoconsciencia podría ser nada más que inventar “otro yo” para saber que harán los otros.

El problema es que el concepto del yo individual se convierte en un obstáculo para el desarrollo de ideas más profundas cuando verdaderamente se necesitan mejores explicaciones. Entonces, cuando fallan nuestros modelos internos, nos vemos forzados a mirar a cualquier otra parte en busca de ayuda o consejo. Es entonces cuando acudimos a los padres, los amigos o los psicólogos, o recurrimos a algún libro de autoayuda, o caemos en las manos de esos tipos que pretenden poseer poderes psíquicos. Nos vemos formados a buscar fuera de nosotros, porque el mito del yo individual no da cuenta de lo que pasa cuando una persona experimenta conflictos, confusiones, sentimientos entremezclados – o lo que pasa cuando gozamos o sufrimos, cuando nos sentimos confiados o inseguros, o depresivos o eufóricos, o cuando algo nos repugna o nos atrae -. No nos da ninguna idea de por qué unas veces podemos resolver los problemas y otras tenemos dificultades para comprender las cosas. No explica la naturaleza de las relaciones intelectuales o emocionales, o ni siquiera establece la relación entre ambas categorías.

En las actuales ciencias cognitivas, el concepto de información se ha postulado como central para comprender el funcionamiento de la mente. Muchos afirman rotundamente que la mente es un sistema universal de símbolos, es decir, una máquina que transmite, manipula, modifica información. Tal tesis quedó avalada por el descubrimiento fundacional de las neurociencias: la neurona, una célula cuya primordial misión parece ser la de transmitir información. Además, parece hacerlo de modo relativamente simple, mediante un sistema sumatorio de pesos que hace que una neurona se dispare o no en función de los estímulos recibidos por otras neuronas (la grandísima aportación de Hebb). Además, debido a la plasticidad cerebral, las asambleas de neuronas pueden aprender. En los modelos matemáticos que tenemos de ellas el aprendizaje es arduo y costoso, pero, a la postre eficaz. Podemos entrenar estas agrupaciones de células simples para que hagan un montón de cosas y, a pesar de la dura crítica de Papert y Minsky que dejó está vía de investigación paralizada durante años, hoy ha renacido con fuerza consiguiendo algunos notables resultados.

La idea parece muy buena. Los pioneros de la Inteligencia Artificial pensaban que la mente era algo así como el software de nuestro cerebro, de modo que lo que había que encontrar era ese programa maestro que emulara perfectamente a la mente humana. Pero, pensándolo bien, el cerebro no parece tener un programa que funcione a modo del Prolog o del Lisp (aunque muchos así lo siguen defendiendo: es el popular mentalés). Parecía más lógico empezar por debajo: en vez de construir el software, hagamos el hardware y veremos lo que pasa. Así, basándose en estudios del sistema nervioso, se construían modelos matemáticos y se comprobaba que podían hacer. Es el clásico programa conexionista.

Los modelos de redes neuronales siguen avanzando y, de momento, son lo más parecido que tenemos a cómo los cien mil millones de neuronas que contiene nuestro cerebro, pueden hacer que tengamos vida mental. En este vídeo vemos un pequeño ejemplo de un robot diseñado por Pentti Haikonen a partir de su famosa arquitectura.

El robot detecta la dirección de la fuente de sonido y se acerca a ella. Todo lo hace sin ningún tipo de programa (nada de if, for, case, class, main…) ni realizando ningún cálculo. Simplemente sigue los patrones de una red de neuronas: puro cableado que muestra una notable similitud con lo que parecen ver los neurólogos al cartografiar nuestro cerebro. Es posible que, realmente, nuestro sentido auditivo pueda funcionar así. Es un gran logro y una magnífica vía de investigación que, sin duda, dará un montón de frutos.

Sin embargo (mi famoso sin embargo con el que empiezo el 90% de mis argumentaciones) hay un problema muy grande. Para ciertos procesos mentales el modelo de Haikonen parece muy apropiado, pero sólo para ciertos procesos mentales. ¿Cuáles? A saber, los inconscientes. Porque un sistema basado únicamente en el concepto de información no puede dar constancia de nuestros estados mentales conscientes. Razonemos:

1. He leído mucho acerca del concepto de información, incluso libros dedicados en exclusiva a ese concepto, y no he encontrado una definición satisfactoria. En muchos casos he encontrado una definición matemática (I=1/logp), la cual relaciona la información que disponemos de un suceso con su probabilidad. Está muy bien, y da para pensar un montón, pero no nos dice realmente qué es la información. Un ejemplo muy ilustrativo al respecto es el siguiente: supongamos que tenemos varios medios para codificar una información: una cinta de cassette, un disco de vinilo y un CD. En ambos está guardada la misma canción. Los tres medios están compuestos de materiales diferentes: la cinta de cassette es de plástico unida a diferentes materiales magnéticos que graban la información de forma mecánica y analógica; el disco de vinilo graba la información en surcos en su superficie; y el CD está hecho de policarbonato y aluminio grabando la información de modo digital. Tres materiales diferentes que, maravillosamente, nos dan el mismo resultado: escuchar la misma canción. ¿Qué es lo que tienen en común estos tres objetos hechos de materiales diferentes y estructurados de distinta forma? La información que guardan. Vale pero, ¿qué es exactamente eso que los tres guardan por igual? Vergonzoso silencio.

2. La información sólo tiene sentido en la medida que informa a algo o a alguien. La información es simbólica, refiere a algo, da como resultado algo que no es ella misma, tiene necesariamente una función dentro de un todo más grande. Por ejemplo, en un termostato que activa la calefacción cuando la temperatura baja a 10ºC, cuando el termómetro llega a tal temperatura informa a la caldera para que se active. Su único sentido es activar la caldera. Sin calefacción, el termómetro del termostato sólo es una barra de mercurio que se contrae o se dilata, un objeto sin sentido informativo alguno. Dicho de otro modo: la información no es nada, no es un “objeto” de la naturaleza si no existe un sujeto que la utilice. La naturaleza, sin seres vivos o máquinas que traten la información, está desinformada, no contiene información alguna, porque la información no es una propiedad objetiva, sino subjetiva.

3. Entonces, y aquí viene lo importante, la mente no puede ser sólo flujo de información, ya que esa información tiene sentido sólo si informa a algo o a alguien.   En la máquina de Haikonen, la información que pasa por los cables tiene sentido en la medida en que activa los motores del robot. La información sólo es información cuando causa cosas. A fortiori, el cerebro sí que puede contener flujos de información, pero eso no es lo esencial en ella: lo esencial es que produce pensamientos, emociones, recuerdos, etc. La información puede activar cierto estado mental, pero no puede ser ese estado mental. Al igual que en el robot de Haikonen, la información causa que el robot se mueva, pero el movimiento no es información.

4. Conclusión: que el cerebro contenga un montón de información y que esa información fluya a raudales por sus fibras nerviosas no nos dice nada de la naturaleza de los estados mentales. O, como mucho, sólo nos dice una pequeña parte de la historia. Si entendemos el proceso en términos de entrada y salida, un input (información) como ver al ministro de educación, estimula mis neuronas y hace que la información fluya por ellas para producir un output (resultado que no es información) como puede ser un ataque de pánico (estado mental). La información informa a “alguna parte de mi cerebro” para que ésta produzca, de una manera totalmente desconocida a día de hoy por la ciencia, un estado mental (que ya no es información, sólo es una sensación consciente).

5. Estudiar la mente en términos de la teoría de la información puede dar grandes resultados y, a mi juicio, ha sido uno de los grandes descubrimientos del siglo XX, pero no puede ser toda la historia. Lo importante es saber cómo esa información produce estados mentales. Debe existir algún tipo de mecanismo o proceso físico o biológico desconocido aún que produzca sensaciones, que haga que yo tenga miedo o que piense en mi abuela. Y eso no puede ser un conjunto de neuronas que únicamente se transmitan información unas a otras porque la información no es nada si no hace algo. Descubrir qué es ese algo debe ser la línea fundamental de investigación si queremos saber de una vez por todas cómo funciona la mente.

Y, ¿por qué es tan importante recrear la inteligencia humana?

Para la mayoría de las personas no es importante. Para gente que tenga un punto de vista más amplio una respuesta posible es que, hasta donde sabemos, es probable que seamos la única especie inteligente en el universo, y es posible que haya un accidente. Sabemos que en cinco billones de años el sol se convertirá en un gigante rojo que todo lo freirá, así que todo se irá a la basura. Sabemos que en unos pocos trillones de años, las estrellas desaparecerán y, según la teoría física de la actualidad, el universo desaparecerá. Pues bien, todavía no tenemos la inteligencia para arreglar esto, pero tal vez podríamos hacerlo si fuéramos más inteligentes.

¿Mediante el diseño de nueva inteligencia?

Mediante la construcción de un universo alternativo al que podamos mudarnos. Si no, todo será una pérdida. Así que desde este punto de vista, todo lo que hace la gente hoy en día no tiene valor ni uso alguno, porque desaparecerá sin dejar ningún rastro. El poder diseñar a uno de nosotros o reemplazarnos con algo más inteligente que pueda arreglar el universo y hacer uno mejor para mudarnos a él… esa debería ser nuestra prioridad principal. Ahora bien, si uno no vive en el mundo de la ciencia ficción, todo esto puede sonar bastante tonto. Pero si uno vive en mi mundo, todo lo demás parece bastante tonto.

Marvin Minsky en una entrevista en Nova.
Visto en PhiBLÓGsopho.
Me parece fascinante, realmente fascinante, que la mayor preocupación de un tipo de la inteligencia y talento de Minsky sea que este universo va a desaparecer dentro de trillones de años y que, llegado el momento, no seamos lo suficientemente inteligentes para solucionar el problema. Es genial como concluye: para todo el mundo esto es una locura pero para los que viven en mi mundo, esto es lo esencial. Dios bendiga a los tipos como Minsky, realmente necesitamos más como él.

En las míticas conferencias de Dartmouth, los pioneros de la IA pronosticaron que en unos pocos años tendríamos seres mecánicos con las mismas características que el ser humano. Alan Turing, Marvin Minsky o John McCarthy pensaban que las computadoras tendrían conducta inteligente e incluso consciencia y emociones en unas décadas. Desde la filosofía, pronto se lanzó una feroz crítica a estas pretensiones: John Searle, Herbert Dreyfus, Joseph Weizenbaum o Margaret Boden se apresuraron en mostrar los problemas filosóficos existentes tras tales pretensiones. Filósofos e ingenieros se enzarzaron en una ardua polémica (bueno, más bien sólo filósofos con filósofos. Los ingenieros siguieron trabajando como si la filosofía no existiera, cosa que han hecho siempre). En la actualidad parece que los filósofos han ganado la partida ya que, a parte de que sus ataques fueron bastante certeros en algunos casos (es muy famoso el argumento de la habitación china de Searle) y a que es más fácil destruir que construir, las promesas de Dartmouth están aún muy lejos de conseguirse.

Jaron Lanier ha revitalizado la polémica en un reciente artículo en donde acusa a estas exageradas pretensiones de la AI de ser la nueva ideología de moda, la nueva pseudoreligión que acompaña nefastamente el desarrollo de las ciencias de la computación provocando, según Lanier, una mala comprensión de las mismas y de lo que es realmente el hombre.

Son ciertas las pretensiones mesiánicas de muchos tecnofílicos. Hemos leído con cierta frecuencia fabulaciones como que podremos descargar nuestra mente en ordenadores consiguiendo la inmortalidad o, de modo apocalíptico, que acabaremos siendo esclavizados o exterminados por beligerantes máquinas futuristas. El gran guru de la IA, Raymond Kurzweil habla con total naturalidad de la singularidad tecnológica, momento histórico en el cual las máquinas serán tan superiores al ser humano actual que nos es imposible establecer cualquier tipo de predicción del futuro desde ese momento. Leo en El hombre mecánico de Hans Moravec:

Lo que nos espera no es el olvido, sino un futuro que, desde nuestra ventajosa situación actual, se puede describir con las palabras “posbiológico” o, mejor aún, “sobrenatural”. En este mundo, la marea del cambio cultural ha barrido al género humano y lo ha sustituido por su progenie artificial. Las consecuencias finales todavía nos resultan desconocidas, aunque muchos de los pasos intermedios no sólo son predecibles sino que ya se han dado. En la actualidad, nuestras máquinas son todavía creaciones simples que precisan los cuidados maternales y la atención constante de todos los recién nacidos. Y no se puede decir que merezcan el calificativo de “inteligentes”. Pero en el curso de un siglo madurarán, se convertirán en seres tan complejos como nosotros y, finalmente, en entes que trascenderán todo lo que conocemos, de los que nos podremos sentir orgullosos y considerarlos nuestros propios descendientes.

Nótese que Moravec no duda en hablar de la futura generación de máquinas inteligentes como seres sobrenaturales como si no pasara nada. Y es que la advertencia de Lanier es muy cierta:

1. Que en una ciencia se introduzcan elementos propios de las religiones es en sí nefasto. La ciencia ha de huir del ethos de la religión, no acercarse a él. La predicción salvajemente especulativa sin base empírica (a lo sumo apoyada en una discutible ley de Moore) nos recuerda a la espera cristiana de la segunda llegada de Dios.  No dejemos que vicios que ya creíamos superados vuelvan a introducirse en la ciencia.

2. Ésto sólo a causado que se cancele la financiación de interesantes proyectos en AI debido a lo irreal de sus objetivos. Si en vez de prometer replicas de humanos habláramos sólo de sistemas expertos que sirven de ayuda profesional seguro que los mecenas verían la gran utilidad de estos ingenios sin defraudarse por no encontrarse con HAL 9000.

3. Al contrario que la mayoría de los filósofos, yo no encuentro contradicción alguna a la posibilidad de que puedan crearse seres artificiales que tengan formas de consciencia e, incluso, poseer emociones. Sin embargo, reconozco tanto que podría haberla y aún no la conocemos, como que aún estamos lejísimos de conseguirlo. Seguramente que el modelo computacional actual no es el adecuado para representar el pensamiento humano (o, simplemente, es todavía muy sencillo) y nuestra tecnología es tan pobre que no da ni para hacer predicciones a corto plazo de lo que podríamos conseguir en el campo de la computación; más aún cuando su avance está sujeto a los devenires propios de cualquier progreso histórico: la economía, los cambios socio-culturales, las modas… e incluso los caprichos de ese extraño ser que se resiste tanto a ser replicado al que llamamos hombre.

 

Véase El Bushido de HAL

El ojo es nuestro órgano sensorial más importante del cual recibimos aproximadamente el 80% de la información sobre el mundo y en él empleamos casi un tercio de la corteza cerebral (es la actividad que más parte del cerebro utiliza con mucha diferencia). Su finalidad evolutiva es más que evidente: ver te permite localizar el alimento, las hembras o machos y tus posibles depredadores. Los primeros seres que poseyeran la facultad de ver tuvieron que evolucionar muy rápido. En un mundo oscuro en el que se encontraba alimento “a tientas” o, simplemente, esperando quietos a que éste llegara, un ser que pudiera ver y además pudiera moverse (con un flagelo, por ejemplo) tendría una ventaja enorme sobre sus competidores.

¿Cuál es el primer ojo de la historia natural? No lo sabemos con demasiada seguridad, pero los estudios apuntan a algún ser marino de una antigüedad de unos 1.000 millones de años. Los fósiles más antiguos son de una especie de trilobites llamada Roduchia, cuyos ojos de 543 millones de años de antigüedad se asemejan mucho a los de los insectos modernos. Entre las especies hoy existentes tenemos a la euglena, un protista unicelular con el “ojo” más pequeño del mundo (0,0003 cm). En realidad hablar de ojo sería decir mucho, simplemente es una mancha pigmentada que funciona de modo binario: sólo capta la luz o su ausencia mediante un fotorreceptor de adenilato ciclasa. A partir de esta información regula su conducta: cuando hay luz realiza la fotosíntesis (es autótrofa) y cuando no se alimenta del entorno (es heterótrofa). Muchas células fotorreceptoras juntas forman lo que se denomina “ojo plano” propio de muchas especies de medusas. Un conjunto de células fotosensibles ya pueden captar formas en dos dimensiones como si formaran un panel publicitario lleno de bombillas. Si los fotorreceptores se hacen más sensibles y pueden captar la intensidad de la luz, podemos percibir el volumen. Sin embargo, hace falta un cerebro más evolucionado para interpretar bien esas señales.

El caracol marino tiene lo que se denomina “ojo en copa”, que no es más que una superficie cóncava llena de fotorreceptores. El ojo se hace aquí tridimensional y puede percibir con precisión la dirección de donde proviene la luz. A lo largo de la evolución, la concavidad de este ojo se hizo más profunda y sus bordes fueron estrangulándola hasta llegar al siguiente hito evolutivo: “la cámara oscura”. El ojo del Nautilus deja pasar la luz por un diminuto orificio para proyectar la imagen invertida en una retina llena de fotorreceptores.  Este ojo permite percibir todo tipo de imágenes, incluso esquemáticas o débilmente iluminadas.

Ojo en copa

Otro modelo muy común en el mundo animal es el ojo facetado o compuesto propio de los  artrópodos. Se compone de un gran número de unidadaes hexagonales llamadas omatidias o facetas cada una de las cuales capta una pequeña porción de la imagen para integrarlas luego en un conjunto de modo que la imagen resultante sería algo así como un mosaico romano. Con un sistema así, algunas especies de insectos pueden captar unas 250 imágenes por segundo (frente a las 24 que capta el ojo humano. Por eso las moscas son difíciles de atrapar) y tienen un ángulo de visión que llega a los 360º (ven en todas direcciones a la vez…).

Ojo facetado de una polilla

Supongamos un insecto volando por la plaza del mercado de Brujas. ¿Cómo es ver en 360º? Sería algo así:

Plaza del mercado de Brujas en 360º

Bien, pero nuestro insecto tiene que ver en mosaico. ¿Cómo es ver en 360º con ojos facetados? Algo parecido a esto:

La plaza del mercado de Brujas vista por un artrópodo

Y, por fin, llegamos al “ojo con lente”, la cima de la evolución, poseído por casi todos los vertebrados y algunas especies de calamares muy evolucionados. Al tener lente se puede enfocar la imagen, consiguiendo más nitidez  que cualquier otro ojo. El humano tiene visión estereoscópica o binocular que nos permite ver en tres dimensiones (por eso tenemos dos ojos en vez de uno), capta una gran gama cromática (longitudes de ondas electromagnéticas que van desde los 400 a los 700 nanómetros) con sus más de seis millones y medio de conos y puede ver en condiciones de poca luminosidad (visión escotópica) gracias a sus 120 millones de bastones situados alrededor de la fóvea. Algunas estimaciones afirman que si comparamos el ojo humano con una cámara digital, el ojo tendría una resolución  de 250 megapíxeles.

El ojo con lente es el sistema de visión más evolucionado

Es curioso como el calvinista Charles Hodge eligiera precisamente al ojo en su obra ¿Qué es el darwinismo? (1874) como ejemplo para combatir la teoría de la evolución. A la afirmación de que su maravilloso diseño no puede ser fruto del azar sino de la inteligencia de un supremo hacedor (de la que ya hablamos aquí) se unía el argumento de que si la evolución era gradual tenemos que encontrarnos ojos inacabados en alguna especie animal y, ¿para qué vale un ojo inacabado? ¿Puede funcionar un ojo al que “le falten piezas”? Pues precisamente del ojo tenemos pruebas de que sí. Hemos visto como los antecedentes evolutivos del ojo con lente consistieron en una concavidad que fue estrangulándose cada vez más hasta cerrarse y, en cada una de sus fases, esos ojos fueron plenamente funcionales. Podemos comprobarlo en especies vivas en la actualidad (los gasterópodos de la familia haliotidae el ojo está casi cerrado y en los del género Turbo el ojo está completamente cerrado y todavía sin lente).

Los 1.ooo millones de años de evolución que ha necesitado el ojo para llegar a ser como es pueden dar algo de luz al hecho de la dificultad que tienen los ingenieros de  AI para conseguir que las computadoras puedan ver. El problema, evidentemente, no reside en el hecho de ver (cualquier cámara de fotos “ve”) sino en reconocer los objetos, interpretarlos. Nuestro sistema de visión reconoce objetos en condiciones muy diversas. Si pensamos en una silla, la reconoce en todas las posturas posibles, con cierto grado de incompletud (si sólo veo media silla sigo reconociendo que es una silla) con diferentes grados de luminosidad que cambian su color; reconoce diferentes tipos de sillas (con tres patas, circulares, sin respaldo, amacas, sillones…). Marvin Minsky, uno de los pioneros de la AI, creyó ingénuamente que sería sencillo que los ordenadores reconocieran objetos. Larry Roberts fue el primer informático que intentó realizar un programa de reconocimiento visual y sólo consiguió un rotundo fracaso. Es tremendamente difícil emular un sistema tan sumamente sofisticado. A día de hoy, lo más avanzado que existe en este tema es un programa desarrollado en el MIT por el laboratorio de Tomaso Poggio que se presentó en el 2007. Es un programa que, después de un entrenamiento previo, es capaz de reconocer en fotografías si están presentes o no los objetos que ha aprendido a reconocer.

La empresa de AI Numenta permite descargar en su página Web la demo de un programa de reconocimiento de imágenes que reconoce varias categorías de objetos en una serie de fotografías. La verdad es que acierta bastante.