Posts etiquetados ‘Donald Hebb’

En las actuales ciencias cognitivas, el concepto de información se ha postulado como central para comprender el funcionamiento de la mente. Muchos afirman rotundamente que la mente es un sistema universal de símbolos, es decir, una máquina que transmite, manipula, modifica información. Tal tesis quedó avalada por el descubrimiento fundacional de las neurociencias: la neurona, una célula cuya primordial misión parece ser la de transmitir información. Además, parece hacerlo de modo relativamente simple, mediante un sistema sumatorio de pesos que hace que una neurona se dispare o no en función de los estímulos recibidos por otras neuronas (la grandísima aportación de Hebb). Además, debido a la plasticidad cerebral, las asambleas de neuronas pueden aprender. En los modelos matemáticos que tenemos de ellas el aprendizaje es arduo y costoso, pero, a la postre eficaz. Podemos entrenar estas agrupaciones de células simples para que hagan un montón de cosas y, a pesar de la dura crítica de Papert y Minsky que dejó está vía de investigación paralizada durante años, hoy ha renacido con fuerza consiguiendo algunos notables resultados.

La idea parece muy buena. Los pioneros de la Inteligencia Artificial pensaban que la mente era algo así como el software de nuestro cerebro, de modo que lo que había que encontrar era ese programa maestro que emulara perfectamente a la mente humana. Pero, pensándolo bien, el cerebro no parece tener un programa que funcione a modo del Prolog o del Lisp (aunque muchos así lo siguen defendiendo: es el popular mentalés). Parecía más lógico empezar por debajo: en vez de construir el software, hagamos el hardware y veremos lo que pasa. Así, basándose en estudios del sistema nervioso, se construían modelos matemáticos y se comprobaba que podían hacer. Es el clásico programa conexionista.

Los modelos de redes neuronales siguen avanzando y, de momento, son lo más parecido que tenemos a cómo los cien mil millones de neuronas que contiene nuestro cerebro, pueden hacer que tengamos vida mental. En este vídeo vemos un pequeño ejemplo de un robot diseñado por Pentti Haikonen a partir de su famosa arquitectura.

El robot detecta la dirección de la fuente de sonido y se acerca a ella. Todo lo hace sin ningún tipo de programa (nada de if, for, case, class, main…) ni realizando ningún cálculo. Simplemente sigue los patrones de una red de neuronas: puro cableado que muestra una notable similitud con lo que parecen ver los neurólogos al cartografiar nuestro cerebro. Es posible que, realmente, nuestro sentido auditivo pueda funcionar así. Es un gran logro y una magnífica vía de investigación que, sin duda, dará un montón de frutos.

Sin embargo (mi famoso sin embargo con el que empiezo el 90% de mis argumentaciones) hay un problema muy grande. Para ciertos procesos mentales el modelo de Haikonen parece muy apropiado, pero sólo para ciertos procesos mentales. ¿Cuáles? A saber, los inconscientes. Porque un sistema basado únicamente en el concepto de información no puede dar constancia de nuestros estados mentales conscientes. Razonemos:

1. He leído mucho acerca del concepto de información, incluso libros dedicados en exclusiva a ese concepto, y no he encontrado una definición satisfactoria. En muchos casos he encontrado una definición matemática (I=1/logp), la cual relaciona la información que disponemos de un suceso con su probabilidad. Está muy bien, y da para pensar un montón, pero no nos dice realmente qué es la información. Un ejemplo muy ilustrativo al respecto es el siguiente: supongamos que tenemos varios medios para codificar una información: una cinta de cassette, un disco de vinilo y un CD. En ambos está guardada la misma canción. Los tres medios están compuestos de materiales diferentes: la cinta de cassette es de plástico unida a diferentes materiales magnéticos que graban la información de forma mecánica y analógica; el disco de vinilo graba la información en surcos en su superficie; y el CD está hecho de policarbonato y aluminio grabando la información de modo digital. Tres materiales diferentes que, maravillosamente, nos dan el mismo resultado: escuchar la misma canción. ¿Qué es lo que tienen en común estos tres objetos hechos de materiales diferentes y estructurados de distinta forma? La información que guardan. Vale pero, ¿qué es exactamente eso que los tres guardan por igual? Vergonzoso silencio.

2. La información sólo tiene sentido en la medida que informa a algo o a alguien. La información es simbólica, refiere a algo, da como resultado algo que no es ella misma, tiene necesariamente una función dentro de un todo más grande. Por ejemplo, en un termostato que activa la calefacción cuando la temperatura baja a 10ºC, cuando el termómetro llega a tal temperatura informa a la caldera para que se active. Su único sentido es activar la caldera. Sin calefacción, el termómetro del termostato sólo es una barra de mercurio que se contrae o se dilata, un objeto sin sentido informativo alguno. Dicho de otro modo: la información no es nada, no es un “objeto” de la naturaleza si no existe un sujeto que la utilice. La naturaleza, sin seres vivos o máquinas que traten la información, está desinformada, no contiene información alguna, porque la información no es una propiedad objetiva, sino subjetiva.

3. Entonces, y aquí viene lo importante, la mente no puede ser sólo flujo de información, ya que esa información tiene sentido sólo si informa a algo o a alguien.   En la máquina de Haikonen, la información que pasa por los cables tiene sentido en la medida en que activa los motores del robot. La información sólo es información cuando causa cosas. A fortiori, el cerebro sí que puede contener flujos de información, pero eso no es lo esencial en ella: lo esencial es que produce pensamientos, emociones, recuerdos, etc. La información puede activar cierto estado mental, pero no puede ser ese estado mental. Al igual que en el robot de Haikonen, la información causa que el robot se mueva, pero el movimiento no es información.

4. Conclusión: que el cerebro contenga un montón de información y que esa información fluya a raudales por sus fibras nerviosas no nos dice nada de la naturaleza de los estados mentales. O, como mucho, sólo nos dice una pequeña parte de la historia. Si entendemos el proceso en términos de entrada y salida, un input (información) como ver al ministro de educación, estimula mis neuronas y hace que la información fluya por ellas para producir un output (resultado que no es información) como puede ser un ataque de pánico (estado mental). La información informa a “alguna parte de mi cerebro” para que ésta produzca, de una manera totalmente desconocida a día de hoy por la ciencia, un estado mental (que ya no es información, sólo es una sensación consciente).

5. Estudiar la mente en términos de la teoría de la información puede dar grandes resultados y, a mi juicio, ha sido uno de los grandes descubrimientos del siglo XX, pero no puede ser toda la historia. Lo importante es saber cómo esa información produce estados mentales. Debe existir algún tipo de mecanismo o proceso físico o biológico desconocido aún que produzca sensaciones, que haga que yo tenga miedo o que piense en mi abuela. Y eso no puede ser un conjunto de neuronas que únicamente se transmitan información unas a otras porque la información no es nada si no hace algo. Descubrir qué es ese algo debe ser la línea fundamental de investigación si queremos saber de una vez por todas cómo funciona la mente.

Si Mahoma no va a la montaña, traigamos la montaña a Mahoma. Es muy difícil programar un software capaz de imitar el pensamiento humano (ya hemos hablado aquí de las dificultades de crear una máquina que pasara el test de Turing) pero ¿y si cambiamos de estrategia, y en vez de preocuparnos por el software, lo hacemos por el hardware?. A fin de cuentas, los cerebros humanos no tienen programadores ni un software “explícito” (estaría bien tenerlo. Me imagino un “Bienvenidos a Windows Human 2009”). No parece descabellado hacer algo físico que se parezca lo más posible un cerebro y luego ya veremos (este ya veremos podría ser un proceso de aprendizaje de varios años emulando la educación de un bebé, por ejemplo).  Además, este modo de actuar parece más acorde con el monismo psico-físico reinante en la actual teoría de la mente ya que la separación software/hardware huele demasiado a dualismo (la mente no puede vivir sin cuerpo, amigos). Bien, ¿y cómo lo hacemos?

En primer lugar, sabemos más o menos como funciona una neurona (a pesar de que casi no sepamos nada de cuando muchas neuronas trabajan en conjunto, que es de lo que se trata). Es un organismo relativamente simple y, lo más importante, parece una unidad discreta, es decir, es computable.  Funciona a través de pulsos eléctricos y, a pesar de que libera neurotrasmisores químicos de un modo, en ocasiones, muy complejo, no parece imposible emular su funcionamiento. No es entonces descabellado pensar en copiar físicamente el funcionamiento neuronal a chips de silicio. Hans Moravec y Raymond Kurzweil pensaron que si fabricáramos un gran circuito electrónico con las mismas conexiones que nuestro cerebro, podríamos sustituir uno por otro. Supongamos que he tenido un accidente y me he dañado una zona del cerebro. Podríamos llegar y cambiarla por una réplica electrónica que tuviera exactamente la misma estructura de conexiones que la mía. Pensemos que poco a poco continuamos cambiando partes orgánicas por electrónicas hasta que todo mi cerebro fuera electrónico… ¿sería yo un robot o un ser humano?

Neurona rodeada por Máquinas de Von Neumann

Pero dejando cuestiones conceptuales, lo importante es que esta forma de actuar parece un buen atajo ya que nos quitamos todo el problema del software. No necesitamos a programadores, sólo a ingenieros. Sin embargo, pronto empiezan los problemas (hacer trampas siempre se paga).

En primer lugar, en el cerebro humano hay más de cien mil millones de neuronas. Como argumenta Felix Ares, si queremos replicar un cerebro completo en un momento concreto de su historia tendremos que saber en qué estado estaba cada una de ellas. Si pudiéramos identificar la posición y el estado de cada neurona en un segundo mediante sistemas de neuroimagen, para saber el estado de todas ellas necesitaríamos 3.171 años.  Y esto sólo para empezar. Ahora tendríamos que saber las combinaciones input /output de cada neurona, es decir, cómo responde a cada uno de los impulsos que recibe. Cada neurona tiene, por promedio, unas 1.000 entradas y una salida… (ya suena a excesivo). Bien, pues con paciencia, comencemos a ir probando. ¿Qué pasa cuando se enciende la entrada uno? ¿Y la uno y la dos? ¿y la uno y la tres? ¿y la dos y la tres?… Para calcular esto de cada una de las cien mil millones de neuronas del cerebro necesitaríamos unas cuantas veces la edad entera del Universo.

Vale, pensemos de otra manera. No queremos copiar un cerebro en un momento concreto, sino sólo crear una nuevo. No nos importa entonces descuidar el estado inicial de las neuronas (bueno, no del todo, alguno habrá que poner…).  Lo importante será que aprenda como lo hacemos los seres humanos. ¿Cómo aprende una neurona? La clave nos la dio el biopsicólogo canadiense Donald Hebb.  La conocida como regla de Hebb dice así: si hay dos neuronas, una A y otra B, tal que A excita repetidas veces a B, se produce un cambio en ambas células tal que se fortalece la conexión entre ambas. O dicho a lo Lamarck “el uso desarrolla la conexión neuronal y el desuso la atrofía”. Así podemos explicar algunas cosas, como por ejemplo, por qué la repetición hace que yo me aprenda de memoria una fecha (si bien, a mi juicio, decir esto es una extrapolación no suficientemente fundada. Creo que la cosa es bastante más compleja). El caso es que, con la regla de Hebb, podemos hacer sistemas de redes neuronales que aprendan. Y esa es la titánica tarea de la Inteligencia Artificial actual: hay que pensar cómo enseñar y qué enseñar. De nuevo, han de aliarse disciplinas aparentemente dispares: neurología y pedagogía, lo cual me parece magnífico (de los matrimonios más extraños salen los hijos más bellos). Así, ya tenemos a CB2, diseñado por los ingenieros de la Universidad de Osaka.

No obstante,  se me ocurre la principal objeción teórica a todo este asunto de la ingeniería inversa. Si decimos que hay grandes problemas teóricos para crear una máquina que pasara el test de Turing quizá porque el lenguaje o el pensamiento no sean enteramente computables… ¿No parece contradictorio que de algo computable como las redes neuronales (si es que realmente lo son) surja algo que quizá tiene elementos no computables (si es que existe o no algo no computable)? ¿Podría lo no computable emerger de lo computable?

Esta entrada continua a: Los límites de la computabilidad (I)  ¿Qué es una máquina de Turing?