Posts etiquetados ‘Hans Moravec’

En las míticas conferencias de Dartmouth, los pioneros de la IA pronosticaron que en unos pocos años tendríamos seres mecánicos con las mismas características que el ser humano. Alan Turing, Marvin Minsky o John McCarthy pensaban que las computadoras tendrían conducta inteligente e incluso consciencia y emociones en unas décadas. Desde la filosofía, pronto se lanzó una feroz crítica a estas pretensiones: John Searle, Herbert Dreyfus, Joseph Weizenbaum o Margaret Boden se apresuraron en mostrar los problemas filosóficos existentes tras tales pretensiones. Filósofos e ingenieros se enzarzaron en una ardua polémica (bueno, más bien sólo filósofos con filósofos. Los ingenieros siguieron trabajando como si la filosofía no existiera, cosa que han hecho siempre). En la actualidad parece que los filósofos han ganado la partida ya que, a parte de que sus ataques fueron bastante certeros en algunos casos (es muy famoso el argumento de la habitación china de Searle) y a que es más fácil destruir que construir, las promesas de Dartmouth están aún muy lejos de conseguirse.

Jaron Lanier ha revitalizado la polémica en un reciente artículo en donde acusa a estas exageradas pretensiones de la AI de ser la nueva ideología de moda, la nueva pseudoreligión que acompaña nefastamente el desarrollo de las ciencias de la computación provocando, según Lanier, una mala comprensión de las mismas y de lo que es realmente el hombre.

Son ciertas las pretensiones mesiánicas de muchos tecnofílicos. Hemos leído con cierta frecuencia fabulaciones como que podremos descargar nuestra mente en ordenadores consiguiendo la inmortalidad o, de modo apocalíptico, que acabaremos siendo esclavizados o exterminados por beligerantes máquinas futuristas. El gran guru de la IA, Raymond Kurzweil habla con total naturalidad de la singularidad tecnológica, momento histórico en el cual las máquinas serán tan superiores al ser humano actual que nos es imposible establecer cualquier tipo de predicción del futuro desde ese momento. Leo en El hombre mecánico de Hans Moravec:

Lo que nos espera no es el olvido, sino un futuro que, desde nuestra ventajosa situación actual, se puede describir con las palabras “posbiológico” o, mejor aún, “sobrenatural”. En este mundo, la marea del cambio cultural ha barrido al género humano y lo ha sustituido por su progenie artificial. Las consecuencias finales todavía nos resultan desconocidas, aunque muchos de los pasos intermedios no sólo son predecibles sino que ya se han dado. En la actualidad, nuestras máquinas son todavía creaciones simples que precisan los cuidados maternales y la atención constante de todos los recién nacidos. Y no se puede decir que merezcan el calificativo de “inteligentes”. Pero en el curso de un siglo madurarán, se convertirán en seres tan complejos como nosotros y, finalmente, en entes que trascenderán todo lo que conocemos, de los que nos podremos sentir orgullosos y considerarlos nuestros propios descendientes.

Nótese que Moravec no duda en hablar de la futura generación de máquinas inteligentes como seres sobrenaturales como si no pasara nada. Y es que la advertencia de Lanier es muy cierta:

1. Que en una ciencia se introduzcan elementos propios de las religiones es en sí nefasto. La ciencia ha de huir del ethos de la religión, no acercarse a él. La predicción salvajemente especulativa sin base empírica (a lo sumo apoyada en una discutible ley de Moore) nos recuerda a la espera cristiana de la segunda llegada de Dios.  No dejemos que vicios que ya creíamos superados vuelvan a introducirse en la ciencia.

2. Ésto sólo a causado que se cancele la financiación de interesantes proyectos en AI debido a lo irreal de sus objetivos. Si en vez de prometer replicas de humanos habláramos sólo de sistemas expertos que sirven de ayuda profesional seguro que los mecenas verían la gran utilidad de estos ingenios sin defraudarse por no encontrarse con HAL 9000.

3. Al contrario que la mayoría de los filósofos, yo no encuentro contradicción alguna a la posibilidad de que puedan crearse seres artificiales que tengan formas de consciencia e, incluso, poseer emociones. Sin embargo, reconozco tanto que podría haberla y aún no la conocemos, como que aún estamos lejísimos de conseguirlo. Seguramente que el modelo computacional actual no es el adecuado para representar el pensamiento humano (o, simplemente, es todavía muy sencillo) y nuestra tecnología es tan pobre que no da ni para hacer predicciones a corto plazo de lo que podríamos conseguir en el campo de la computación; más aún cuando su avance está sujeto a los devenires propios de cualquier progreso histórico: la economía, los cambios socio-culturales, las modas… e incluso los caprichos de ese extraño ser que se resiste tanto a ser replicado al que llamamos hombre.

 

Véase El Bushido de HAL

Nuestra capacidad de comprensión de cantidades numéricas es una birria. Para cantidades muy bajas las cifras parecen tener significado. Entendemos muy bien qué diferencia hay entre que a nuestra casa vengan a cenar tres personas o catorce. Puedo establecer comparaciones entre cantidades pequeñas y grandes (doce contra  dos mil es una pelea desigual) pero… ¿qué nos pasa cuando trabajamos con cifras muy altas? El más absoluto desastre. Por ejemplo, ¿cuántos granos de trigo caben en una habitación de tres metros cúbicos de volumen? Ni la más remota idea ¿Un millón? ¿Seis millones? ¿Trescientos mil? Es muy difícil, podría objetarse. Sí, pero, ¿tanto para que no podamos ni siquiera realizar una aproximación razonable? ¿Cuántos es cinco elevado a cuarenta y dos? ¿Es más que seiscientos millones? Cuando oímos cifras tan altas todas nos suenan igual. ¿Mi cerebro entiende algo distinto cuando oye 7.345.456.123.343 que cuando oye 1.245.345.212? “Un montonazo” afirma igualmente para ambas cifras.

Hace tiempo, hablamos de que es más difícil caminar que realizar ecuaciones debido a que el sistema de locomoción es mucho más antiguo que el neocortex, por lo que la evolución ha tenido mucho más tiempo para perfeccionar nuestras piernas que nuestras neuronas dedicadas a calcular. Por eso la Inteligencia Artificial hace máquinas que resuelven complejos algoritmos pero no que corran más que Usain Bolt. Es la llamada Paradoja de Moravec. Además es que para sobrevivir no hace falta manejar cifras exponenciales. ¿Cuántos tigres van a venir a comerme? ¿Cómo repartimos la carne? Desde luego no en cincuenta millones de trozos. Nuestros ancestros no necesitaban unas matemáticas tan potentes para sobrevivir y nosotros heredamos su torpeza.

¿Cuántos decimales de pi eres capaz de memorizar?

Pero, ¿Y si nosotros las necesitáramos para comprender nuestra realidad? La diferencia entre cinco y cincuenta millones no es sólo cuantitativa. Una piedra que pesa cinco gramos es pequeñita, mientras que una piedra que pesa cincuenta millones de gramos… Tiene que ser algo muy grande y destructivo pero… ¿Cuánto de grande? ¿Lo pueden imaginar con facilidad? Yo no, pero el caso es que el hecho de que una roca pueda demoler un edificio y la otra no es una diferencia cualitativa que surge de un aumento cuantitativo.

Las diferencias cuantitativas generan diferencias cualitativas, propiedades que emergen de las diferentes relaciones entre las partes, puntos sin retorno, puntos de fractura, momento a partir del cual… El tamaño sí que importa (lo siento machotes), las escalas importan. El Universo no parece funcionar igual a escala cuántica que a escala humana o planetaria. Y la escala cuántica y la planetaria, la de los muy pequeño y la de lo muy grande funcionan con números exponenciales. Tenemos millones de neuronas, millones de receptores sensoriales, millones de conos y bastones, millones de células, virus y bacterias multiplicándose a gran velocidad… incluso la biología también es exponencial. Supongo que será un reto para el evolucionismo explicar cómo los billones de células de cualquier mamífero se han puesto de acuerdo por pequeñas variaciones aleatorias para mantenerlo con vida.

La información crece exponencialmente

¿Y cómo calcular números tan altos? Llegan las supercomputadoras  que, para calcular cifras astronómicas, también ellas mismas lo son: millones de puertas lógicas, millones de nanotransistores, millones de bits… Para ellas, cada vez es menos peligroso que ocurran explosiones combinatorias pues sí saben pensar exponencialmente.  ¿Tendrán ellas que enseñarnos la auténtica verdad? ¿Serán ellas las herederas del progreso del conocimiento, quedando los seres humanos obsoletos? No necesariamente. De lo que se trata no es de tener una capacidad de cálculo increíble (en eso ya no podemos competir ni con una calculadora  de dos dígitos comprada en los chinos), sino de entender el significado de las cantidades exponenciales. Por ejemplo, cuando entró el euro, todos hacíamos constantemente esfuerzos para pasar los euros a pesetas. Las cantidades en pesetas nos eran significativas. Yo sabía que si por una cerveza me cobraban seiscientas pesetas me estaban timando, y sabía que un coche medio costaba unos dos millones. Sin embargo, cuando me decían 300.000 euros, sólo podía decir “eso es mucho dinero”. Al cabo del tiempo las cantidades en euros cobraron significado por sí mismas y ya no tenemos (casi nunca) que pasarlas a pesetas. Sé que podría pagar por un coche hasta 20.000 euros y que cobrar menos de 10.000 euros anuales es explotación en su sentido más genuino.

Si los intelectuales, hemos de ser los cronistas conceptuales de nuestra época, como afirmaba Hegel, para unos tiempos exponenciales hemos de aprender a pensar exponencialmente.

Si Mahoma no va a la montaña, traigamos la montaña a Mahoma. Es muy difícil programar un software capaz de imitar el pensamiento humano (ya hemos hablado aquí de las dificultades de crear una máquina que pasara el test de Turing) pero ¿y si cambiamos de estrategia, y en vez de preocuparnos por el software, lo hacemos por el hardware?. A fin de cuentas, los cerebros humanos no tienen programadores ni un software “explícito” (estaría bien tenerlo. Me imagino un “Bienvenidos a Windows Human 2009”). No parece descabellado hacer algo físico que se parezca lo más posible un cerebro y luego ya veremos (este ya veremos podría ser un proceso de aprendizaje de varios años emulando la educación de un bebé, por ejemplo).  Además, este modo de actuar parece más acorde con el monismo psico-físico reinante en la actual teoría de la mente ya que la separación software/hardware huele demasiado a dualismo (la mente no puede vivir sin cuerpo, amigos). Bien, ¿y cómo lo hacemos?

En primer lugar, sabemos más o menos como funciona una neurona (a pesar de que casi no sepamos nada de cuando muchas neuronas trabajan en conjunto, que es de lo que se trata). Es un organismo relativamente simple y, lo más importante, parece una unidad discreta, es decir, es computable.  Funciona a través de pulsos eléctricos y, a pesar de que libera neurotrasmisores químicos de un modo, en ocasiones, muy complejo, no parece imposible emular su funcionamiento. No es entonces descabellado pensar en copiar físicamente el funcionamiento neuronal a chips de silicio. Hans Moravec y Raymond Kurzweil pensaron que si fabricáramos un gran circuito electrónico con las mismas conexiones que nuestro cerebro, podríamos sustituir uno por otro. Supongamos que he tenido un accidente y me he dañado una zona del cerebro. Podríamos llegar y cambiarla por una réplica electrónica que tuviera exactamente la misma estructura de conexiones que la mía. Pensemos que poco a poco continuamos cambiando partes orgánicas por electrónicas hasta que todo mi cerebro fuera electrónico… ¿sería yo un robot o un ser humano?

Neurona rodeada por Máquinas de Von Neumann

Pero dejando cuestiones conceptuales, lo importante es que esta forma de actuar parece un buen atajo ya que nos quitamos todo el problema del software. No necesitamos a programadores, sólo a ingenieros. Sin embargo, pronto empiezan los problemas (hacer trampas siempre se paga).

En primer lugar, en el cerebro humano hay más de cien mil millones de neuronas. Como argumenta Felix Ares, si queremos replicar un cerebro completo en un momento concreto de su historia tendremos que saber en qué estado estaba cada una de ellas. Si pudiéramos identificar la posición y el estado de cada neurona en un segundo mediante sistemas de neuroimagen, para saber el estado de todas ellas necesitaríamos 3.171 años.  Y esto sólo para empezar. Ahora tendríamos que saber las combinaciones input /output de cada neurona, es decir, cómo responde a cada uno de los impulsos que recibe. Cada neurona tiene, por promedio, unas 1.000 entradas y una salida… (ya suena a excesivo). Bien, pues con paciencia, comencemos a ir probando. ¿Qué pasa cuando se enciende la entrada uno? ¿Y la uno y la dos? ¿y la uno y la tres? ¿y la dos y la tres?… Para calcular esto de cada una de las cien mil millones de neuronas del cerebro necesitaríamos unas cuantas veces la edad entera del Universo.

Vale, pensemos de otra manera. No queremos copiar un cerebro en un momento concreto, sino sólo crear una nuevo. No nos importa entonces descuidar el estado inicial de las neuronas (bueno, no del todo, alguno habrá que poner…).  Lo importante será que aprenda como lo hacemos los seres humanos. ¿Cómo aprende una neurona? La clave nos la dio el biopsicólogo canadiense Donald Hebb.  La conocida como regla de Hebb dice así: si hay dos neuronas, una A y otra B, tal que A excita repetidas veces a B, se produce un cambio en ambas células tal que se fortalece la conexión entre ambas. O dicho a lo Lamarck “el uso desarrolla la conexión neuronal y el desuso la atrofía”. Así podemos explicar algunas cosas, como por ejemplo, por qué la repetición hace que yo me aprenda de memoria una fecha (si bien, a mi juicio, decir esto es una extrapolación no suficientemente fundada. Creo que la cosa es bastante más compleja). El caso es que, con la regla de Hebb, podemos hacer sistemas de redes neuronales que aprendan. Y esa es la titánica tarea de la Inteligencia Artificial actual: hay que pensar cómo enseñar y qué enseñar. De nuevo, han de aliarse disciplinas aparentemente dispares: neurología y pedagogía, lo cual me parece magnífico (de los matrimonios más extraños salen los hijos más bellos). Así, ya tenemos a CB2, diseñado por los ingenieros de la Universidad de Osaka.

No obstante,  se me ocurre la principal objeción teórica a todo este asunto de la ingeniería inversa. Si decimos que hay grandes problemas teóricos para crear una máquina que pasara el test de Turing quizá porque el lenguaje o el pensamiento no sean enteramente computables… ¿No parece contradictorio que de algo computable como las redes neuronales (si es que realmente lo son) surja algo que quizá tiene elementos no computables (si es que existe o no algo no computable)? ¿Podría lo no computable emerger de lo computable?

Esta entrada continua a: Los límites de la computabilidad (I)  ¿Qué es una máquina de Turing?