Posts etiquetados ‘inteligencia artificial’

Roger Penrose dedicó bastante más tinta en defender  los argumentos de Shadows of Mind que en escribir dicha obra. En una de sus contrarréplicas, publicada en la revista Psyche (Enero, 1996), nos ofrece una de las versiones más claras de su famoso argumento.

Supongamos que todos los métodos de razonamiento matemático humanamente asequibles válidos para la demostración de cualquier tesis están contenidos en el conjunto F. Es más, en F no sólo introducimos lo que entenderíamos como lógica matemática (axiomas y reglas de inferencia) sino todo lo matemáticamente posible para tener un modelo matemático del cerebro que utiliza esa lógica (todos los algoritmos necesarios para simular un cerebro). F es, entonces, el modelo soñado por cualquier ingeniero de AI: un modelo del cerebro y su capacidad para realizar todo cálculo lógico imaginable para el hombre. Y, precisamente, ese es el modelo soñado porque la AI Fuerte piensa que eso es un ser humano inteligente. Así, cabe preguntarse: ¿Soy F? Y parece que todos contestaríamos, a priori, que sí.

Sin embargo, Roger Penrose, piensa que no, y para demostrarlo utiliza el celebérrimo teorema de Gödel, que venimos a recordar a muy grosso modo: un sistema axiomático es incompleto si contiene enunciados que el sistema no puede demostrar ni refutar (en lógica se llaman enunciados indecidibles). Según el teorema de incompletitud, todo sistema axiomático consistente y recursivo para la aritmética tiene enunciados indecidibles. Concretamente, si los axiomas del sistema son verdaderos, puede exhibirse un enunciado verdadero y no decidible dentro del sistema.

Si yo soy F, como soy un conjunto de algoritmos (basados en sistemas axiomáticos consistentes y recursivos), contendré algún teorema (proposiciones que se infieren de los axiomas de mi sistema) que es indecidible. Los seres humanos nos damos cuenta, somos conscientes de que ese teorema es indecidible. De repente nos encontraríamos con algo dentro de nosotros mismos con lo que no sabríamos qué hacer. Pero en esto hay una contradicción con ser F, porque F, al ser un conjunto de algoritmos, no sería capaz de demostrar la indecibilidad de ninguno de sus teoremas por lo dicho por Gödel… Una máquina nunca podría darse cuenta de que está ante un teorema indecidible. Ergo, si nosotros somos capaces de descubrir teoremas indecidibles es porque, algunas veces, actuamos mediante algo diferente a un algoritmo: no sólo somos lógica matemática.

Vale, ¿y qué consecuencias tiene eso? Para la AI muy graves. Penrose piensa no sólo que no somos computadores sino que ni siquiera podemos tener un computador que pueda simular matemáticamente nuestros procesos mentales. Con esto Penrose no está diciendo que en múltiples ocasiones no utilicemos algoritmos (o no seamos algoritmos) cuando pensemos, sólo dice (lo cual es más que suficiente) que, habrá al menos algunas ocasiones, en las que no utilizamos algoritmos o, dicho de otro modo, hay algún componente en nuestra mente del cual no podemos hacer un modelo matemático, qué menos que replicarlo computacionalmente en un ordenador.

Además el asunto se hace más curioso cuanto más te adentras en él. ¿Cuáles podrían ser esos elementos no computables de nuestra mente? La respuesta ha de ser un rotundo no tenemos ni idea, porque no hay forma alguna de crear un método matemático para saber qué elementos de un sistema serán los indecidibles. Esto lo explicaba muy bien Turing con el famoso problema de la parada: si tenemos un ordenador que está procesando un problema matemático y vemos que no se para, es decir, que tarda un tiempo en resolverlo, no hay manera de saber si llegará un momento en el que se parará o si seguirá eternamente funcionando (y tendremos que darle al reset para que termine). Si programamos una máquina para que vaya sacando decimales a pi, no hay forma de saber si pi tiene una cantidad de decimales tal que nuestra máquina tardará una semana, seis meses o millones de años en sacarlos todos o si los decimales de pi son infinitos. De esta misma forma, no podemos saber, por definición, qué elementos de nuestra mente son no computables. A pesar de ello, Penrose insiste en que lo no computable en nuestra mente es, nada más y nada menos, que la conciencia, ya que, explica él, mediante ella percibimos la indecibilidad de los teoremas. Es posible, ya que, aunque a priori no pudiéramos saber qué elementos no son decidibles, podríamos encontrarnos casualmente con alguno de ellos y podría ser que fuera la conciencia. Pero, ¿cómo es posible que nuestro cerebro genere conciencia siendo el cerebro algo aparentemente sujeto a computación? Penrose tiene que irse al mundo cuántico, en el que casi todo lo extraño sucede, para encontrar fenómenos no modelizables por las matemáticas y, de paso, resolver el problema del origen físico de la conciencia.

Las neuronas no nos valen. Son demasiado grandes y pueden ser modelizadas por la mecánica clásica. Hace falta algo más pequeño, algo que, por su naturaleza, exprese la incomputabilidad de la conciencia. Penrose se fija en el citoesqueleto de las neuronas formado por unas estructuras llamadas microtúbulos. Este micronivel está empapado de fenómenos cuánticos no computables, siendo el funcionamiento a nivel neuronal, si acaso, una sombra amplificadora suya, un reflejo de la auténtica actividad generadora de conciencia. ¡Qué emocionante! Pero, ¿cómo generan estos microtúbulos empapados de efectos cuánticos la conciencia? Penrose dice que no lo sabe, que ya bastante ha dicho…

O sea señor Penrose, que después de todo el camino hecho, al final, estamos cómo al principio: no tenemos ni idea de qué es lo que genera la conciencia. Sólo hemos cambiado el problema de lugar. Si antes nos preguntábamos cómo cien mil millones de neuronas generaban conciencia, ahora nos preguntamos cómo los efectos cuánticos no computables generan conciencia. Penrose dice que habrá que esperar a que la mecánica cuántica se desarrolle más. Crick o Searle nos dicen que habrá que esperar a ver lo que nos dice la neurología… ¡Pero yo no puedo esperar!

Además, ¿no parece extraño que la conciencia tenga algo que ver con el citoesqueleto de las neuronas? La función del citoesqueleto celular suele ser sustentar la célula, hacerla estable en su locomoción… ¿qué tendrá que ver eso con ser consciente? Claro que en el estado actual de la ciencia igual podría decirse: ¿qué tendrá que ver la actividad eléctrica de cien mil millones de neuronas con que yo sienta que me duele una muela?

HAL, quiero que seas capaz de reconocer las letras del vocabulario mediante tus sensores visuales. Empecemos por la “a”. Voy a darte un patrón para que reconozcas los diferentes tipos de aes que puedas encontrarte.

De acuerdo Dave. Introduce el patrón.

Su forma se asemeja a un triángulo.

ERROR. La “a” minúscula suele ser redondeada.

Tiene un hueco aproximadamente en el centro.

ERROR. Por ejemplo, en la imagen de arriba, la tercera y la cuarta “a” de la última fila no tienen huecos en el centro. O la última de todas, que es un hueco toda ella, siendo el relleno su fondo.

Una línea horizontal cruza otras dos líneas aproximadamente verticales.

ERROR. La “a” minúscula no tiene línea horizontal. Igualmente, hay un montón de ejemplos de aes sin línea horizontal en la imagen.

¿Cómo es posible? ¿Cómo puede ser que ya desde niños seamos capaces de identificar todo el abecedario sin dificultad alguna, pero que reconocer simplemente la letra “a” sea uno de los  grandes desafíos de la inteligencia artificial? La respuesta es que estamos muy acostumbrados a pensar con ideas claras y distintas tal como nos enseñó Descartes. Queremos un patrón único que defina límpiamente la letra “a”, de modo que el computador la identifique de un modo fácil y 100% seguro.  Queremos algo así como la esencia de la “a”. Pedimos demasiado. Seguramente la forma en la que el ser humano identifica letras es mucho menos precisa, más desordenada y funciona por vagas aproximaciones  y tentativas. ¿Por qué en vez de utilizar una única condición y lógica bivalente, utilizamos más condiciones y en diferentes proporciones? ¿Qué tal si probáramos algo así?:

HAL, sigue estos patrones:

Si su forma se asemeja a un triángulo suma un 60% de probabilidades de estar ante una “a”, si no resta 30%

Si tiene un hueco aproximadamente en el centro suma un 20% de probabilidades, si no resta 40%

Si tiene una línea horizontal curzando otras dos líneas aproximadamente verticales suma otro 50%, si no resta 30%

Si tiene un rabillo al final suma un 30% si no resta un 5%

Incluso podemos intruducir datos contextuales:

Si está entre dos consonantes hay un 90% de que sea vocal.

Si es vocal habrá un 20% de que sea una “a”.

HAL se equivocaría muchas veces (con toda certeza que muchas, ya que los percentiles los he puesto más o menos a bote pronto), pero podríamos ir refinando las condiciones en función de sus aciertos. Sabemos que el cerebro procesa mucha cantidad de información en paralelo y, seguramente, que mucha de esa información será parcial y contradictoria, de modo que, al final, las decisiones sean probabilísticas y, muchas veces, equívocas. ¿No es así como actuamos nosotros en nuestra vida cotidiana? Ya sabemos que nuestro cerebro es un kludge. Pues en esta línea apuntan las investigaciones en visión artificial de las últimas décadas, y quizá sea la forma de afrontar muchos otros problemas dentro de la AI. Señores, si queremos imitar al hombre no hay que construir máquinas perfectas, sino chapuzas que, de modo casi inexplicable, funcionen muy bien.

 

Y, ¿por qué es tan importante recrear la inteligencia humana?

Para la mayoría de las personas no es importante. Para gente que tenga un punto de vista más amplio una respuesta posible es que, hasta donde sabemos, es probable que seamos la única especie inteligente en el universo, y es posible que haya un accidente. Sabemos que en cinco billones de años el sol se convertirá en un gigante rojo que todo lo freirá, así que todo se irá a la basura. Sabemos que en unos pocos trillones de años, las estrellas desaparecerán y, según la teoría física de la actualidad, el universo desaparecerá. Pues bien, todavía no tenemos la inteligencia para arreglar esto, pero tal vez podríamos hacerlo si fuéramos más inteligentes.

¿Mediante el diseño de nueva inteligencia?

Mediante la construcción de un universo alternativo al que podamos mudarnos. Si no, todo será una pérdida. Así que desde este punto de vista, todo lo que hace la gente hoy en día no tiene valor ni uso alguno, porque desaparecerá sin dejar ningún rastro. El poder diseñar a uno de nosotros o reemplazarnos con algo más inteligente que pueda arreglar el universo y hacer uno mejor para mudarnos a él… esa debería ser nuestra prioridad principal. Ahora bien, si uno no vive en el mundo de la ciencia ficción, todo esto puede sonar bastante tonto. Pero si uno vive en mi mundo, todo lo demás parece bastante tonto.

Marvin Minsky en una entrevista en Nova.
Visto en PhiBLÓGsopho.
Me parece fascinante, realmente fascinante, que la mayor preocupación de un tipo de la inteligencia y talento de Minsky sea que este universo va a desaparecer dentro de trillones de años y que, llegado el momento, no seamos lo suficientemente inteligentes para solucionar el problema. Es genial como concluye: para todo el mundo esto es una locura pero para los que viven en mi mundo, esto es lo esencial. Dios bendiga a los tipos como Minsky, realmente necesitamos más como él.

Una de las más espectaculares promesas de la IA fuerte es lo que llamamos mind uploading: la posibilidad de descargar nuestra mente en la memoria de un ordenador. Es una original propuesta de inmortalidad, dado que una memoria computacional física puede ser reparada en todas sus partes siendo potencialmente eterna. En un momento del futuro, toda la humanidad (o un selecto grupo de elegidos) podría ser volcada dentro de enormes memorias informáticas, dando el salto a un mundo virtual en donde la felicidad completa, antes sólo prometida postmortem, será alcanzada. El potencial especulativo de esta afirmación es enorme: ¿Podrían unirse varias mentes en una creando la emergencia de una  supermente colectiva? ¿Qué siente alguien viviendo dentro de un computador? ¿Podríamos apagar y volver a encender las mentes almacenadas?

Entre los muchos presupuestos necesarios para que la mind uploading sea posible se encuentra la independencia de substrato: nuestra mente puede funcionar exactamente igual independientemente de la base física que la sostenga. Lo importante sería replicar la estructura del sistema que nos permite pensar, no su material, de modo que si podemos copiar la estructura de nuestras intrincadas redes neuronales (wetware) en chips de silicio, dichos chips tendrán las mismas funciones que nuestro cerebro. Este dualismo soluciona, por ejemplo, el viejo enigma del barco de Teseo: ¿Cuántas piezas hay que cambiar a un barco para que ese barco ya no sea el mismo sino otro diferente? Desde la independencia de substrato diríamos que el cambio de piezas es indiferente para la identidad de cualquier ente. Lo esencial es su estructura, por lo que si el barco mantiene la estructura inicial seguirá siendo el mismo a pesar de no tener nada de su materia inicial.  La misma idea parece subyacer en las palabras de Sebastian Seung y su concepto de conectoma.

Cuando Seung dice que somos nuestro conectoma está queriendo decir que nuestras funciones cognitivas superiores son el resultado (o se identifican. Ignoro la postura que Seung tiene en este tema) de una complejidad estructural. Entonces, lo de menos es la base física, cualquiera vale, lo importante es meramente la complejidad estructural. Seung tiene la esperanza de que algún día se desvele el misterio y sepamos toda la exponencial cantidad de conexiones sinápticas. Sin embargo, esto encierra un grave problema que creo que no suele tenerse en cuenta y que reside, precisamente, en dar por sentada la independencia de substrato.

La conciencia, nuestros sentimientos y nuestros recuerdos surgen de esa intrincada red neuronal de un modo absolutamente desconocido a día de hoy. Los científicos, especialmente neurólogos e ingenieros de AI, tienen poca paciencia y quieren hacer un modelo del cerebro dejando de lado ese desconocimiento. Así, elaboran modelos matemáticos partiendo únicamente de la idea cajaliana de que las neronas son herramientas de transmisión de información que funcionan de modo discreto disparando pulsos eléctricos. Los diferentes modelos neuronales (desde los primeros intentos de McCulloh y Pitts, los perceptrones de Rosenblatt, hasta las redes de Hopfield o las máquinas de Boltzmann) parten de la base de que lo único que hacen las neuronas es lanzar o no pulsos eléctricos, de manera que su actuación puede formalizarse fácilmente en código binario. Los diferentes modelos intentan hacer el mayor número de operaciones (operaciones lógicas, memoria asociativa o reconocimiento de patrones) partiendo de esta hipótesis. Como en la realidad podemos encontrar elementos físicos biestables (cosas que puedan estar en dos estados diferentes el tiempo suficiente: el magnetismo de las memorias informáticas), podemos construir redes neuronales artificiales. Es curioso que nadie haya caído (o sí, vete tú a saber) en que en este planteamiento hay una contradicción inicial muy básica: si las neuronas sólo transmiten información, ¿cómo van a poder generar consciencia? ¿Es que la consciencia es sólo un pulso eléctrico o un transporte de información? No, responderían aireados, la consciencia surge de la complejidad de interconexiones eléctricas, no de las propiedades de los pulsos eléctricos entendidos individualmente. Pero, ¿qué significa realmente que algo pueda surgir de su complejidad estructural?

No significa nada, pues aquí está el error. Yo puedo hacer que mi computadora sea muy compleja en el sentido de que cada vez pueda resolver un número mayor de problemas matemáticos (de hecho los problemas con los que se enfrentan los ingenieros de redes neuronales artificiales son exclusivamente de índole matemático), pero no puedo hacer otra cosa. No, podríamos replicar, si yo conecto mi red neuronal artificial, por ejemplo, a un brazo robótico, podría emular los movimientos de un brazo humano. Los problemas matemáticos se traducen en replicar acciones humanas. Cierto, algunos problemas son de este tipo. Sin embargo, ¿cómo se espera resolver matemáticamente el problema de la conciencia? La conciencia es una entidad real, “física” en el sentido de estar en el mundo como lo está un mueble. No digo que la conciencia sea una cosa, pero sí que será un proceso o, de alguna manera, la propiedad de un sistema físico. Lo poco que sabemos es que la conciencia emerge (o se identifica, o es causada o lo que queramos decir aquí) de un determinado sistema físico: el cerebro. Un sistema, por otra parte, con unas propiedades fisico-químicas muy concretas. Entonces parece razonable pensar que las propiedades físico-químicas del cerebro tendrán mucho que ver con el fenómeno de la conciencia, del mismo modo que las propiedades físico-químicas del estómago tienen mucho que ver con la digestión. ¿En qué se basan entonces para decir que nuestra mente es un conectoma, una complejidad estructural independiente del substrato donde se realice? ¿Es que acaso hemos comprobado alguna vez que otra química diferente a la del carbono dé lugar a algún tipo de conciencia? ¿Es que acaso podemos encender fuego únicamente con un modelo matemático de la combustión?

Nada surge meramente de lo complejo, igual que nada es exclusivamente una estructura. Los ingenieros de AI piensan que si tenemos un mapa muy detallado de lo que es una gallina escrito en un papel, ya tenemos realmente una gallina. No, para hacer una gallina hacen falta átomos de gallina. Y quizá, los átomos de gallina tienen unas propiedades tales que sólo con átomos de gallina podemos hacer gallinas, y no con cualquier otro substrato que se nos antoje estructuralmente similar.  La independencia de substrato es una tesis que suele aceptarse con demasiada ligereza.

En el futuro parece muy razonable predecir que nuestra civilización (o quizá otras en otros lares del Universo) tenga una gran capacidad de cómputo.  Bostrom pone varios casos, por ejemplo el del diseño de Erik Drexler (un sistema del tamaño de un cubo de azúcar que podría llevar a cabo 10²¹ instrucciones por segundo). Con tal poder, generaciones futuras podrían realizar simulaciones detalladas de las vidas de sus antepasados (o de otros seres cualquiera que dé su imaginación y sus posibilidades técnicas). Es más, sería lógico pensar que podrían realizar no sólo una, sino un montón de esas simulaciones, ya que el poder de cómputo esperado es elevadísimo. Si a partir de aquí pensamos en nuestra actual civilización, la probabilidad de que vivamos en una simulación es alta. Pensemos en que si nuestros parientes del futuro deciden hacer una única simulación, nuestra probabilidad de vivir en ella es de un 50% (o somos la civilización que en el futuro producirá la simulación o somos la simulación misma); pero si nuestros parientes deciden hacer más de una, las probabilidades de ser una civilización real van bajando: 1/3, 1/4, 1/5… Si decidieran hacer un “laboratorio de simulaciones”, pongamos 50 mundos virtuales, la probabilidad de ser una civilización no simulada sería nimia (0,02%) o, con la cifra inversa que suena más contundente: tendríamos un 99,98% de probabilidad de vivir en un mundo simulado.

Este es el original argumento del transhumanista profesor de filosofía en Oxford, Nick Bostrom. Obviamente, las dificultades se hacen patentes enseguida ya que hay que aceptar muchísimos presupuestos para que el argumento sea válido: todas las tesis de la AI fuerte, a saber, que todos los aspectos de la mente humana pueden ser computables (sensaciones, emociones, recuerdos, subjetividad, etc.), que son independientes del substrato (pueden darse en chips de silicio igual que en neuronas), que es posible crear un ordenador que los compute, que ese poder de computación estimado pueda realizarse técnicamente, etc. Muchos filósofos, seguramente, no estarán dispuestos a asumir tanto, además de que, a mí personalmente, los argumentos basados en la probabilidad siempre me han parecido engañosos, como si esconden un sofisma que no se ve a primera vista. El de Bostrom me huele mal desde el principio, pero he de reconocer que abre paso a muchas reflexiones, y eso es más que suficiente para tenerlo en cuenta.

Aquí tenéis el artículo traducido al castellano, donde Bostrom, además, reflexiona sobre los matices y las consecuencias de aceptar esta controvertida tesis. Supe de Bostrom a través del magnífico Pseudópodo, que además, tiene varios post dedicados. Otro argumento parecido, que además es citado por Bostrom, es el del Juicio Final, pero éste, adolece, a mi juicio, de problemas incluso más graves aunque es igualmente divertido y sugerente.

1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.

Si la vanguardia de la robótica es una cabeza de canguro que mira donde tú miras, estamos lejos, lejos de conseguir algo realmente sorprendente. ¿Alguien se cree que Kismet tiene realmente conducta emocional? ¿Alguien se cree que Kismet siente empatía con sus interlocutores? A lo sumo tenemos un más o menos competente imitador de los gestos que acompañan a las emociones sin sentir realmente emociones (en lo cual estamos igual que en el siglo IV a.C.). De aquí a la AI de Spielberg va un océano.

Léase Alabada sea su divinidad robótica.

En las míticas conferencias de Dartmouth, los pioneros de la IA pronosticaron que en unos pocos años tendríamos seres mecánicos con las mismas características que el ser humano. Alan Turing, Marvin Minsky o John McCarthy pensaban que las computadoras tendrían conducta inteligente e incluso consciencia y emociones en unas décadas. Desde la filosofía, pronto se lanzó una feroz crítica a estas pretensiones: John Searle, Herbert Dreyfus, Joseph Weizenbaum o Margaret Boden se apresuraron en mostrar los problemas filosóficos existentes tras tales pretensiones. Filósofos e ingenieros se enzarzaron en una ardua polémica (bueno, más bien sólo filósofos con filósofos. Los ingenieros siguieron trabajando como si la filosofía no existiera, cosa que han hecho siempre). En la actualidad parece que los filósofos han ganado la partida ya que, a parte de que sus ataques fueron bastante certeros en algunos casos (es muy famoso el argumento de la habitación china de Searle) y a que es más fácil destruir que construir, las promesas de Dartmouth están aún muy lejos de conseguirse.

Jaron Lanier ha revitalizado la polémica en un reciente artículo en donde acusa a estas exageradas pretensiones de la AI de ser la nueva ideología de moda, la nueva pseudoreligión que acompaña nefastamente el desarrollo de las ciencias de la computación provocando, según Lanier, una mala comprensión de las mismas y de lo que es realmente el hombre.

Son ciertas las pretensiones mesiánicas de muchos tecnofílicos. Hemos leído con cierta frecuencia fabulaciones como que podremos descargar nuestra mente en ordenadores consiguiendo la inmortalidad o, de modo apocalíptico, que acabaremos siendo esclavizados o exterminados por beligerantes máquinas futuristas. El gran guru de la IA, Raymond Kurzweil habla con total naturalidad de la singularidad tecnológica, momento histórico en el cual las máquinas serán tan superiores al ser humano actual que nos es imposible establecer cualquier tipo de predicción del futuro desde ese momento. Leo en El hombre mecánico de Hans Moravec:

Lo que nos espera no es el olvido, sino un futuro que, desde nuestra ventajosa situación actual, se puede describir con las palabras “posbiológico” o, mejor aún, “sobrenatural”. En este mundo, la marea del cambio cultural ha barrido al género humano y lo ha sustituido por su progenie artificial. Las consecuencias finales todavía nos resultan desconocidas, aunque muchos de los pasos intermedios no sólo son predecibles sino que ya se han dado. En la actualidad, nuestras máquinas son todavía creaciones simples que precisan los cuidados maternales y la atención constante de todos los recién nacidos. Y no se puede decir que merezcan el calificativo de “inteligentes”. Pero en el curso de un siglo madurarán, se convertirán en seres tan complejos como nosotros y, finalmente, en entes que trascenderán todo lo que conocemos, de los que nos podremos sentir orgullosos y considerarlos nuestros propios descendientes.

Nótese que Moravec no duda en hablar de la futura generación de máquinas inteligentes como seres sobrenaturales como si no pasara nada. Y es que la advertencia de Lanier es muy cierta:

1. Que en una ciencia se introduzcan elementos propios de las religiones es en sí nefasto. La ciencia ha de huir del ethos de la religión, no acercarse a él. La predicción salvajemente especulativa sin base empírica (a lo sumo apoyada en una discutible ley de Moore) nos recuerda a la espera cristiana de la segunda llegada de Dios.  No dejemos que vicios que ya creíamos superados vuelvan a introducirse en la ciencia.

2. Ésto sólo a causado que se cancele la financiación de interesantes proyectos en AI debido a lo irreal de sus objetivos. Si en vez de prometer replicas de humanos habláramos sólo de sistemas expertos que sirven de ayuda profesional seguro que los mecenas verían la gran utilidad de estos ingenios sin defraudarse por no encontrarse con HAL 9000.

3. Al contrario que la mayoría de los filósofos, yo no encuentro contradicción alguna a la posibilidad de que puedan crearse seres artificiales que tengan formas de consciencia e, incluso, poseer emociones. Sin embargo, reconozco tanto que podría haberla y aún no la conocemos, como que aún estamos lejísimos de conseguirlo. Seguramente que el modelo computacional actual no es el adecuado para representar el pensamiento humano (o, simplemente, es todavía muy sencillo) y nuestra tecnología es tan pobre que no da ni para hacer predicciones a corto plazo de lo que podríamos conseguir en el campo de la computación; más aún cuando su avance está sujeto a los devenires propios de cualquier progreso histórico: la economía, los cambios socio-culturales, las modas… e incluso los caprichos de ese extraño ser que se resiste tanto a ser replicado al que llamamos hombre.

 

Véase El Bushido de HAL

Cerca del final de su vida, Alan Turing, escribió en una carta a su amigo Norman Routledge este terrible silogismo:

Turing cree que las máquinas piensan

Turing yace con hombres

Luego las máquinas no piensan

Aparte de que su homosexualidad fuera un pecado demasiado grande para ser perdonado por la religiosidad victoriana de la época (no es casual que Turing utilice la locución bíblica “yacer con”), la creencia en que lo exclusivamente humano pudiera ser extensible a seres de silicio era, y sigue siendo, una blasfemia que acabó tanto con su vida como con su legado (gran parte de sus ideas se las atribuyeron a nuestro Von Neumann).

¿Después de Copérnico, Darwin y Freud, será Turing el nuevo leñador que hará caer el maltrecho árbol del antropocentrismo?

PD: Por si acaso alguien no lo sabe el logo de Apple representa la manzana bañada en cianuro con la que Turing se suicidó (o eso creíamos. Véase la entrada de Friedrich más abajo).

La sugerente forma con la que Chalmers plantea el problema duro de la conciencia va a tener una interesante aplicación al problema del origen evolutivo de la misma. Supongamos que la evolución (o los ingenieros de AI) diseñan una entidad, ya sea orgánica o mecánica, que puede realizar las mismas funciones fenoménicas que un ser humano pero sin tener ningún tipo de autoconciencia ni de estados internos ni emociones o deseos (sin los famosos qualia). Esas entidades serían capaces de resolver ecuaciones, escribir libros, o cualquier otra acción de la que fuera capaz un humano, de tal modo que pasarían el Test de Turing a todos los niveles. Chalmers adjetiva con humor a estos seres como “zombis” recalcando la idea de que, a pesar de que “parecieran humanos” en todas sus características, al no tener subjetividad, estarían de algún modo “desalmados” como los zombis hollywoodienses, habría algo tétrico, inhumano en ellos.

Si estos zombis fueran posibles se plantearían una serie de dilemas filosóficos. En primer lugar, la idea parece apuntar a un dualismo. Si los zombis son físicamente idénticos a nosotros y pueden realizar nuestras mismas funciones, la única cosa que nos diferencia de ellos es que tenemos estados internos, tenemos subjetividad. Como somos físicamente idénticos, lo físico no puede explicar lo mental o, como mínimo, lo mental no puede ser reducido a físico. Los zombis serían nuestras tristes copias monistas, siendo el ser humano un compuesto de materia y mente, dos sustancias diferentes. Materia y mente quedan separadas en una vuelta al cartesianismo. Y en segundo lugar, ¿qué sentido tendría el hecho de que tengamos conciencia si una entidad sin ella podría realizar las mismas cosas y con la misma efectividad que nosotros? ¿Por qué la evolución se habría preocupado en generar conciencia cuando con sólo crear zombis hubiera conseguido los mismos resultados? ¿No es la conciencia algo redundante en términos evolutivos? Esta perspectiva podría constituir una prueba de que la mente no es explicable desde la teoría darwiniana, consecuencia lógica de lo anterior: la mente no se reduce a lo físico como tampoco a lo biológico, ha de ser explicada desde otras instancias.

Ingenioso dilema si no fuera porque el planteamiento de Chalmers es erróneo. Si los zombis fueran físicamente exactamente iguales a los seres humanos generarían necesariamente conciencia. Si la evolución o la AI consiguieran hacer estructuras físicas idénticas a las humanas, tendrían subjetividad exactamente igual que nosotros. Afirmar que un ser físicamente igual que nosotros no tendría conciencia es como pensar que diseñamos dos relojes despertadores idénticos, y uno suena y otro no, no habiendo causa física para que el segundo no suene. La posibilidad de los zombis nos haría aceptar que un sistema físico pierde “por arte de magia” una de sus características.

Sin embargo, podría objetarse que sería posible crear zombis que fueran funcionalmente idénticos a nosotros aunque físicamente no lo fueran. Sólo haría falta que pudieran imitarnos a la perfección en todo lo que hacemos de modo que pasaran el Test de Turing a pesar de ser, por ejemplo, un manojo de chips de silicio. Es el caso de los programas de ajedrez: no habría forma de saber si uno juega contra un programa o contra un humano a pesar de que los mecanismos psicológicos que utiliza el ser humano para planificar y realizar sus jugadas no tienen nada que ver con los que hace la máquina (que realiza millones de jugadas por segundo). Aceptando el caso de que pudiéramos crear zombis funcionales para la totalidad de las características del ser humano (es un hecho que lo hemos conseguido para muchas, pero quizá improbable para todas) eso no implicaría que estuviéramos ante un ser humano sino sólo ante una excelente copia cuya estructura es diferente. Estos pseudohumanos podrían engañarnos en apariencia, pero si tuviésemos acceso a su estructura comprobaríamos que no son realmente humanos, al igual que cuando tenemos acceso al software de un programa de ajedrez comprobamos que no estamos ante una mente humana. Y es que el argumento de Chalmers cae en una petición de principio. En sus premisas ya se esconde el dualismo al que parece llegarse en la conclusión. Al partir del hecho de que unos zombis sin estados internos son físicamente indistinguibles de los reales ya se está dando por supuesto el dualismo. Precisamente, un zombi sin estados mentales sí sería físicamente distinguible de un hombre si partimos de un monismo materialista o fisicalista. A la postre, el dilema de los zombis no sirve ni para defender el dualismo ni el monismo, no sirve para nada.

Los desalmados zombis de Chalmers tan fallidos como defensa del dualismo como pésimas son las películas de George A. Romero (excepto para los amantes de la serie B). En cualquier caso, si os encontrárais con alguno recordad que hay que dispararles a la cabeza, si puede ser, con buenos argumentos. Yo habitualmente suelo encontrarme con unos treinta por clase.