Posts etiquetados ‘inteligencia artificial’

pinzas-10ud-4

Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad.

Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato.

Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el  que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial.

Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo.

Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libremercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra?

Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital pero al agudo nerd se le ocurrió un método para el que no hacia falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores…

De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló:

– Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies.

De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

terminator-2-1200x873

Mensaje antiplatónico par excellence: no existe nada que esencial, o lógicamente, ligue un hecho ético (o, más bien, la interpretación ética de un hecho) del mundo y un estado emocional placentero.  A partir del descubrimiento de las sustancias psicoactivas, nos dimos cuenta de que para conseguir una sensación o emoción no es necesaria la presencia de tal hecho o, ni siquiera, del estado mental que lo preceda y lo cause.  La alegría que hubiéramos obtenido si nos hubiera tocado la lotería de Navidad, podemos conseguirla, e incluso intensificarla, ingiriendo un compuesto de prosaicas moléculas, sin que, realmente, nos toque ni un céntimo. Es más, con una calculada dosis, ya no diremos de la brutal etorfina, sino de fentanilo (peligrosísima) o de oxicodona, podrías sonreír de un indescriptible placer mientras te corto un brazo.

Este descubrimiento tiene unas consecuencias brutales. La mayor parte de las concepciones de la ética dadas a lo largo de la historia (con la honrosísima excepción de la genial ética kantiana) prometían un estado final de felicidad, a condición de seguir una serie de, a menudo muy duros, preceptos. La ataraxia griega, el nirvana budista o la visión deifica cristiana, son estados, en gran medida emocionales, que se obtienen después de  un largo proceso que, a menudo, puede durar toda una vida. El sentido de tu existencia, lo que debes hacer día a día, está sujeto a la obtención de ese premio final. Sin embargo, llegamos a día de hoy y conseguimos el premio sin el arduo proceso.

Se podría objetar que ese estado de felicidad artificial, ese paraíso químico, sería falso, un disfraz conseguido haciendo trampas, algo inauténtico, postizo ¿Por qué? Esta objeción encierra una confusión: la emoción que se consigue al ingerir un psicotrópico no tiene absolutamente nada de falso, es tan real como la conseguida sin la ingesta. Lo falso, o más bien lo ausente, es el suceso generador de la emoción, no la emoción misma.

Se sigue objetando: pero lo realmente valioso es el camino, no únicamente el resultado. Respondemos: podemos ponderar lo que obtenemos en cada fase del camino y ver si compensa o no perderlo en virtud de conseguir, inmediatamente y sin esfuerzo, el bien final. En algunos ejemplos está claro: pensemos en las millones de personas que se están machacando en el gimnasio por lucir un bonito cuerpo cuando llegue el verano. Si yo les dijera que, puedo conseguirles ese cuerpo deseado sin el más mínimo coste, tomando una pastilla que no tiene efecto secundario alguno… ¿No la tomarían sin dudar? ¿No sería estúpido decir que no, que prefieren sufrir levantando pesas y comiendo brócoli?

Las pocas experiencias que he tenido con drogas duras (con las mal llamadas blandas, como el tabaco o el alcohol, he tenido muchísimas) fueron en mi época universitaria (juventud: bendita idiotez). Recuerdo una noche en la que probé una pastilla de MDMA. Cuando la ingerí estaba ya completamente borracho (si no, seguramente, mi superyó bien aleccionado me hubiera impedido tomarla) pero al cabo de unos treinta minutos mi estado etílico cambio radicalmente hacia algo muy diferente. Sentí una felicidad inmensa, una plenitud absoluta, una comunión total con el cosmos… Todo tenía sentido y todo era completamente maravilloso. Nunca antes había sentido un amor hacia la vida y hacia todos los seres humanos similar. Sinceramente, esas horas de efecto del MDMA han sido las más felices de mi vida (y no soy una persona especialmente desgraciada). Nunca he vuelto a sentir emociones tan agradables con esa intensidad. Y, paradójicamente, eso es lo que me aterró de las drogas y lo que consiguió que, finalmente, no terminará siendo un yonki en cualquier parque. Me dio mucho miedo saber que lo que había tomado era demasiado bueno y comprendí lo brutal que debería ser el reverso tenebroso de algo así. Entendí por qué un yonki de cualquier parque es plenamente consciente de su penosa situación y, aún así, prefiere seguir drogándose a tener una vida. No volví a probarlo.

Sin embargo, de lo que no quedé nada disuadido, es de aceptar el uso de drogas que no tengan efectos secundarios significativos. Sería la utopía del utilitarismo hedonista: una sociedad en la que todo el mundo tenga acceso a la mayor felicidad posible. Es más, lo que sería inmoral sería privar a la gente de unas sensaciones de bienestar semejantes. Y, siguiendo esa lógica, nada parece alejarnos de un futuro en el que el uso de psicotrópicos de diversa índole sea cada vez más usual (de hecho ya lo es). Pero quizá un futuro emocionalmente paradisíaco puede esconder algo, como mínimo, inquietante. Sabemos, desde experimentos realizados en la década de los cincuenta del siglo pasado, que ratas de laboratorio preferían tomar cocaína a comer o a beber, dejándose morir con tal de seguir consumiendo su droga. Y es que los sistemas de recompensa emocional del cerebro tienen un fin evolutivo claro: moverte a actuar para obtener placer o evitar el sufrimiento ¿Qué ocurre entonces cuando no hay sufrimiento y se vive en un estado de placer constante? Que el individuo ya no tiene nada que hacer, que no hay nada que pueda motivar su conducta.

Un futuro así sería como un colosal fumadero de opio en el que miles de sujetos vivirían enchufados a aparatos que les suministraran regularmente la dosis adecuada, quizá siempre durmiendo o, simplemente, ensimismados en hermosísimas ensoñaciones, quizá sin hablar con nadie más (¿para qué las relaciones sociales?) o no, pero, seguramente, sin hacer prácticamente nada: solo lo necesario para mantenerse vivos y drogados. Aquí, si que el tiempo histórico quedaría congelado. No se evolucionaría hacia nada más ya que, esta vez sí, estaríamos ante el auténtico fin de la historia de Fukuyama.

Este futuro utópico, o distópico según se mire, casaría perfectamente con el advenimiento de la singularidad tecnológica de la IA. Si construimos inteligencias artificiales que nos superen abrumadoramente, y si hemos sido lo suficientemente listos para conseguir que no nos exterminen, podría pasar algo así: las máquinas tomarían el mando de la historia y se dedicarían solo Skynet sabe a qué, mientras dejarían a sus venerables, aunque patéticamente inferiores creadores, viviendo en un inofensivo paraíso. Entonces, poseamos superdrogas o no, tendremos que enfrentarnos a algo a lo que nuestro frágil ego humano no está acostumbrado: la irrelevancia ¿Aceptará el hombre perder el protagonismo de su historia? ¿Aceptará perder el mando, aún a sabiendas de estar en mejores manos que en las suyas propias? Sería un caso de interesante dilema moral: ¿libertad o felicidad? La respuesta sería fácil para los drogados: seguir en su paraíso toda la eternidad y que gobiernen otros. La responsabilidad del gobierno trae demasiadas preocupaciones y dolores de cabeza.

O quizá, la historia podría continuar por otros derroteros: es posible que los seres humanos no nos quedásemos del todo quietos, sino que siguiéramos buscando formas de placer aún más poderosas. Quién sabe si pondríamos a la IA a nuestro servicio para conseguir placeres que ahora no alcanzamos ni a imaginar. Pensemos en diseño de cerebros a los que se aumenta su capacidad de sentir, con circuitos de placer hiperdesarrollados, que viven en un mundo de realidad virtual en el que todo está pensado para estimular cascadas de opioides, maravillosas tormentas cerebrales de una potencia inusitada. La historia de la humanidad se convertiría en la búsqueda de paraísos dentro de paraísos.

Pensemos en el mejor sueño que hayamos tenido y pongamos detrás de el a un asistente computerizado que sabe lo que nos gusta mucho mejor que nosotros. Recomiendo ver Más allá de los sueños (1998) de Vincent Ward. La película es mala pero sus efectos visuales (que ganaron un Óscar) pueden ilustrar muy bien a lo que nos referimos: imagina caminar de la mano con una bella mujer (quizá con esa chica que nos gustaba en el instituto y que ya no sabes nada de ella), por el cuadro más hermoso que se te ocurra, mientras escuchamos una increíble sinfonía (la Lacrimosa de Preisner o el Dúo de las flores de Delibes) , a la vez que nuestros centros cerebrales de placer se disparan como fuegos artificiales, haciéndonos sentir una especie de orgasmo infinito… Vivir eternamente en ese día de verano de cuando teníamos doce años y no había nada que hacer, ninguna preocupación, y todo era nuevo…

paisajes-naturales-pinturas-al-oleo-sobre-lienzo_21

Por si alguien no ha leído mi último artículo en Xátaka, va sobre otro posible futuro: precrimen.

Y feliz Navidad máquinas mías.

bahamas_2836_600x450

Dice Marvin Minsky que la mejor forma de comprender la mente es construyendo una. Estamos de acuerdo, así que vamos a ver uno de los intentos clásicos de hacerlo. En 1957, Simon, Shaw y Newell, diseñaron uno de los grandes hitos de la historia de la Inteligencia Artificial: el General Problem Solver. Era un programa creado para solucionar cualquier problema de tipo general, rompiendo con la preconcepción de que las máquinas solo podían resolver problemas muy específicos. Su estructura, muy simplificada, venía a ser la siguiente:

Sin título

El GPS funcionaba realizando una analogía entre su situación actual y el objetivo a cumplir, efectuaba un análisis de las diferencias entre ambos estados, utilizaba métodos para reducir las diferencias, y luego volvía a realizar la analogía inicial hasta que no existiesen diferencias entre el estado actual y el estado deseable. El diseño es muy interesante, sobre todo, por las similitudes que parece reflejar con respecto a la forma que tenemos los seres humanos de solucionar problemas, manteniendo, empero, una estructura muy simple:

1. Al realizar una comparación entre su situación y sus objetivos, tiene una cierta representación de sí mismo. Si quiero irme de viaje a las Bahamas, lo primero que tengo que saber es que YO no estoy en las Bahamas. Estaríamos todavía a años luz de la autoconsciencia, pero ya es un paso.

2. Para reducir las diferencias, el GPS podía suspender momentáneamente su objetivo principal para resolver sub-objetivos. Esto es una característica plenamente humana: suspender las urgencias del presente en pro de un objetivo futuro, es decir, planificar una acción en pasos. Si quiero irme a las Bahamas tengo que solucionar sub-problemas como pagar los billetes de avión, hacer las maletas, coger un taxi al aeropuerto, etc. Cuando queremos solucionar un gran problema, una buena forma de hacerlo es dividirlo en problemas más pequeños.

3. El GPS razonaba por analogía, quizá la forma humana más habitual de razonar. ¿Cómo sé que hay que hacer para viajar a las Bahamas? Porque antes he realizado otros viajes o porque he visto a otros hacerlos. Realizo analogías entre ese conocimiento previo y el problema al que me enfrento. Si yo viajé antes a Hawai, también hice las maletas y cogí un taxi al aeropuerto, pero a la hora de comprar los billetes de avión ahora tendré que comprarlos para Bahamas y no para Hawai y, probablemente, el precio será diferente. Hay similitudes que utilizaré sin problemas y diferencias que tendré que solucionar.

Sin embargo (ah, el siempre triste sin embargo), el GPS tenía el defecto que, hasta la fecha, no ha podido solucionarse (y del que ya hemos hablado en muchas entradas). Si realizar una analogía entre como estoy y lo que quiero hacer no parece presentar demasiados problemas, encontrar métodos de reducción de diferencias sí. Cuando nuestra máquina se encuentra en el aeropuerto y comprueba que “comprar un billete para Hawai” no le llevará a las Bahamas tiene que saber, de algún modo, que “en un aeropuerto pueden comprarse billetes a muchos sitios diferentes”. Si no sabe eso, es imposible que pueda solucionar tan simple problema. Y es que el GPS solo funcionaba en entornos muy formalizados, no en el mundo real. Estamos ante el enigma del sentido común: si el GPS podía resolver teoremas matemáticos de gran complejidad, no podría comprar un billete de avión.

Una forma de entender este dilema se ha formulado afirmando que cuando realizamos cualquier acción existe un montón de conocimiento implícito que excede el conocimiento de una simple descripción simbólica como la que maneja un computador. Douglas Lenat nos ofrece un magnífico ejemplo de ello: analicemos la frase “Fred le dijo al camarero que él quería patatas fritas a la inglesa”. ¿Qué tenemos que saber para entender esta afirmación?:

La palabra él se refiere a Fred, y no al camarero. Eso sucedía en un restaurante. Fred era un cliente que estaba cenando allí. Fred y el camarero se encontraban más o menos a un metro de distancia. El camarero trabajaba allí y en aquel momento estaba atendiendo a Fred.

Fred quiere patatas en rodajas finas, no en tiras. Fred no desea unas patatas determinadas, sino solo un tipo determinado de patatas.

Fred indica esto mediante las palabras habladas que dirige al camarero. Tanto Fred como el camarero son seres humanos. Ambos hablan el mismo idioma. Ambos tienen edad suficiente para poder expresarse, y el camarero tiene edad suficiente para trabajar.

Fred tiene hambre. Desea y espera que en unos minutos el camarero le traiga una ración normal, que Fred empezará a comer en cuanto le sirvan.

Asimismo podemos suponer que Fred supone que el camarero también supone todas esas cosas.

No hay más que decir: o el GPS sabe o puede deducir todo este conocimiento implícito, o jamás podrá resolver problemas que ocurran cuando tenga que pedir una ración de patatas en un restaurante. La solución que se dio fue la de crear sistemas expertos. Podríamos dotar al GPS de un montón de conocimiento sobre todos los pasos que hay que dar para realizar un viaje o comer en un restaurante. No obstante, al hacerlo, estamos incumpliendo nuestro propósito inicial, a saber, que nuestra máquina solucione cualquier tipo de problemas y no únicamente problemas específicos. Este es el asunto en el que la Inteligencia Artificial lleva estancada durante las últimas décadas y que no tiene demasiados visos de resolverse a corto plazo.

Véanse, en la misma línea:

Contexto o como no montar una orgía

Cero en conducta

El límite Winograd

El mismo Lenat lleva años intentando dotar a las máquinas de sentido común. En esta entrada hablé de su encomiable proyecto: la inteligencia son cien millones de reglas.

Roger Penrose dedicó bastante más tinta en defender  los argumentos de Shadows of Mind que en escribir dicha obra. En una de sus contrarréplicas, publicada en la revista Psyche (Enero, 1996), nos ofrece una de las versiones más claras de su famoso argumento.

Supongamos que todos los métodos de razonamiento matemático humanamente asequibles válidos para la demostración de cualquier tesis están contenidos en el conjunto F. Es más, en F no sólo introducimos lo que entenderíamos como lógica matemática (axiomas y reglas de inferencia) sino todo lo matemáticamente posible para tener un modelo matemático del cerebro que utiliza esa lógica (todos los algoritmos necesarios para simular un cerebro). F es, entonces, el modelo soñado por cualquier ingeniero de AI: un modelo del cerebro y su capacidad para realizar todo cálculo lógico imaginable para el hombre. Y, precisamente, ese es el modelo soñado porque la AI Fuerte piensa que eso es un ser humano inteligente. Así, cabe preguntarse: ¿Soy F? Y parece que todos contestaríamos, a priori, que sí.

Sin embargo, Roger Penrose, piensa que no, y para demostrarlo utiliza el celebérrimo teorema de Gödel, que venimos a recordar a muy grosso modo: un sistema axiomático es incompleto si contiene enunciados que el sistema no puede demostrar ni refutar (en lógica se llaman enunciados indecidibles). Según el teorema de incompletitud, todo sistema axiomático consistente y recursivo para la aritmética tiene enunciados indecidibles. Concretamente, si los axiomas del sistema son verdaderos, puede exhibirse un enunciado verdadero y no decidible dentro del sistema.

Si yo soy F, como soy un conjunto de algoritmos (basados en sistemas axiomáticos consistentes y recursivos), contendré algún teorema (proposiciones que se infieren de los axiomas de mi sistema) que es indecidible. Los seres humanos nos damos cuenta, somos conscientes de que ese teorema es indecidible. De repente nos encontraríamos con algo dentro de nosotros mismos con lo que no sabríamos qué hacer. Pero en esto hay una contradicción con ser F, porque F, al ser un conjunto de algoritmos, no sería capaz de demostrar la indecibilidad de ninguno de sus teoremas por lo dicho por Gödel… Una máquina nunca podría darse cuenta de que está ante un teorema indecidible. Ergo, si nosotros somos capaces de descubrir teoremas indecidibles es porque, algunas veces, actuamos mediante algo diferente a un algoritmo: no sólo somos lógica matemática.

Vale, ¿y qué consecuencias tiene eso? Para la AI muy graves. Penrose piensa no sólo que no somos computadores sino que ni siquiera podemos tener un computador que pueda simular matemáticamente nuestros procesos mentales. Con esto Penrose no está diciendo que en múltiples ocasiones no utilicemos algoritmos (o no seamos algoritmos) cuando pensemos, sólo dice (lo cual es más que suficiente) que, habrá al menos algunas ocasiones, en las que no utilizamos algoritmos o, dicho de otro modo, hay algún componente en nuestra mente del cual no podemos hacer un modelo matemático, qué menos que replicarlo computacionalmente en un ordenador.

Además el asunto se hace más curioso cuanto más te adentras en él. ¿Cuáles podrían ser esos elementos no computables de nuestra mente? La respuesta ha de ser un rotundo no tenemos ni idea, porque no hay forma alguna de crear un método matemático para saber qué elementos de un sistema serán los indecidibles. Esto lo explicaba muy bien Turing con el famoso problema de la parada: si tenemos un ordenador que está procesando un problema matemático y vemos que no se para, es decir, que tarda un tiempo en resolverlo, no hay manera de saber si llegará un momento en el que se parará o si seguirá eternamente funcionando (y tendremos que darle al reset para que termine). Si programamos una máquina para que vaya sacando decimales a pi, no hay forma de saber si pi tiene una cantidad de decimales tal que nuestra máquina tardará una semana, seis meses o millones de años en sacarlos todos o si los decimales de pi son infinitos. De esta misma forma, no podemos saber, por definición, qué elementos de nuestra mente son no computables. A pesar de ello, Penrose insiste en que lo no computable en nuestra mente es, nada más y nada menos, que la conciencia, ya que, explica él, mediante ella percibimos la indecibilidad de los teoremas. Es posible, ya que, aunque a priori no pudiéramos saber qué elementos no son decidibles, podríamos encontrarnos casualmente con alguno de ellos y podría ser que fuera la conciencia. Pero, ¿cómo es posible que nuestro cerebro genere conciencia siendo el cerebro algo aparentemente sujeto a computación? Penrose tiene que irse al mundo cuántico, en el que casi todo lo extraño sucede, para encontrar fenómenos no modelizables por las matemáticas y, de paso, resolver el problema del origen físico de la conciencia.

Las neuronas no nos valen. Son demasiado grandes y pueden ser modelizadas por la mecánica clásica. Hace falta algo más pequeño, algo que, por su naturaleza, exprese la incomputabilidad de la conciencia. Penrose se fija en el citoesqueleto de las neuronas formado por unas estructuras llamadas microtúbulos. Este micronivel está empapado de fenómenos cuánticos no computables, siendo el funcionamiento a nivel neuronal, si acaso, una sombra amplificadora suya, un reflejo de la auténtica actividad generadora de conciencia. ¡Qué emocionante! Pero, ¿cómo generan estos microtúbulos empapados de efectos cuánticos la conciencia? Penrose dice que no lo sabe, que ya bastante ha dicho…

O sea señor Penrose, que después de todo el camino hecho, al final, estamos cómo al principio: no tenemos ni idea de qué es lo que genera la conciencia. Sólo hemos cambiado el problema de lugar. Si antes nos preguntábamos cómo cien mil millones de neuronas generaban conciencia, ahora nos preguntamos cómo los efectos cuánticos no computables generan conciencia. Penrose dice que habrá que esperar a que la mecánica cuántica se desarrolle más. Crick o Searle nos dicen que habrá que esperar a ver lo que nos dice la neurología… ¡Pero yo no puedo esperar!

Además, ¿no parece extraño que la conciencia tenga algo que ver con el citoesqueleto de las neuronas? La función del citoesqueleto celular suele ser sustentar la célula, hacerla estable en su locomoción… ¿qué tendrá que ver eso con ser consciente? Claro que en el estado actual de la ciencia igual podría decirse: ¿qué tendrá que ver la actividad eléctrica de cien mil millones de neuronas con que yo sienta que me duele una muela?

HAL, quiero que seas capaz de reconocer las letras del vocabulario mediante tus sensores visuales. Empecemos por la “a”. Voy a darte un patrón para que reconozcas los diferentes tipos de aes que puedas encontrarte.

De acuerdo Dave. Introduce el patrón.

Su forma se asemeja a un triángulo.

ERROR. La “a” minúscula suele ser redondeada.

Tiene un hueco aproximadamente en el centro.

ERROR. Por ejemplo, en la imagen de arriba, la tercera y la cuarta “a” de la última fila no tienen huecos en el centro. O la última de todas, que es un hueco toda ella, siendo el relleno su fondo.

Una línea horizontal cruza otras dos líneas aproximadamente verticales.

ERROR. La “a” minúscula no tiene línea horizontal. Igualmente, hay un montón de ejemplos de aes sin línea horizontal en la imagen.

¿Cómo es posible? ¿Cómo puede ser que ya desde niños seamos capaces de identificar todo el abecedario sin dificultad alguna, pero que reconocer simplemente la letra “a” sea uno de los  grandes desafíos de la inteligencia artificial? La respuesta es que estamos muy acostumbrados a pensar con ideas claras y distintas tal como nos enseñó Descartes. Queremos un patrón único que defina límpiamente la letra “a”, de modo que el computador la identifique de un modo fácil y 100% seguro.  Queremos algo así como la esencia de la “a”. Pedimos demasiado. Seguramente la forma en la que el ser humano identifica letras es mucho menos precisa, más desordenada y funciona por vagas aproximaciones  y tentativas. ¿Por qué en vez de utilizar una única condición y lógica bivalente, utilizamos más condiciones y en diferentes proporciones? ¿Qué tal si probáramos algo así?:

HAL, sigue estos patrones:

Si su forma se asemeja a un triángulo suma un 60% de probabilidades de estar ante una “a”, si no resta 30%

Si tiene un hueco aproximadamente en el centro suma un 20% de probabilidades, si no resta 40%

Si tiene una línea horizontal curzando otras dos líneas aproximadamente verticales suma otro 50%, si no resta 30%

Si tiene un rabillo al final suma un 30% si no resta un 5%

Incluso podemos intruducir datos contextuales:

Si está entre dos consonantes hay un 90% de que sea vocal.

Si es vocal habrá un 20% de que sea una “a”.

HAL se equivocaría muchas veces (con toda certeza que muchas, ya que los percentiles los he puesto más o menos a bote pronto), pero podríamos ir refinando las condiciones en función de sus aciertos. Sabemos que el cerebro procesa mucha cantidad de información en paralelo y, seguramente, que mucha de esa información será parcial y contradictoria, de modo que, al final, las decisiones sean probabilísticas y, muchas veces, equívocas. ¿No es así como actuamos nosotros en nuestra vida cotidiana? Ya sabemos que nuestro cerebro es un kludge. Pues en esta línea apuntan las investigaciones en visión artificial de las últimas décadas, y quizá sea la forma de afrontar muchos otros problemas dentro de la AI. Señores, si queremos imitar al hombre no hay que construir máquinas perfectas, sino chapuzas que, de modo casi inexplicable, funcionen muy bien.

 

Y, ¿por qué es tan importante recrear la inteligencia humana?

Para la mayoría de las personas no es importante. Para gente que tenga un punto de vista más amplio una respuesta posible es que, hasta donde sabemos, es probable que seamos la única especie inteligente en el universo, y es posible que haya un accidente. Sabemos que en cinco billones de años el sol se convertirá en un gigante rojo que todo lo freirá, así que todo se irá a la basura. Sabemos que en unos pocos trillones de años, las estrellas desaparecerán y, según la teoría física de la actualidad, el universo desaparecerá. Pues bien, todavía no tenemos la inteligencia para arreglar esto, pero tal vez podríamos hacerlo si fuéramos más inteligentes.

¿Mediante el diseño de nueva inteligencia?

Mediante la construcción de un universo alternativo al que podamos mudarnos. Si no, todo será una pérdida. Así que desde este punto de vista, todo lo que hace la gente hoy en día no tiene valor ni uso alguno, porque desaparecerá sin dejar ningún rastro. El poder diseñar a uno de nosotros o reemplazarnos con algo más inteligente que pueda arreglar el universo y hacer uno mejor para mudarnos a él… esa debería ser nuestra prioridad principal. Ahora bien, si uno no vive en el mundo de la ciencia ficción, todo esto puede sonar bastante tonto. Pero si uno vive en mi mundo, todo lo demás parece bastante tonto.

Marvin Minsky en una entrevista en Nova.
Visto en PhiBLÓGsopho.
Me parece fascinante, realmente fascinante, que la mayor preocupación de un tipo de la inteligencia y talento de Minsky sea que este universo va a desaparecer dentro de trillones de años y que, llegado el momento, no seamos lo suficientemente inteligentes para solucionar el problema. Es genial como concluye: para todo el mundo esto es una locura pero para los que viven en mi mundo, esto es lo esencial. Dios bendiga a los tipos como Minsky, realmente necesitamos más como él.

Una de las más espectaculares promesas de la IA fuerte es lo que llamamos mind uploading: la posibilidad de descargar nuestra mente en la memoria de un ordenador. Es una original propuesta de inmortalidad, dado que una memoria computacional física puede ser reparada en todas sus partes siendo potencialmente eterna. En un momento del futuro, toda la humanidad (o un selecto grupo de elegidos) podría ser volcada dentro de enormes memorias informáticas, dando el salto a un mundo virtual en donde la felicidad completa, antes sólo prometida postmortem, será alcanzada. El potencial especulativo de esta afirmación es enorme: ¿Podrían unirse varias mentes en una creando la emergencia de una  supermente colectiva? ¿Qué siente alguien viviendo dentro de un computador? ¿Podríamos apagar y volver a encender las mentes almacenadas?

Entre los muchos presupuestos necesarios para que la mind uploading sea posible se encuentra la independencia de substrato: nuestra mente puede funcionar exactamente igual independientemente de la base física que la sostenga. Lo importante sería replicar la estructura del sistema que nos permite pensar, no su material, de modo que si podemos copiar la estructura de nuestras intrincadas redes neuronales (wetware) en chips de silicio, dichos chips tendrán las mismas funciones que nuestro cerebro. Este dualismo soluciona, por ejemplo, el viejo enigma del barco de Teseo: ¿Cuántas piezas hay que cambiar a un barco para que ese barco ya no sea el mismo sino otro diferente? Desde la independencia de substrato diríamos que el cambio de piezas es indiferente para la identidad de cualquier ente. Lo esencial es su estructura, por lo que si el barco mantiene la estructura inicial seguirá siendo el mismo a pesar de no tener nada de su materia inicial.  La misma idea parece subyacer en las palabras de Sebastian Seung y su concepto de conectoma.

Cuando Seung dice que somos nuestro conectoma está queriendo decir que nuestras funciones cognitivas superiores son el resultado (o se identifican. Ignoro la postura que Seung tiene en este tema) de una complejidad estructural. Entonces, lo de menos es la base física, cualquiera vale, lo importante es meramente la complejidad estructural. Seung tiene la esperanza de que algún día se desvele el misterio y sepamos toda la exponencial cantidad de conexiones sinápticas. Sin embargo, esto encierra un grave problema que creo que no suele tenerse en cuenta y que reside, precisamente, en dar por sentada la independencia de substrato.

La conciencia, nuestros sentimientos y nuestros recuerdos surgen de esa intrincada red neuronal de un modo absolutamente desconocido a día de hoy. Los científicos, especialmente neurólogos e ingenieros de AI, tienen poca paciencia y quieren hacer un modelo del cerebro dejando de lado ese desconocimiento. Así, elaboran modelos matemáticos partiendo únicamente de la idea cajaliana de que las neronas son herramientas de transmisión de información que funcionan de modo discreto disparando pulsos eléctricos. Los diferentes modelos neuronales (desde los primeros intentos de McCulloh y Pitts, los perceptrones de Rosenblatt, hasta las redes de Hopfield o las máquinas de Boltzmann) parten de la base de que lo único que hacen las neuronas es lanzar o no pulsos eléctricos, de manera que su actuación puede formalizarse fácilmente en código binario. Los diferentes modelos intentan hacer el mayor número de operaciones (operaciones lógicas, memoria asociativa o reconocimiento de patrones) partiendo de esta hipótesis. Como en la realidad podemos encontrar elementos físicos biestables (cosas que puedan estar en dos estados diferentes el tiempo suficiente: el magnetismo de las memorias informáticas), podemos construir redes neuronales artificiales. Es curioso que nadie haya caído (o sí, vete tú a saber) en que en este planteamiento hay una contradicción inicial muy básica: si las neuronas sólo transmiten información, ¿cómo van a poder generar consciencia? ¿Es que la consciencia es sólo un pulso eléctrico o un transporte de información? No, responderían aireados, la consciencia surge de la complejidad de interconexiones eléctricas, no de las propiedades de los pulsos eléctricos entendidos individualmente. Pero, ¿qué significa realmente que algo pueda surgir de su complejidad estructural?

No significa nada, pues aquí está el error. Yo puedo hacer que mi computadora sea muy compleja en el sentido de que cada vez pueda resolver un número mayor de problemas matemáticos (de hecho los problemas con los que se enfrentan los ingenieros de redes neuronales artificiales son exclusivamente de índole matemático), pero no puedo hacer otra cosa. No, podríamos replicar, si yo conecto mi red neuronal artificial, por ejemplo, a un brazo robótico, podría emular los movimientos de un brazo humano. Los problemas matemáticos se traducen en replicar acciones humanas. Cierto, algunos problemas son de este tipo. Sin embargo, ¿cómo se espera resolver matemáticamente el problema de la conciencia? La conciencia es una entidad real, “física” en el sentido de estar en el mundo como lo está un mueble. No digo que la conciencia sea una cosa, pero sí que será un proceso o, de alguna manera, la propiedad de un sistema físico. Lo poco que sabemos es que la conciencia emerge (o se identifica, o es causada o lo que queramos decir aquí) de un determinado sistema físico: el cerebro. Un sistema, por otra parte, con unas propiedades fisico-químicas muy concretas. Entonces parece razonable pensar que las propiedades físico-químicas del cerebro tendrán mucho que ver con el fenómeno de la conciencia, del mismo modo que las propiedades físico-químicas del estómago tienen mucho que ver con la digestión. ¿En qué se basan entonces para decir que nuestra mente es un conectoma, una complejidad estructural independiente del substrato donde se realice? ¿Es que acaso hemos comprobado alguna vez que otra química diferente a la del carbono dé lugar a algún tipo de conciencia? ¿Es que acaso podemos encender fuego únicamente con un modelo matemático de la combustión?

Nada surge meramente de lo complejo, igual que nada es exclusivamente una estructura. Los ingenieros de AI piensan que si tenemos un mapa muy detallado de lo que es una gallina escrito en un papel, ya tenemos realmente una gallina. No, para hacer una gallina hacen falta átomos de gallina. Y quizá, los átomos de gallina tienen unas propiedades tales que sólo con átomos de gallina podemos hacer gallinas, y no con cualquier otro substrato que se nos antoje estructuralmente similar.  La independencia de substrato es una tesis que suele aceptarse con demasiada ligereza.

En el futuro parece muy razonable predecir que nuestra civilización (o quizá otras en otros lares del Universo) tenga una gran capacidad de cómputo.  Bostrom pone varios casos, por ejemplo el del diseño de Erik Drexler (un sistema del tamaño de un cubo de azúcar que podría llevar a cabo 10²¹ instrucciones por segundo). Con tal poder, generaciones futuras podrían realizar simulaciones detalladas de las vidas de sus antepasados (o de otros seres cualquiera que dé su imaginación y sus posibilidades técnicas). Es más, sería lógico pensar que podrían realizar no sólo una, sino un montón de esas simulaciones, ya que el poder de cómputo esperado es elevadísimo. Si a partir de aquí pensamos en nuestra actual civilización, la probabilidad de que vivamos en una simulación es alta. Pensemos en que si nuestros parientes del futuro deciden hacer una única simulación, nuestra probabilidad de vivir en ella es de un 50% (o somos la civilización que en el futuro producirá la simulación o somos la simulación misma); pero si nuestros parientes deciden hacer más de una, las probabilidades de ser una civilización real van bajando: 1/3, 1/4, 1/5… Si decidieran hacer un “laboratorio de simulaciones”, pongamos 50 mundos virtuales, la probabilidad de ser una civilización no simulada sería nimia (0,02%) o, con la cifra inversa que suena más contundente: tendríamos un 99,98% de probabilidad de vivir en un mundo simulado.

Este es el original argumento del transhumanista profesor de filosofía en Oxford, Nick Bostrom. Obviamente, las dificultades se hacen patentes enseguida ya que hay que aceptar muchísimos presupuestos para que el argumento sea válido: todas las tesis de la AI fuerte, a saber, que todos los aspectos de la mente humana pueden ser computables (sensaciones, emociones, recuerdos, subjetividad, etc.), que son independientes del substrato (pueden darse en chips de silicio igual que en neuronas), que es posible crear un ordenador que los compute, que ese poder de computación estimado pueda realizarse técnicamente, etc. Muchos filósofos, seguramente, no estarán dispuestos a asumir tanto, además de que, a mí personalmente, los argumentos basados en la probabilidad siempre me han parecido engañosos, como si esconden un sofisma que no se ve a primera vista. El de Bostrom me huele mal desde el principio, pero he de reconocer que abre paso a muchas reflexiones, y eso es más que suficiente para tenerlo en cuenta.

Aquí tenéis el artículo traducido al castellano, donde Bostrom, además, reflexiona sobre los matices y las consecuencias de aceptar esta controvertida tesis. Supe de Bostrom a través del magnífico Pseudópodo, que además, tiene varios post dedicados. Otro argumento parecido, que además es citado por Bostrom, es el del Juicio Final, pero éste, adolece, a mi juicio, de problemas incluso más graves aunque es igualmente divertido y sugerente.

1. Un chimpancé no pasaría el test a pesar de que no dudaríamos en decir que un chimpancé piensa. Tampoco lo pasaría un programa que jugara al ajedrez o que calculara. El Test de Turing es indebidamente  logocéntrico, en el sentido en que equipara ilegítimamente lenguaje con pensamiento. ¿No existe pensamiento no linguístico?

2. La prueba es absolutamente conductista. A Skinner le hubiera parecido suficiente, pero si no queremos prescindir del concepto de mente, la prueba no vale. Podríamos hacer programas que tuvieran conducta verbal sin que por ello dijésemos que piensan:

Una misión de exploración procedente de un lejano lugar del universo aterriza en nuestro planeta. Aunque sus tripulantes son incalculablemente más inteligentes que los humanos, se muestran deseosos de hablar con nosotros. Un entusiasta investigador de la IA le explica la prueba de Turing a uno de ellos. Con el equivalente alienígena de una carcajada dice que en un momento puede improvisar un computador que la supere. Y lo hace. Después explica cómo ha programado el computador. Un idioma sólo contiene un número finito de palabras. Por tanto, sólo hay un número finito de oraciones que contengan un máximo de, por ejemplo, cien palabras (aunque aquí cualquier número elevado de palabras satisfaría los propósitos del extraterrestre). Se sigue que hay un número finito de conversaciones con dos participantes que contengan oraciones de una longitud máxima de cien palabras (suponiendo que a ninguna de las partes se le permita repetir la misma oración un número indefinido de veces). Cierto que, desde un punto de vista humano la cantidad de esas conversaciones es mareante, pero sigue siendo un número definido, finito. Lo que hizo el alienígena fue construir todas las conversaciones significativas con dos participantes en las que uno, el interrogador, usa oraciones de hasta cien palabras, y el otro, el computador, usa oraciones de hasta cuarenta palabras. Hecho esto introdujo en bloque todas las conversaciones en el programa […]. Cuando el interrogador escribe su primera intervención, Superparry – como llamaban al programa del alienígena- selecciona al azar una de las muchas conversaciones que comienzan de esta forma y escribe la intervención del segundo participante. El interrogador responde, y Superparry selecciona al azar una de las conversaciones que comienzan con las tres intervenciones ya hechas y así sucesivamente.

Jack Copeland, en Inteligencia Artificial

3. La prueba es muy ambigua: ¿cuánto tiempo tiene que estar la computadora engañando a su interlocutor? ¿Todas las preguntas están permitidas? ¿Puedo preguntarle al computador sobre su biografía? Las precisiones que se hagan al respecto son vitales para entender cómo debería ser una máquina que superara el test. Verbigratia, la Eliza de Weizenbaum está programada como si fuera un psicoanalista para centrarse en hacer preguntas y no en dar respuestas. Si la conversación con ella es muy corta y el programa tiene suerte (tres o cuatro preguntas y respuestas) no hay forma de diferenciarla de un humano. Sin embargo, si la conversación es más larga y el interlocutor va buscando las cosquillas a la máquina, Eliza está lejos de superar el test.

4. Sólo se pide que el computador engañe a su interlocutor, ha de fingir que piensa, no pensar realmente. Para construir una máquina que pasara el test podríamos centrarnos en fomentar esa habilidad de engaño más que en diseñar una máquina pensante. Precisamente la Eliza de Weizenbaum está hecha de esta manera. Simular que uno piensa no es lo mismo que pensar. Y no es bueno que nuestros ingenieros diseñen robots únicamente para pasar el test, ya que diseñarán máquinas expertas en mentir, no en pensar.

5. El test no especifica qué tipo de máquina puede superarlo (1). Esto no es una objeción contra el test sino contra aquellos que afirman que una máquina no puede pensar en base a lo que son las máquinas actuales. Es como si pensáramos que con un modelo tecnológico de pesas y poleas podemos llegar a Marte. Seguramente que el modelo de máquina realmente pensante será muy diferente a los modelos computacionales contemporáneos.

La clave del asunto es que todo depende de cómo definamos pensar. Si suponemos que para pensar hace falta autoconsciencia o consciencia de algún tipo, una máquina podría pasar cierto test de Turing sin tener conciencia alguna, mientras que si creemos que pensar es, simplemente, realizar algún tipo de operación lógica sin que haga falta tener consciencia de ella, el ordenador desde el que escribo esto piensa en toda regla aunque no pueda pasar el test. En ambos casos el test de Turing no me dice absolutamente nada de si las máquinas piensan.

La pregunta con respecto a la Inteligencia Artificial debería dejar de apuntar hacia el concepto de inteligencia o conducta inteligente (en el sentido del Test de Turing, de conducta lingüística inteligente). En esta línea de investigación creo que ya se han conseguido logros lo suficientemente importantes para decir que tenemos máquinas con conducta inteligente (a pesar de que todavía quede mucho por hacer). La dirección a seguir (y que ya se sigue desde muchos ámbitos) sería la de hacer máquinas que generaran consciencia. Aquí es donde está el reto, debido fundamentalmente a que no tenemos ni idea de cómo nuestro cerebro la genera: ¿qué mecanismo hace que un complejo sistema de redes electroquímicas den lugar a la consciencia? El camino estará en, a falta de más conocimientos desde la neurología, replicar tales procesos electroquímicos y esperar a ver que pasa. De este modo no sólo podremos diseñar máquinas conscientes, sino que tendremos un fantástico campo de pruebas experimental para entender qué es la misma consciencia.

Aquí os dejo una serie de enlaces a programas que intentan pasar el test para que converséis con ellos y comprobéis lo lejos que están de conseguirlo.

Eliza

Doctor Abuse

Solutecia

Paula SG 11

 (1) Turing afirma que en el test podría participar cualquier ingenio tecnológico que la ciencia tuviera a disposición, si bien él enseguida nos habla de máquinas automáticas de estado discreto, es decir, de computadores digitales. La objeción podría tener sentido afirmando que un computador digital nunca podría pasar el test de Turing… Lo cual sólo podrá ser respondido con el tiempo.

Si la vanguardia de la robótica es una cabeza de canguro que mira donde tú miras, estamos lejos, lejos de conseguir algo realmente sorprendente. ¿Alguien se cree que Kismet tiene realmente conducta emocional? ¿Alguien se cree que Kismet siente empatía con sus interlocutores? A lo sumo tenemos un más o menos competente imitador de los gestos que acompañan a las emociones sin sentir realmente emociones (en lo cual estamos igual que en el siglo IV a.C.). De aquí a la AI de Spielberg va un océano.

Léase Alabada sea su divinidad robótica.