Posts etiquetados ‘inteligencia artificial’

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

“Si llegas después de las siete estarás llegando tarde”

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

“Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

 

Es tan conocidísimo el argumento de Searle conocido como la habitación china (también la caja o la pieza china) que casi no merece la pena soltar el rollo de volverlo a explicar, pero, por si acaso hay algún despistado, lo volveremos hacer. Searle hace una comparación entre un supuesto computador que supera el test de Turing y una curiosa situación: imaginemos a un hombre que se encuentra en una habitación en la que hay una ventana. A través de esa ventana recibe frases escritas en chino. Él no tiene idea de chino, pero dispone de un libro con una serie de instrucciones escritas en inglés (su lengua materna) en las que se indica qué frases hay que decir ante cualquier frase en chino que uno reciba, de tal modo que la persona que se encuentre al otro lado de la ventana no sabría decir si está hablando con una persona que habla chino o no. Lo que Searle pretende argumentar es que el operario de la habitación no comprende chino, solo sabe un tipo de sintaxis, juntar símbolos con otros de una determinada manera y, sin embargo, parece que lo comprende, por lo que el test de Turing no es válido para determinar si un ordenador piensa o no. Para Searle, pensar tiene que ver con comprender, es decir, con conocer una cierta semántica. Las computadoras solo saben de sintaxis, de unir o separar unos símbolos con otros siguiendo unas reglas marcadas, nada más, y eso no es realmente entender nada.

Durante mucho tiempo este argumento me pareció inapelable y lo utilizaba con asiduidad para criticar las pretenciosas afirmaciones de los entusiastas de la Inteligencia Artificial. Sin embargo, hace poco descubrí el error que encierra (y me sorprendí de cómo no lo había descubierto antes. Quizá porque estaba hechizado con la brillante y sencilla prosa de Searle) y también descubrí que, para desgracia de mi descubrimiento, ya se habían escrito toneladas de artículos en esa línea. Y es que el argumento de Searle ya tiene unos cuantos añitos. No obstante, como después explicaré, el error es solo en una de las tesis que Searle deriva del argumento, siendo lo demás correcto, porque sigo pensando que, en términos generales, el argumento de Searle es correcto.

El error está en que no se pueden separar taxativamente sintaxis y semántica, es más, no se pueden separar ni siquiera un milímetro, ya que la una sin la otra no tienen ningún sentido. Supongamos que estamos usando la habitación china y cualquiera de nosotros es su operario. Entonces recibimos este mensaje:

早安

Esto es “Buenos días” en chino tradicional. ¿Qué instrucción pone en nuestro libro que respondamos y por qué? Podría haber muchas respuestas posibles pero una de ellas de puro sentido común sería que devolviéramos el saludo:

早安

¿Por qué devolver el saludo es una buena respuesta que nos llevaría por buen camino para superar el test de Turing? Para devolver el saludo necesitamos una información previa que no puede reducirse a mera sintaxis: necesitamos saber que cuando alguien te saluda es habitual devolver el saludo, es decir, necesitamos comprender el contexto, las circunstancias en donde se da esa frase en chino, y eso es un elemento metalingüístico o metasintáctico que no obedece a una sintaxis determinada.

Por ejemplo, cuando el saludo no se da al principio de la conversación sino al final o en medio, esto suele indicar que la conversación se termina. Quizá nuestro interlocutor se ha sentido ofendido por algo que dijimos y quiere finalizar la conversación de un modo educado pero cortante.  O, quizá, nuestro interlocutor es un desconocido que solo nos quiere saludar por educación pero no quiere comenzar conversación alguna ya que no nos conoce. ¿Cómo saber esto? Sólo comprendiendo el contexto, huelga decir, sabiendo semántica. Entonces, para pasar el test de Turing, necesariamente, tenemos que enseñar semántica a nuestra habitación china. Las reglas que el operador de la habitación maneja deben incorporar semántica para que puedan superar el test de Turing

Para desgracia del argumento de Searle, podríamos enseñar a un computador semántica. No habría ningún problema (a priori) en enseñar a la máquina a saber qué puede significar una proposición dado un contexto dado puesto que podríamos traducir la semántica a sintaxis. Si la semántica puede reducirse a reglas no hay impedimento. En el ejemplo podríamos introducir en el programa las diferentes situaciones en las que puede darse un saludo y establecer nuevas reglas dado el contexto anterior o futuro de la conversación. El problema (ahora sí, a posteriori) es la enorme riqueza de los contextos en donde puede darse una conversación. Llegamos al frame problem, del que pronto hablaremos en otra entrada.

Sin embargo, para lo que el argumento de la habitación china sí que tiene clara validez es en dos sentidos: uno es para hablar de la consciencia o de los qualia. Podríamos tener una máquina que comprendiera muy bien el contexto de las afirmaciones de una conversación y que pudiera pasar el test de Turing, pero eso no indicaría nada sobre su consciencia. La máquina seguiría siendo tan inconsciente de sus acciones como lo es mi tostador sobre el estado de las tostadas. Y en otro acerca de lo que hacen las computadoras actuales con respecto a lo que pasa en mi cerebro cuando pienso: no es lo mismo. Un programa de ajedrez no hace lo mismo que yo cuando decide mover una pieza en el tablero y una calculadora no hace lo mismo que yo cuando realiza una multiplicación. Y con respecto al lenguaje, programas clásicos como la Eliza de Weizenbaum o la Siri de los Iphone no hacen lo mismo que nosotros cuando se comunican con nosotros. Las analogías que puedan encontrarse no son, ni de lejos, suficientes para decir que las máquinas piensan si por pensar nos referimos a cómo lo hacemos los seres humanos.

En palabras de de Jerry Kaplan:

Searle argumenta que, en realidad, éstas deben ser cosas distintas, pero simplemente no entendemos aún lo que está haciendo el cerebro. Es importante entender qué no está diciendo. No está afirmando ninguna propiedad mágica de la mente humana que transcienda el ámbito de la ciencia: sus pies están firmemente plantados en el suelo, con un creencia en el mundo físico como (en su mayor parte) determinista, sujeto a medición y a explicación racional. Sólo está diciendo que en nuestros cerebros ocurre algo que aún no entendemos y que, cuando lo consigamos (lo cual acepta como probable), se aclarará el camino para una explicación satisfactoria de lo que él cree que son fenómenos exclusivamente humanos; no sólo “pensar”, sino también la consciencia, la sensación de experimentar cosas (lo que los filósofos llaman “qualia”), la percepción, etc. Tampoco está afirmando que un programa informático nunca pueda realizar ninguna tarea concreta; ya sea pintar bellos cuadros, descubrir leyes de la naturaleza o consolarnos por la muerte de un ser querido. Pero él cree que el programa está simulando el pensamiento, no duplicando el proceso que tiene lugar en las mentes humanas cuando se implican en estas actividades. Para Searle, un piano informático no está haciendo lo mismo que un maestro de la música, cuando ejecutan un concierto de Rachmaninoff, aunque suene igual. Resumiendo, Searle dice que, en lo relativo a los ordenadores, al menos tal como existen en la actualidad, nadie tiene toda la razón.

Y es que, ya lo he dicho cientos de veces, el problema de la Inteligencia Artificial no es fabricar agentes inteligentes (lo cual ya lo hace con mucho éxito en algunos casos), sino agentes conscientes o sintientes. La AI ya ha fabricado inteligencia, lo que hace falta es que fabrique mentes.

P. D. : Por si aún no lo habéis leído, hace poco me han publicado un artículo mucho más extenso sobre estos temas en Xataka.

Desde el Foro de Futuro Próximo hemos planteado una serie de debates acerca de un tema tan apasionante en estos momentos como es la IA. En nuestra primera mesa, mañana a las 18:00 horas en las Escuela Técnica Superior de Ingenieros Industriales, contamos como contertulios a figuras tan interesantes como Juan Andrés Avilés, Pablo Gervás, José Manual García y Álvaro José García Tejedor, primeras espadas en el campo de la IA nacional. Y como no podía ser de otra manera, el moderador será vuestro maquinista preferido, un servidor.

La asistencia es gratuita (podéis registraros en la página por razones de control, pero no es necesario), así que no podéis faltar. Os garantizo un debate de calidad que, con total seguridad, os dará una visión más rica y profunda del fenómeno tecnológico de moda (tened en cuenta que lo modera un filósofo, con su peculiar toque, muy distinto a la habitual visión ingenieril). Después de la mesa redonda habrá una fase de preguntas en las que podréis participar, y discutir y debatir lo que os plazca, con toda la maldad e irreverencia que os de la gana (Incluso después podréis hablar con nosotros y conocernos en persona, hasta tocarnos para comprobar que somos organismos biológicos y no androides… o eso creo).

Os espero. Doy mi palabra de que merecerá la pena venir.

Addendum del 4-11-2017:

 

 

Añado el vídeo de la primera sesión. El montaje es genial (doy las gracias a Alianza Futurista por ese excelente trabajo). Ponentes de altísimo nivel (de verdad), dando opiniones formadas en un debate fluido (creo que no se hizo demasiado aburrido) sobre nuestro tema. No sé los demás, pero yo me lo pasé bastante bien.

Desde cierta perspectiva ideológica se entiende el entramado tecno-científico  como un instrumento al servicio del malvado capitalismo (tecnoliberalismo he leído). Las grandes corporaciones que dominan el mundo desde la sombra, utilizan la tecnología, esencialmente, contra el ciudadano de a pie (es decir, contra el lector promedio de noticias de esa temática ¿Qué iban a tener mejor que hacer los dueños de las multinacionales?), intentando controlarle, mantenerle alienado, en un estado de esclavitud inconsciente.

Las máquinas, asociadas a la revolución industrial y, por lo tanto, a la explotación de la clase obrera, se ven como la máxima expresión de lo inhumano. Si el sistema capitalista ya es inhumano, sus frutos mecánicos no podrían ser menos: los robots son entes fríos gobernados por despiadadas almas de metal, seres amorales que, como tantas veces pronostica la literatura y el cine, terminaran por aniquilarnos. HAL 9000, Proteus, Skynet… todas las versiones cinematográficas en las que se habla de inteligencias artificiales es, siempre, para reinterpretar una y otra vez el mito de Frankenstein: humanos jugando a ser dioses (“jugar a ser dioses” es un mantra repetido ad nauseam que no significa absolutamente nada) a los que su creación se les va de las manos y termina por volverse contra ellos.

Recientemente apareció en la prensa la noticia de dos programas de IA de Facebook, diseñados para establecer negociaciones, que habían creado un lenguaje propio aparentemente ininteligible. Asustados por el descontrol, aseguraban los periodistas,  los programadores desconectaron los programas (como si los programas estuviesen vivos siempre en funcionamiento y no se desconectaran cada vez que no se estuviesen ejecutando, es decir, como mínimo cuando los programadores se fueran a dormir a casa y apagaran sus ordenadores). La prensa amarilla vendió el asunto como si los programas se estuviesen escapando de las manos de sus creadores y los ingenieros de Facebook, realmente, hubiesen sentido miedo ante las posibles consecuencias de dejar funcionando algo sí. En ciertos medios (que no citaré para no darles publicidad) se dijo, alegremente, que esto demostraba que el estado de la IA actual ya había superado al hombre, y sugerían un escenario apocalíptico de lucha entre humanos y máquinas. Lamentable: la prensa, como tantas veces, desinformando.

La realidad es que, a mi pesar, la IA está a años luz de conseguir lo que sería una IAG (Inteligencia Artificial General) equiparable al ser humano, hacia la que tuviésemos que empezar a mostrar algo de preocupación. Se han dado excelentes progresos en reconocimiento visual o comprensión del lenguaje natural a través de modelos de redes neuronales artificiales, además de que con la actual capacidad de computación, podemos diseñar redes que aprenden rápido (y por sí solas) a través de ingentes cantidades de datos. Sin embargo, todavía son máquinas demasiado especializadas en una tarea concreta para poder enfrentarse a la inabarcable complejidad que parece necesitarse para operar competentemente en el mundo real. Es posible que en un futuro, más lejano que cercano, lo conseguirán, pero creo que, de momento, tenemos preocupaciones más apremiantes que las IA asesinas pretendiendo dominar la Tierra.

Y si nos vamos a las ciencias de la vida, el asunto no hace más que empeorar. Ya sabemos como en temas de nutrición, hay que comer alimentos sanos, es decir, naturales. Todo lo “químico”, lo “artificial” es, casi a priori, tóxico. Los defensores de lo natural parecen desconocer que todo lo que existe (o, como mínimo, lo que comemos) está compuesto de elementos químicos presentes en la tabla periódica (todo es químico). Si contraargumentan que químico significa que ha sido sintetizado en un laboratorio, habría que preguntarles qué tiene de malo que algo se procese en un laboratorio, cuando, precisamente, los laboratorios han de pasar por una infinidad de controles para poder sacar un producto al mercado, mientras que algo que no procede de ningún laboratorio es lo que puede escapar más fácilmente al control.

Es lo que pasa con la medicina natural. Un medicamento convencional requiere una altísima inversión por parte de la empresa farmacéutica que va desde la investigación hasta que el medicamento es aprobado y sale al mercado (igualmente pasando por una gran cantidad de protocolos y controles sanitarios). Por el contrario, el medicamento natural, se ahorra absolutamente todo: ni investigación (¿para qué demostrar que el medicamento es eficaz o no, o qué efectos secundarios tiene, si mi cuñada dice que le fue genial?) ni ningún tipo de control ¡Vaya chollazo! Es curioso que los críticos con las farmacéuticas ven en ellas el feo negocio de la salud (muchas veces con razón), pero no lo vean en los suculentos beneficios de las empresas de lo natural.

Si por natural entienden lo orgánico como referencia a la química orgánica o del carbono, deberían saber que el petróleo y sus derivados plásticos son compuestos tan orgánicos (tan compuestos por carbono) como su zumo de aloe vera. Es más, su coliflor ecológica, tan sana en comparación con la peligrosísima coliflor transgénica, es fruto de milenios de selección artificial de genes, sin ningún estudio de su peligrosidad más que comerla y ver qué pasa. La coliflor, y todas las frutas, verduras, hortalizas y legumbres que cultives “naturalmente” en tu huerto ecológico, provienen de ancestros completamente diferentes (la coliflor viene de una insustancial especie de mostaza silvestre)  que fueron seleccionándose en función de las propiedades que se querían potenciar, es decir, que se escogieron genes y se desecharon otros durante miles de generaciones. Todo tu huerto está formado por especies diseñadas por el hombre: es, por entero, artificial.

Desde obras como Brave New World de Huxley, inspiradora directa de la Gattaca (1997) de Niccol, se ha criticado cualquier forma de eugenesia apelando, fundamentalmente, a que crear niños a la carta (por muy buenas virtudes que les demos y por muchas enfermedades de las que les libremos) les privaría de cierta libertad, dando lugar a un mundo demasiado ordenado y regular, demasiado perfecto. En Gattaca se ataca directamente el determinismo genético (el que, erróneamente, tanto se ha atribuido a Dawkins) afirmando, en lenguaje cinematográfico, que no todo está en los genes, sino que el hombre tiene algo valioso en su interior, una especie de esencia, que le permite vencer incluso a su propio genoma.

En la misma línea, repitiendo el jugar a ser dioses, se ha argumentado que modificar genéticamente al ser humano no puede dar lugar a otra cosa que no sean monstruos que, al final, se volverán de algún modo contra nosotros (Véase la película Splice, 2009) . Nuestra naturaleza humana es la que nos hace ser lo que somos, de modo que cambiarla nos deshumanizaría o, peor aún, inhumanizaría.  Todo esto se enmarca siempre con menciones a los programas eugenésicos de los nazis (no suele mencionarse que esos mismos programas se estaban dando, igualmente, en los países aliados, notablemente en Estados Unidos, uno de los países más racistas del mundo) o al darwinismo social (que tantas veces se confunde con el darwinismo o con la misma teoría de la evolución).

Los errores son evidentes:

  1. Modificar los genes de un embrión para darle ciertas características no le resta ningún tipo de libertad que antes tuviera, ¿o es que alguien ha elegido sus genes antes de nacer? El ser humano genéticamente modificado será tan libre de elegir su futuro como cualquiera de nosotros.
  2. Decir que mejorar genéticamente al ser humano va dar lugar a un mundo enrarecido demasiado perfecto, es una afirmación gratuita: ¿por qué? Con total seguridad, a pesar de dotar a los seres humanos de mejores cualidades, estaremos lejos de crear un mundo perfecto. Lamentablemente, los problemas y las injusticias seguirán existiendo. Yo solo creo que con mejores seres humanos sería más probable conseguir un mundo mejor, pero de ninguna manera perfecto.
  3. Nadie defiende hoy en día el determinismo genético. Somos fruto de nuestros genes, pero también del ambiente y del azar. El niño modificado tendrá una vida entera por delante en la que sus experiencias vitales configurarán su personalidad igual que la de cualquier otro hijo de vecino. Lo que sí está claro es que no tenemos ninguna esencia interior, ninguna fuerza mágica que haga que podamos vencer a nuestra biología. Lo sentimos mucho pero el cáncer no puede curarse con meditación ni buena voluntad.
  4. No existe una naturaleza humana sagrada, dada para siempre. El ser humano es una especie como cualquier otra y, en cuanto a tal, sigue evolucionando por lo que, queramos o no, se modificará ¿No será mejor que nosotros controlemos nuestra propia evolución antes de que lo haga el mero azar?
  5. Que los nazis tuvieran programas eugenésicos no implica que la eugenesia sea mala. Estoy seguro de que muchos nazis eran hábiles reposteros de apfelstrudel (pastel de manzana, postre típico austriaco, muy común en Alemania), ¿por eso cocinar pastel de manzana va a ser malo?
  6. Nadie defiende ningún tipo de darwinismo social. Que alguien tenga cualidades genéticas mejores que otro no quiere decir que haya que marginar o discriminar a nadie. Por esa regla de tres, si me encuentro con otra persona menos inteligente que yo, ¿ya tengo derecho a tratarla mal? Y, en el peor de los casos, la jerarquización social que podría llegar a darse no sería muy diferente a la actual. Los más inteligentes, trabajadores, atractivos, etc. tienden a copar los mejores puestos socio-económicos… ¿qué es lo que iba a cambiar?

Evidentemente, el control ético de todo avance en el que estén inmiscuidos seres humanos debe ser extremo y no debe darse ningún paso sin garantizar, al menos de un modo razonable, que nadie va a sufrir ningún tipo de daño. Nadie está hablando de hacer experimentos genéticos al estilo de La Isla del Doctor Moreau ni de nada por el estilo, se está hablando de dar mejores cualidades, lo cual, probablemente aunque no necesariamente, hará un mundo mejor, lo cual, probablemente aunque no necesariamente, evitará mucho sufrimiento futuro.

Hagamos un último experimento mental. Supongamos que en un futuro próximo el mundo se ha unificado políticamente, de modo que toda la población vota a un presidente mundial. Tenemos dos candidatos:

a) Un ciudadano cualquiera del que no sabemos nada de sus genes.

b) Un ciudadano que fue modificado genéticamente para ser muy inteligente y voluntarioso, a parte de bondadoso, generoso, idealista, honesto…

¿A cuál votaríamos? ¿Con cuál sería más probable que el mundo fuese mejor? Y podríamos añadir una tercera opción:

c) Una inteligencia artificial con capacidades cognitivas sobrehumanas programada para buscar el bien y la felicidad del ser humano, y para ser totalmente incapaz de hacer daño a nadie.

Yo, siendo políticamente incorrecto, creo que la apuesta más segura para un mundo mejor es la c.

Desgraciadamente, toda esta distorsionada y, a todas luces, equívoca forma de entender la realidad domina en gran parte de las universidades y, sobre todo, en la izquierda política. Y es una verdadera lástima porque sería necesaria una izquierda ilustrada que entendiera que una de las mejores formas de conseguir que las clases bajas mejoren su situación es a través del desarrollo científico y tecnológico. No estamos hablando de caer en un optimismo ingenuo hacia las posibilidades de la ciencia, ni en el torpe solucionismo tecnológico (creer que todo lo va a solucionar el avance tecnológico). Este artículo, publicado en el New York Times, nos dejaba claro lo lejos que aún estamos de hacer seres humanos a la carta (fijaos en el dato de que en, solamente, una cualidad como la altura intervienen unas 93.000 variaciones genéticas). Sin embargo hay que cambiar, radicalmente, esta visión-actitud hacia las nuevas tecnologías. Es, sin duda, el tema de nuestro tiempo.

Vamos a hacer un poquito de ejercicio. Mis conocimientos en las ciencias del deporte son más bien precarios, así que decido bajarme una aplicación a mi móvil que me proponga un plan de entrenamiento efectivo. Si la aplicación es de calidad, en ella estarán concretados los mejores conocimientos acerca de cuál es el mejor plan para una persona de mis características y, por tanto, será eficaz. Entonces yo confío en la aplicación y la pongo al mando, es decir, dejo que ella decida por mí qué es lo que tengo que hacer. En ese momento estoy dejando que un algoritmo gobierne una parcela de mi vida ¿Estoy haciendo algo malo? No, precisamente porque ese algoritmo es mejor gobernando esa parcela de mi vida que yo mismo. Es totalmente razonable confiar en esa máquina si, realmente, queremos adelgazar.

Damos un paso más. Hoy es día de elecciones y como buen ciudadano voy a ir a votar. Desde siempre he votado al PSOE. Mi abuelo luchó en la guerra civil en el bando republicano e inculcó sus ideas políticas a mi padre, quien luego me las inculcó a mí. Soy socialista por tradición. Sin embargo, cuando voy a votar me encuentro con un viejo amigo comunista. Hablamos un rato, precisamente sobre política, y me hace pensar. Al final, por primera vez en mi vida, voto a Podemos. Pero después, mientras voy caminando de vuelta a casa, comienzo a sentirme mal. Me arrepiento de mi voto y pienso que he traicionado a mi familia por una conversación de última hora. Quisiera cambiar mi voto pero ya es demasiado tarde: yace en el fondo de la urna.

Rebobinamos. Supongamos otra vez la situación anterior pero introducimos un nuevo elemento: Cortana 2045, mi asistente virtual de última generación, cortesía de Microsoft. A partir de todos mis datos de internet y de acompañarme continuamente en todo mi quehacer cotidiano, sabe perfectamente mis preferencias políticas y también sabe lo voluble que puedo ser a la hora de tomar una decisión, sobre todo, a última hora. Ella sabe mejor que yo a quién quiero realmente votar y no va a dejarse llevar por sesgos ni cambios repentinos de opinión. Entonces, lo razonable sería dejar que Cortana votara por mí ¿Dejaremos entonces una decisión supuestamente tan importante como el voto a un conjunto de algoritmos automatizado?

¿Qué pasará cuando inteligencias artificiales sepan tomar nuestras decisiones mejor que nosotros mismos? Tendremos dos opciones: o preferimos seguir sintiéndonos libres y decidimos por nosotros mismos, o dejamos que las máquinas lo hagan y perdemos el mando. El problema estará en que los que pierdan el mando vencerán, ya que tomarán mejores decisiones que los libres, por lo que parece que por simple y pura lógica, cada vez más gente dejará la toma de decisiones a sus consejeros digitales.

Y pensemos las repercusiones de algo así: como apuntábamos en la entrada anterior, la base política, social y económica de nuestra sociedad es el liberalismo, y el liberalismo presupone como condición de posibilidad la existencia de un agente libre que vota, consume y delinque en virtud de susodicha libertad ¿Qué pasará cuándo esas decisiones las tomen máquinas? Podríamos llegar a un original pronóstico: el fin del liberalismo no será, desde luego, el marxismo ni sus diversas variantes, sino una tecnología: la IA.

Pero, y ésta creo que es la gran pregunta del futuro próximo: ¿Aceptará el arrogante ser humano la pérdida del protagonismo en la historia? ¿Aceptará pasar a un segundo plano? ¿Aceptará ser irrelevante?

 

pinzas-10ud-4

Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad.

Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato.

Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el  que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial.

Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo.

Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libremercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra?

Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital pero al agudo nerd se le ocurrió un método para el que no hacia falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores…

De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló:

– Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies.

De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

terminator-2-1200x873

Mensaje antiplatónico par excellence: no existe nada que esencial, o lógicamente, ligue un hecho ético (o, más bien, la interpretación ética de un hecho) del mundo y un estado emocional placentero.  A partir del descubrimiento de las sustancias psicoactivas, nos dimos cuenta de que para conseguir una sensación o emoción no es necesaria la presencia de tal hecho o, ni siquiera, del estado mental que lo preceda y lo cause.  La alegría que hubiéramos obtenido si nos hubiera tocado la lotería de Navidad, podemos conseguirla, e incluso intensificarla, ingiriendo un compuesto de prosaicas moléculas, sin que, realmente, nos toque ni un céntimo. Es más, con una calculada dosis, ya no diremos de la brutal etorfina, sino de fentanilo (peligrosísima) o de oxicodona, podrías sonreír de un indescriptible placer mientras te corto un brazo.

Este descubrimiento tiene unas consecuencias brutales. La mayor parte de las concepciones de la ética dadas a lo largo de la historia (con la honrosísima excepción de la genial ética kantiana) prometían un estado final de felicidad, a condición de seguir una serie de, a menudo muy duros, preceptos. La ataraxia griega, el nirvana budista o la visión deifica cristiana, son estados, en gran medida emocionales, que se obtienen después de  un largo proceso que, a menudo, puede durar toda una vida. El sentido de tu existencia, lo que debes hacer día a día, está sujeto a la obtención de ese premio final. Sin embargo, llegamos a día de hoy y conseguimos el premio sin el arduo proceso.

Se podría objetar que ese estado de felicidad artificial, ese paraíso químico, sería falso, un disfraz conseguido haciendo trampas, algo inauténtico, postizo ¿Por qué? Esta objeción encierra una confusión: la emoción que se consigue al ingerir un psicotrópico no tiene absolutamente nada de falso, es tan real como la conseguida sin la ingesta. Lo falso, o más bien lo ausente, es el suceso generador de la emoción, no la emoción misma.

Se sigue objetando: pero lo realmente valioso es el camino, no únicamente el resultado. Respondemos: podemos ponderar lo que obtenemos en cada fase del camino y ver si compensa o no perderlo en virtud de conseguir, inmediatamente y sin esfuerzo, el bien final. En algunos ejemplos está claro: pensemos en las millones de personas que se están machacando en el gimnasio por lucir un bonito cuerpo cuando llegue el verano. Si yo les dijera que, puedo conseguirles ese cuerpo deseado sin el más mínimo coste, tomando una pastilla que no tiene efecto secundario alguno… ¿No la tomarían sin dudar? ¿No sería estúpido decir que no, que prefieren sufrir levantando pesas y comiendo brócoli?

Las pocas experiencias que he tenido con drogas duras (con las mal llamadas blandas, como el tabaco o el alcohol, he tenido muchísimas) fueron en mi época universitaria (juventud: bendita idiotez). Recuerdo una noche en la que probé una pastilla de MDMA. Cuando la ingerí estaba ya completamente borracho (si no, seguramente, mi superyó bien aleccionado me hubiera impedido tomarla) pero al cabo de unos treinta minutos mi estado etílico cambio radicalmente hacia algo muy diferente. Sentí una felicidad inmensa, una plenitud absoluta, una comunión total con el cosmos… Todo tenía sentido y todo era completamente maravilloso. Nunca antes había sentido un amor hacia la vida y hacia todos los seres humanos similar. Sinceramente, esas horas de efecto del MDMA han sido las más felices de mi vida (y no soy una persona especialmente desgraciada). Nunca he vuelto a sentir emociones tan agradables con esa intensidad. Y, paradójicamente, eso es lo que me aterró de las drogas y lo que consiguió que, finalmente, no terminará siendo un yonki en cualquier parque. Me dio mucho miedo saber que lo que había tomado era demasiado bueno y comprendí lo brutal que debería ser el reverso tenebroso de algo así. Entendí por qué un yonki de cualquier parque es plenamente consciente de su penosa situación y, aún así, prefiere seguir drogándose a tener una vida. No volví a probarlo.

Sin embargo, de lo que no quedé nada disuadido, es de aceptar el uso de drogas que no tengan efectos secundarios significativos. Sería la utopía del utilitarismo hedonista: una sociedad en la que todo el mundo tenga acceso a la mayor felicidad posible. Es más, lo que sería inmoral sería privar a la gente de unas sensaciones de bienestar semejantes. Y, siguiendo esa lógica, nada parece alejarnos de un futuro en el que el uso de psicotrópicos de diversa índole sea cada vez más usual (de hecho ya lo es). Pero quizá un futuro emocionalmente paradisíaco puede esconder algo, como mínimo, inquietante. Sabemos, desde experimentos realizados en la década de los cincuenta del siglo pasado, que ratas de laboratorio preferían tomar cocaína a comer o a beber, dejándose morir con tal de seguir consumiendo su droga. Y es que los sistemas de recompensa emocional del cerebro tienen un fin evolutivo claro: moverte a actuar para obtener placer o evitar el sufrimiento ¿Qué ocurre entonces cuando no hay sufrimiento y se vive en un estado de placer constante? Que el individuo ya no tiene nada que hacer, que no hay nada que pueda motivar su conducta.

Un futuro así sería como un colosal fumadero de opio en el que miles de sujetos vivirían enchufados a aparatos que les suministraran regularmente la dosis adecuada, quizá siempre durmiendo o, simplemente, ensimismados en hermosísimas ensoñaciones, quizá sin hablar con nadie más (¿para qué las relaciones sociales?) o no, pero, seguramente, sin hacer prácticamente nada: solo lo necesario para mantenerse vivos y drogados. Aquí, si que el tiempo histórico quedaría congelado. No se evolucionaría hacia nada más ya que, esta vez sí, estaríamos ante el auténtico fin de la historia de Fukuyama.

Este futuro utópico, o distópico según se mire, casaría perfectamente con el advenimiento de la singularidad tecnológica de la IA. Si construimos inteligencias artificiales que nos superen abrumadoramente, y si hemos sido lo suficientemente listos para conseguir que no nos exterminen, podría pasar algo así: las máquinas tomarían el mando de la historia y se dedicarían solo Skynet sabe a qué, mientras dejarían a sus venerables, aunque patéticamente inferiores creadores, viviendo en un inofensivo paraíso. Entonces, poseamos superdrogas o no, tendremos que enfrentarnos a algo a lo que nuestro frágil ego humano no está acostumbrado: la irrelevancia ¿Aceptará el hombre perder el protagonismo de su historia? ¿Aceptará perder el mando, aún a sabiendas de estar en mejores manos que en las suyas propias? Sería un caso de interesante dilema moral: ¿libertad o felicidad? La respuesta sería fácil para los drogados: seguir en su paraíso toda la eternidad y que gobiernen otros. La responsabilidad del gobierno trae demasiadas preocupaciones y dolores de cabeza.

O quizá, la historia podría continuar por otros derroteros: es posible que los seres humanos no nos quedásemos del todo quietos, sino que siguiéramos buscando formas de placer aún más poderosas. Quién sabe si pondríamos a la IA a nuestro servicio para conseguir placeres que ahora no alcanzamos ni a imaginar. Pensemos en diseño de cerebros a los que se aumenta su capacidad de sentir, con circuitos de placer hiperdesarrollados, que viven en un mundo de realidad virtual en el que todo está pensado para estimular cascadas de opioides, maravillosas tormentas cerebrales de una potencia inusitada. La historia de la humanidad se convertiría en la búsqueda de paraísos dentro de paraísos.

Pensemos en el mejor sueño que hayamos tenido y pongamos detrás de el a un asistente computerizado que sabe lo que nos gusta mucho mejor que nosotros. Recomiendo ver Más allá de los sueños (1998) de Vincent Ward. La película es mala pero sus efectos visuales (que ganaron un Óscar) pueden ilustrar muy bien a lo que nos referimos: imagina caminar de la mano con una bella mujer (quizá con esa chica que nos gustaba en el instituto y que ya no sabes nada de ella), por el cuadro más hermoso que se te ocurra, mientras escuchamos una increíble sinfonía (la Lacrimosa de Preisner o el Dúo de las flores de Delibes) , a la vez que nuestros centros cerebrales de placer se disparan como fuegos artificiales, haciéndonos sentir una especie de orgasmo infinito… Vivir eternamente en ese día de verano de cuando teníamos doce años y no había nada que hacer, ninguna preocupación, y todo era nuevo…

paisajes-naturales-pinturas-al-oleo-sobre-lienzo_21

Por si alguien no ha leído mi último artículo en Xátaka, va sobre otro posible futuro: precrimen.

Y feliz Navidad máquinas mías.

bahamas_2836_600x450

Dice Marvin Minsky que la mejor forma de comprender la mente es construyendo una. Estamos de acuerdo, así que vamos a ver uno de los intentos clásicos de hacerlo. En 1957, Simon, Shaw y Newell, diseñaron uno de los grandes hitos de la historia de la Inteligencia Artificial: el General Problem Solver. Era un programa creado para solucionar cualquier problema de tipo general, rompiendo con la preconcepción de que las máquinas solo podían resolver problemas muy específicos. Su estructura, muy simplificada, venía a ser la siguiente:

Sin título

El GPS funcionaba realizando una analogía entre su situación actual y el objetivo a cumplir, efectuaba un análisis de las diferencias entre ambos estados, utilizaba métodos para reducir las diferencias, y luego volvía a realizar la analogía inicial hasta que no existiesen diferencias entre el estado actual y el estado deseable. El diseño es muy interesante, sobre todo, por las similitudes que parece reflejar con respecto a la forma que tenemos los seres humanos de solucionar problemas, manteniendo, empero, una estructura muy simple:

1. Al realizar una comparación entre su situación y sus objetivos, tiene una cierta representación de sí mismo. Si quiero irme de viaje a las Bahamas, lo primero que tengo que saber es que YO no estoy en las Bahamas. Estaríamos todavía a años luz de la autoconsciencia, pero ya es un paso.

2. Para reducir las diferencias, el GPS podía suspender momentáneamente su objetivo principal para resolver sub-objetivos. Esto es una característica plenamente humana: suspender las urgencias del presente en pro de un objetivo futuro, es decir, planificar una acción en pasos. Si quiero irme a las Bahamas tengo que solucionar sub-problemas como pagar los billetes de avión, hacer las maletas, coger un taxi al aeropuerto, etc. Cuando queremos solucionar un gran problema, una buena forma de hacerlo es dividirlo en problemas más pequeños.

3. El GPS razonaba por analogía, quizá la forma humana más habitual de razonar. ¿Cómo sé que hay que hacer para viajar a las Bahamas? Porque antes he realizado otros viajes o porque he visto a otros hacerlos. Realizo analogías entre ese conocimiento previo y el problema al que me enfrento. Si yo viajé antes a Hawai, también hice las maletas y cogí un taxi al aeropuerto, pero a la hora de comprar los billetes de avión ahora tendré que comprarlos para Bahamas y no para Hawai y, probablemente, el precio será diferente. Hay similitudes que utilizaré sin problemas y diferencias que tendré que solucionar.

Sin embargo (ah, el siempre triste sin embargo), el GPS tenía el defecto que, hasta la fecha, no ha podido solucionarse (y del que ya hemos hablado en muchas entradas). Si realizar una analogía entre como estoy y lo que quiero hacer no parece presentar demasiados problemas, encontrar métodos de reducción de diferencias sí. Cuando nuestra máquina se encuentra en el aeropuerto y comprueba que “comprar un billete para Hawai” no le llevará a las Bahamas tiene que saber, de algún modo, que “en un aeropuerto pueden comprarse billetes a muchos sitios diferentes”. Si no sabe eso, es imposible que pueda solucionar tan simple problema. Y es que el GPS solo funcionaba en entornos muy formalizados, no en el mundo real. Estamos ante el enigma del sentido común: si el GPS podía resolver teoremas matemáticos de gran complejidad, no podría comprar un billete de avión.

Una forma de entender este dilema se ha formulado afirmando que cuando realizamos cualquier acción existe un montón de conocimiento implícito que excede el conocimiento de una simple descripción simbólica como la que maneja un computador. Douglas Lenat nos ofrece un magnífico ejemplo de ello: analicemos la frase “Fred le dijo al camarero que él quería patatas fritas a la inglesa”. ¿Qué tenemos que saber para entender esta afirmación?:

La palabra él se refiere a Fred, y no al camarero. Eso sucedía en un restaurante. Fred era un cliente que estaba cenando allí. Fred y el camarero se encontraban más o menos a un metro de distancia. El camarero trabajaba allí y en aquel momento estaba atendiendo a Fred.

Fred quiere patatas en rodajas finas, no en tiras. Fred no desea unas patatas determinadas, sino solo un tipo determinado de patatas.

Fred indica esto mediante las palabras habladas que dirige al camarero. Tanto Fred como el camarero son seres humanos. Ambos hablan el mismo idioma. Ambos tienen edad suficiente para poder expresarse, y el camarero tiene edad suficiente para trabajar.

Fred tiene hambre. Desea y espera que en unos minutos el camarero le traiga una ración normal, que Fred empezará a comer en cuanto le sirvan.

Asimismo podemos suponer que Fred supone que el camarero también supone todas esas cosas.

No hay más que decir: o el GPS sabe o puede deducir todo este conocimiento implícito, o jamás podrá resolver problemas que ocurran cuando tenga que pedir una ración de patatas en un restaurante. La solución que se dio fue la de crear sistemas expertos. Podríamos dotar al GPS de un montón de conocimiento sobre todos los pasos que hay que dar para realizar un viaje o comer en un restaurante. No obstante, al hacerlo, estamos incumpliendo nuestro propósito inicial, a saber, que nuestra máquina solucione cualquier tipo de problemas y no únicamente problemas específicos. Este es el asunto en el que la Inteligencia Artificial lleva estancada durante las últimas décadas y que no tiene demasiados visos de resolverse a corto plazo.

Véanse, en la misma línea:

Contexto o como no montar una orgía

Cero en conducta

El límite Winograd

El mismo Lenat lleva años intentando dotar a las máquinas de sentido común. En esta entrada hablé de su encomiable proyecto: la inteligencia son cien millones de reglas.

Roger Penrose dedicó bastante más tinta en defender  los argumentos de Shadows of Mind que en escribir dicha obra. En una de sus contrarréplicas, publicada en la revista Psyche (Enero, 1996), nos ofrece una de las versiones más claras de su famoso argumento.

Supongamos que todos los métodos de razonamiento matemático humanamente asequibles válidos para la demostración de cualquier tesis están contenidos en el conjunto F. Es más, en F no sólo introducimos lo que entenderíamos como lógica matemática (axiomas y reglas de inferencia) sino todo lo matemáticamente posible para tener un modelo matemático del cerebro que utiliza esa lógica (todos los algoritmos necesarios para simular un cerebro). F es, entonces, el modelo soñado por cualquier ingeniero de AI: un modelo del cerebro y su capacidad para realizar todo cálculo lógico imaginable para el hombre. Y, precisamente, ese es el modelo soñado porque la AI Fuerte piensa que eso es un ser humano inteligente. Así, cabe preguntarse: ¿Soy F? Y parece que todos contestaríamos, a priori, que sí.

Sin embargo, Roger Penrose, piensa que no, y para demostrarlo utiliza el celebérrimo teorema de Gödel, que venimos a recordar a muy grosso modo: un sistema axiomático es incompleto si contiene enunciados que el sistema no puede demostrar ni refutar (en lógica se llaman enunciados indecidibles). Según el teorema de incompletitud, todo sistema axiomático consistente y recursivo para la aritmética tiene enunciados indecidibles. Concretamente, si los axiomas del sistema son verdaderos, puede exhibirse un enunciado verdadero y no decidible dentro del sistema.

Si yo soy F, como soy un conjunto de algoritmos (basados en sistemas axiomáticos consistentes y recursivos), contendré algún teorema (proposiciones que se infieren de los axiomas de mi sistema) que es indecidible. Los seres humanos nos damos cuenta, somos conscientes de que ese teorema es indecidible. De repente nos encontraríamos con algo dentro de nosotros mismos con lo que no sabríamos qué hacer. Pero en esto hay una contradicción con ser F, porque F, al ser un conjunto de algoritmos, no sería capaz de demostrar la indecibilidad de ninguno de sus teoremas por lo dicho por Gödel… Una máquina nunca podría darse cuenta de que está ante un teorema indecidible. Ergo, si nosotros somos capaces de descubrir teoremas indecidibles es porque, algunas veces, actuamos mediante algo diferente a un algoritmo: no sólo somos lógica matemática.

Vale, ¿y qué consecuencias tiene eso? Para la AI muy graves. Penrose piensa no sólo que no somos computadores sino que ni siquiera podemos tener un computador que pueda simular matemáticamente nuestros procesos mentales. Con esto Penrose no está diciendo que en múltiples ocasiones no utilicemos algoritmos (o no seamos algoritmos) cuando pensemos, sólo dice (lo cual es más que suficiente) que, habrá al menos algunas ocasiones, en las que no utilizamos algoritmos o, dicho de otro modo, hay algún componente en nuestra mente del cual no podemos hacer un modelo matemático, qué menos que replicarlo computacionalmente en un ordenador.

Además el asunto se hace más curioso cuanto más te adentras en él. ¿Cuáles podrían ser esos elementos no computables de nuestra mente? La respuesta ha de ser un rotundo no tenemos ni idea, porque no hay forma alguna de crear un método matemático para saber qué elementos de un sistema serán los indecidibles. Esto lo explicaba muy bien Turing con el famoso problema de la parada: si tenemos un ordenador que está procesando un problema matemático y vemos que no se para, es decir, que tarda un tiempo en resolverlo, no hay manera de saber si llegará un momento en el que se parará o si seguirá eternamente funcionando (y tendremos que darle al reset para que termine). Si programamos una máquina para que vaya sacando decimales a pi, no hay forma de saber si pi tiene una cantidad de decimales tal que nuestra máquina tardará una semana, seis meses o millones de años en sacarlos todos o si los decimales de pi son infinitos. De esta misma forma, no podemos saber, por definición, qué elementos de nuestra mente son no computables. A pesar de ello, Penrose insiste en que lo no computable en nuestra mente es, nada más y nada menos, que la conciencia, ya que, explica él, mediante ella percibimos la indecibilidad de los teoremas. Es posible, ya que, aunque a priori no pudiéramos saber qué elementos no son decidibles, podríamos encontrarnos casualmente con alguno de ellos y podría ser que fuera la conciencia. Pero, ¿cómo es posible que nuestro cerebro genere conciencia siendo el cerebro algo aparentemente sujeto a computación? Penrose tiene que irse al mundo cuántico, en el que casi todo lo extraño sucede, para encontrar fenómenos no modelizables por las matemáticas y, de paso, resolver el problema del origen físico de la conciencia.

Las neuronas no nos valen. Son demasiado grandes y pueden ser modelizadas por la mecánica clásica. Hace falta algo más pequeño, algo que, por su naturaleza, exprese la incomputabilidad de la conciencia. Penrose se fija en el citoesqueleto de las neuronas formado por unas estructuras llamadas microtúbulos. Este micronivel está empapado de fenómenos cuánticos no computables, siendo el funcionamiento a nivel neuronal, si acaso, una sombra amplificadora suya, un reflejo de la auténtica actividad generadora de conciencia. ¡Qué emocionante! Pero, ¿cómo generan estos microtúbulos empapados de efectos cuánticos la conciencia? Penrose dice que no lo sabe, que ya bastante ha dicho…

O sea señor Penrose, que después de todo el camino hecho, al final, estamos cómo al principio: no tenemos ni idea de qué es lo que genera la conciencia. Sólo hemos cambiado el problema de lugar. Si antes nos preguntábamos cómo cien mil millones de neuronas generaban conciencia, ahora nos preguntamos cómo los efectos cuánticos no computables generan conciencia. Penrose dice que habrá que esperar a que la mecánica cuántica se desarrolle más. Crick o Searle nos dicen que habrá que esperar a ver lo que nos dice la neurología… ¡Pero yo no puedo esperar!

Además, ¿no parece extraño que la conciencia tenga algo que ver con el citoesqueleto de las neuronas? La función del citoesqueleto celular suele ser sustentar la célula, hacerla estable en su locomoción… ¿qué tendrá que ver eso con ser consciente? Claro que en el estado actual de la ciencia igual podría decirse: ¿qué tendrá que ver la actividad eléctrica de cien mil millones de neuronas con que yo sienta que me duele una muela?

HAL, quiero que seas capaz de reconocer las letras del vocabulario mediante tus sensores visuales. Empecemos por la “a”. Voy a darte un patrón para que reconozcas los diferentes tipos de aes que puedas encontrarte.

De acuerdo Dave. Introduce el patrón.

Su forma se asemeja a un triángulo.

ERROR. La “a” minúscula suele ser redondeada.

Tiene un hueco aproximadamente en el centro.

ERROR. Por ejemplo, en la imagen de arriba, la tercera y la cuarta “a” de la última fila no tienen huecos en el centro. O la última de todas, que es un hueco toda ella, siendo el relleno su fondo.

Una línea horizontal cruza otras dos líneas aproximadamente verticales.

ERROR. La “a” minúscula no tiene línea horizontal. Igualmente, hay un montón de ejemplos de aes sin línea horizontal en la imagen.

¿Cómo es posible? ¿Cómo puede ser que ya desde niños seamos capaces de identificar todo el abecedario sin dificultad alguna, pero que reconocer simplemente la letra “a” sea uno de los  grandes desafíos de la inteligencia artificial? La respuesta es que estamos muy acostumbrados a pensar con ideas claras y distintas tal como nos enseñó Descartes. Queremos un patrón único que defina límpiamente la letra “a”, de modo que el computador la identifique de un modo fácil y 100% seguro.  Queremos algo así como la esencia de la “a”. Pedimos demasiado. Seguramente la forma en la que el ser humano identifica letras es mucho menos precisa, más desordenada y funciona por vagas aproximaciones  y tentativas. ¿Por qué en vez de utilizar una única condición y lógica bivalente, utilizamos más condiciones y en diferentes proporciones? ¿Qué tal si probáramos algo así?:

HAL, sigue estos patrones:

Si su forma se asemeja a un triángulo suma un 60% de probabilidades de estar ante una “a”, si no resta 30%

Si tiene un hueco aproximadamente en el centro suma un 20% de probabilidades, si no resta 40%

Si tiene una línea horizontal curzando otras dos líneas aproximadamente verticales suma otro 50%, si no resta 30%

Si tiene un rabillo al final suma un 30% si no resta un 5%

Incluso podemos intruducir datos contextuales:

Si está entre dos consonantes hay un 90% de que sea vocal.

Si es vocal habrá un 20% de que sea una “a”.

HAL se equivocaría muchas veces (con toda certeza que muchas, ya que los percentiles los he puesto más o menos a bote pronto), pero podríamos ir refinando las condiciones en función de sus aciertos. Sabemos que el cerebro procesa mucha cantidad de información en paralelo y, seguramente, que mucha de esa información será parcial y contradictoria, de modo que, al final, las decisiones sean probabilísticas y, muchas veces, equívocas. ¿No es así como actuamos nosotros en nuestra vida cotidiana? Ya sabemos que nuestro cerebro es un kludge. Pues en esta línea apuntan las investigaciones en visión artificial de las últimas décadas, y quizá sea la forma de afrontar muchos otros problemas dentro de la AI. Señores, si queremos imitar al hombre no hay que construir máquinas perfectas, sino chapuzas que, de modo casi inexplicable, funcionen muy bien.