Archivos de la categoría ‘Ciencias de la computación’

Desde cierta perspectiva ideológica se entiende el entramado tecno-científico  como un instrumento al servicio del malvado capitalismo (tecnoliberalismo he leído). Las grandes corporaciones que dominan el mundo desde la sombra, utilizan la tecnología, esencialmente, contra el ciudadano de a pie (es decir, contra el lector promedio de noticias de esa temática ¿Qué iban a tener mejor que hacer los dueños de las multinacionales?), intentando controlarle, mantenerle alienado, en un estado de esclavitud inconsciente.

Las máquinas, asociadas a la revolución industrial y, por lo tanto, a la explotación de la clase obrera, se ven como la máxima expresión de lo inhumano. Si el sistema capitalista ya es inhumano, sus frutos mecánicos no podrían ser menos: los robots son entes fríos gobernados por despiadadas almas de metal, seres amorales que, como tantas veces pronostica la literatura y el cine, terminaran por aniquilarnos. HAL 9000, Proteus, Skynet… todas las versiones cinematográficas en las que se habla de inteligencias artificiales es, siempre, para reinterpretar una y otra vez el mito de Frankenstein: humanos jugando a ser dioses (“jugar a ser dioses” es un mantra repetido ad nauseam que no significa absolutamente nada) a los que su creación se les va de las manos y termina por volverse contra ellos.

Recientemente apareció en la prensa la noticia de dos programas de IA de Facebook, diseñados para establecer negociaciones, que habían creado un lenguaje propio aparentemente ininteligible. Asustados por el descontrol, aseguraban los periodistas,  los programadores desconectaron los programas (como si los programas estuviesen vivos siempre en funcionamiento y no se desconectaran cada vez que no se estuviesen ejecutando, es decir, como mínimo cuando los programadores se fueran a dormir a casa y apagaran sus ordenadores). La prensa amarilla vendió el asunto como si los programas se estuviesen escapando de las manos de sus creadores y los ingenieros de Facebook, realmente, hubiesen sentido miedo ante las posibles consecuencias de dejar funcionando algo sí. En ciertos medios (que no citaré para no darles publicidad) se dijo, alegremente, que esto demostraba que el estado de la IA actual ya había superado al hombre, y sugerían un escenario apocalíptico de lucha entre humanos y máquinas. Lamentable: la prensa, como tantas veces, desinformando.

La realidad es que, a mi pesar, la IA está a años luz de conseguir lo que sería una IAG (Inteligencia Artificial General) equiparable al ser humano, hacia la que tuviésemos que empezar a mostrar algo de preocupación. Se han dado excelentes progresos en reconocimiento visual o comprensión del lenguaje natural a través de modelos de redes neuronales artificiales, además de que con la actual capacidad de computación, podemos diseñar redes que aprenden rápido (y por sí solas) a través de ingentes cantidades de datos. Sin embargo, todavía son máquinas demasiado especializadas en una tarea concreta para poder enfrentarse a la inabarcable complejidad que parece necesitarse para operar competentemente en el mundo real. Es posible que en un futuro, más lejano que cercano, lo conseguirán, pero creo que, de momento, tenemos preocupaciones más apremiantes que las IA asesinas pretendiendo dominar la Tierra.

Y si nos vamos a las ciencias de la vida, el asunto no hace más que empeorar. Ya sabemos como en temas de nutrición, hay que comer alimentos sanos, es decir, naturales. Todo lo “químico”, lo “artificial” es, casi a priori, tóxico. Los defensores de lo natural parecen desconocer que todo lo que existe (o, como mínimo, lo que comemos) está compuesto de elementos químicos presentes en la tabla periódica (todo es químico). Si contraargumentan que químico significa que ha sido sintetizado en un laboratorio, habría que preguntarles qué tiene de malo que algo se procese en un laboratorio, cuando, precisamente, los laboratorios han de pasar por una infinidad de controles para poder sacar un producto al mercado, mientras que algo que no procede de ningún laboratorio es lo que puede escapar más fácilmente al control.

Es lo que pasa con la medicina natural. Un medicamento convencional requiere una altísima inversión por parte de la empresa farmacéutica que va desde la investigación hasta que el medicamento es aprobado y sale al mercado (igualmente pasando por una gran cantidad de protocolos y controles sanitarios). Por el contrario, el medicamento natural, se ahorra absolutamente todo: ni investigación (¿para qué demostrar que el medicamento es eficaz o no, o qué efectos secundarios tiene, si mi cuñada dice que le fue genial?) ni ningún tipo de control ¡Vaya chollazo! Es curioso que los críticos con las farmacéuticas ven en ellas el feo negocio de la salud (muchas veces con razón), pero no lo vean en los suculentos beneficios de las empresas de lo natural.

Si por natural entienden lo orgánico como referencia a la química orgánica o del carbono, deberían saber que el petróleo y sus derivados plásticos son compuestos tan orgánicos (tan compuestos por carbono) como su zumo de aloe vera. Es más, su coliflor ecológica, tan sana en comparación con la peligrosísima coliflor transgénica, es fruto de milenios de selección artificial de genes, sin ningún estudio de su peligrosidad más que comerla y ver qué pasa. La coliflor, y todas las frutas, verduras, hortalizas y legumbres que cultives “naturalmente” en tu huerto ecológico, provienen de ancestros completamente diferentes (la coliflor viene de una insustancial especie de mostaza silvestre)  que fueron seleccionándose en función de las propiedades que se querían potenciar, es decir, que se escogieron genes y se desecharon otros durante miles de generaciones. Todo tu huerto está formado por especies diseñadas por el hombre: es, por entero, artificial.

Desde obras como Brave New World de Huxley, inspiradora directa de la Gattaca (1997) de Niccol, se ha criticado cualquier forma de eugenesia apelando, fundamentalmente, a que crear niños a la carta (por muy buenas virtudes que les demos y por muchas enfermedades de las que les libremos) les privaría de cierta libertad, dando lugar a un mundo demasiado ordenado y regular, demasiado perfecto. En Gattaca se ataca directamente el determinismo genético (el que, erróneamente, tanto se ha atribuido a Dawkins) afirmando, en lenguaje cinematográfico, que no todo está en los genes, sino que el hombre tiene algo valioso en su interior, una especie de esencia, que le permite vencer incluso a su propio genoma.

En la misma línea, repitiendo el jugar a ser dioses, se ha argumentado que modificar genéticamente al ser humano no puede dar lugar a otra cosa que no sean monstruos que, al final, se volverán de algún modo contra nosotros (Véase la película Splice, 2009) . Nuestra naturaleza humana es la que nos hace ser lo que somos, de modo que cambiarla nos deshumanizaría o, peor aún, inhumanizaría.  Todo esto se enmarca siempre con menciones a los programas eugenésicos de los nazis (no suele mencionarse que esos mismos programas se estaban dando, igualmente, en los países aliados, notablemente en Estados Unidos, uno de los países más racistas del mundo) o al darwinismo social (que tantas veces se confunde con el darwinismo o con la misma teoría de la evolución).

Los errores son evidentes:

  1. Modificar los genes de un embrión para darle ciertas características no le resta ningún tipo de libertad que antes tuviera, ¿o es que alguien ha elegido sus genes antes de nacer? El ser humano genéticamente modificado será tan libre de elegir su futuro como cualquiera de nosotros.
  2. Decir que mejorar genéticamente al ser humano va dar lugar a un mundo enrarecido demasiado perfecto, es una afirmación gratuita: ¿por qué? Con total seguridad, a pesar de dotar a los seres humanos de mejores cualidades, estaremos lejos de crear un mundo perfecto. Lamentablemente, los problemas y las injusticias seguirán existiendo. Yo solo creo que con mejores seres humanos sería más probable conseguir un mundo mejor, pero de ninguna manera perfecto.
  3. Nadie defiende hoy en día el determinismo genético. Somos fruto de nuestros genes, pero también del ambiente y del azar. El niño modificado tendrá una vida entera por delante en la que sus experiencias vitales configurarán su personalidad igual que la de cualquier otro hijo de vecino. Lo que sí está claro es que no tenemos ninguna esencia interior, ninguna fuerza mágica que haga que podamos vencer a nuestra biología. Lo sentimos mucho pero el cáncer no puede curarse con meditación ni buena voluntad.
  4. No existe una naturaleza humana sagrada, dada para siempre. El ser humano es una especie como cualquier otra y, en cuanto a tal, sigue evolucionando por lo que, queramos o no, se modificará ¿No será mejor que nosotros controlemos nuestra propia evolución antes de que lo haga el mero azar?
  5. Que los nazis tuvieran programas eugenésicos no implica que la eugenesia sea mala. Estoy seguro de que muchos nazis eran hábiles reposteros de apfelstrudel (pastel de manzana, postre típico austriaco, muy común en Alemania), ¿por eso cocinar pastel de manzana va a ser malo?
  6. Nadie defiende ningún tipo de darwinismo social. Que alguien tenga cualidades genéticas mejores que otro no quiere decir que haya que marginar o discriminar a nadie. Por esa regla de tres, si me encuentro con otra persona menos inteligente que yo, ¿ya tengo derecho a tratarla mal? Y, en el peor de los casos, la jerarquización social que podría llegar a darse no sería muy diferente a la actual. Los más inteligentes, trabajadores, atractivos, etc. tienden a copar los mejores puestos socio-económicos… ¿qué es lo que iba a cambiar?

Evidentemente, el control ético de todo avance en el que estén inmiscuidos seres humanos debe ser extremo y no debe darse ningún paso sin garantizar, al menos de un modo razonable, que nadie va a sufrir ningún tipo de daño. Nadie está hablando de hacer experimentos genéticos al estilo de La Isla del Doctor Moreau ni de nada por el estilo, se está hablando de dar mejores cualidades, lo cual, probablemente aunque no necesariamente, hará un mundo mejor, lo cual, probablemente aunque no necesariamente, evitará mucho sufrimiento futuro.

Hagamos un último experimento mental. Supongamos que en un futuro próximo el mundo se ha unificado políticamente, de modo que toda la población vota a un presidente mundial. Tenemos dos candidatos:

a) Un ciudadano cualquiera del que no sabemos nada de sus genes.

b) Un ciudadano que fue modificado genéticamente para ser muy inteligente y voluntarioso, a parte de bondadoso, generoso, idealista, honesto…

¿A cuál votaríamos? ¿Con cuál sería más probable que el mundo fuese mejor? Y podríamos añadir una tercera opción:

c) Una inteligencia artificial con capacidades cognitivas sobrehumanas programada para buscar el bien y la felicidad del ser humano, y para ser totalmente incapaz de hacer daño a nadie.

Yo, siendo políticamente incorrecto, creo que la apuesta más segura para un mundo mejor es la c.

Desgraciadamente, toda esta distorsionada y, a todas luces, equívoca forma de entender la realidad domina en gran parte de las universidades y, sobre todo, en la izquierda política. Y es una verdadera lástima porque sería necesaria una izquierda ilustrada que entendiera que una de las mejores formas de conseguir que las clases bajas mejoren su situación es a través del desarrollo científico y tecnológico. No estamos hablando de caer en un optimismo ingenuo hacia las posibilidades de la ciencia, ni en el torpe solucionismo tecnológico (creer que todo lo va a solucionar el avance tecnológico). Este artículo, publicado en el New York Times, nos dejaba claro lo lejos que aún estamos de hacer seres humanos a la carta (fijaos en el dato de que en, solamente, una cualidad como la altura intervienen unas 93.000 variaciones genéticas). Sin embargo hay que cambiar, radicalmente, esta visión-actitud hacia las nuevas tecnologías. Es, sin duda, el tema de nuestro tiempo.

Anuncios

Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte “inmaterial” de la máquina. Lo demás, lo físico, era cosa de electricistas.

En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?

Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos “estúpidos” pueden emerger conductas muy sofisticadas e inteligentes.

Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).

Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.

Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.

Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.

Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

Adjunto el famoso paper de Brooks (muy criticado en su momento):

Intelligence without reason – Rodney Brooks

Es cierto que su “Alchemy and Artificial Intelligence” para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado.

Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban.  Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron.

El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más.

Vamos a hacer un somero resumen de sus planteamientos. Su crítica pueden dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades esenciales al ser humano que la IA nunca será capaz de reproducir.

Presupuestos discutibles de la IA:

  1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off  de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de ésto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestro modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro.
  2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente.  La mente está, según Dreyfus, muy lejos de ser igual a un ordenador.
  3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones?
  4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico.  Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica.

Aspectos del ser humano que la IA no puede, ni podrá nunca, simular:

  1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition.
  2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien ésto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su critica desde una perspectiva completamente opuesta a la visión materalista-naturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental.
  3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña).

Hubert Dreyfus falleció el pasado 22 de abril. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.

Vamos a hacer un poquito de ejercicio. Mis conocimientos en las ciencias del deporte son más bien precarios, así que decido bajarme una aplicación a mi móvil que me proponga un plan de entrenamiento efectivo. Si la aplicación es de calidad, en ella estarán concretados los mejores conocimientos acerca de cuál es el mejor plan para una persona de mis características y, por tanto, será eficaz. Entonces yo confío en la aplicación y la pongo al mando, es decir, dejo que ella decida por mí qué es lo que tengo que hacer. En ese momento estoy dejando que un algoritmo gobierne una parcela de mi vida ¿Estoy haciendo algo malo? No, precisamente porque ese algoritmo es mejor gobernando esa parcela de mi vida que yo mismo. Es totalmente razonable confiar en esa máquina si, realmente, queremos adelgazar.

Damos un paso más. Hoy es día de elecciones y como buen ciudadano voy a ir a votar. Desde siempre he votado al PSOE. Mi abuelo luchó en la guerra civil en el bando republicano e inculcó sus ideas políticas a mi padre, quien luego me las inculcó a mí. Soy socialista por tradición. Sin embargo, cuando voy a votar me encuentro con un viejo amigo comunista. Hablamos un rato, precisamente sobre política, y me hace pensar. Al final, por primera vez en mi vida, voto a Podemos. Pero después, mientras voy caminando de vuelta a casa, comienzo a sentirme mal. Me arrepiento de mi voto y pienso que he traicionado a mi familia por una conversación de última hora. Quisiera cambiar mi voto pero ya es demasiado tarde: yace en el fondo de la urna.

Rebobinamos. Supongamos otra vez la situación anterior pero introducimos un nuevo elemento: Cortana 2045, mi asistente virtual de última generación, cortesía de Microsoft. A partir de todos mis datos de internet y de acompañarme continuamente en todo mi quehacer cotidiano, sabe perfectamente mis preferencias políticas y también sabe lo voluble que puedo ser a la hora de tomar una decisión, sobre todo, a última hora. Ella sabe mejor que yo a quién quiero realmente votar y no va a dejarse llevar por sesgos ni cambios repentinos de opinión. Entonces, lo razonable sería dejar que Cortana votara por mí ¿Dejaremos entonces una decisión supuestamente tan importante como el voto a un conjunto de algoritmos automatizado?

¿Qué pasará cuando inteligencias artificiales sepan tomar nuestras decisiones mejor que nosotros mismos? Tendremos dos opciones: o preferimos seguir sintiéndonos libres y decidimos por nosotros mismos, o dejamos que las máquinas lo hagan y perdemos el mando. El problema estará en que los que pierdan el mando vencerán, ya que tomarán mejores decisiones que los libres, por lo que parece que por simple y pura lógica, cada vez más gente dejará la toma de decisiones a sus consejeros digitales.

Y pensemos las repercusiones de algo así: como apuntábamos en la entrada anterior, la base política, social y económica de nuestra sociedad es el liberalismo, y el liberalismo presupone como condición de posibilidad la existencia de un agente libre que vota, consume y delinque en virtud de susodicha libertad ¿Qué pasará cuándo esas decisiones las tomen máquinas? Podríamos llegar a un original pronóstico: el fin del liberalismo no será, desde luego, el marxismo ni sus diversas variantes, sino una tecnología: la IA.

Pero, y ésta creo que es la gran pregunta del futuro próximo: ¿Aceptará el arrogante ser humano la pérdida del protagonismo en la historia? ¿Aceptará pasar a un segundo plano? ¿Aceptará ser irrelevante?

 

pinzas-10ud-4

Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad.

Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato.

Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el  que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial.

Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo.

Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libremercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra?

Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital pero al agudo nerd se le ocurrió un método para el que no hacia falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores…

De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló:

– Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies.

De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

terminator-2-1200x873

Mensaje antiplatónico par excellence: no existe nada que esencial, o lógicamente, ligue un hecho ético (o, más bien, la interpretación ética de un hecho) del mundo y un estado emocional placentero.  A partir del descubrimiento de las sustancias psicoactivas, nos dimos cuenta de que para conseguir una sensación o emoción no es necesaria la presencia de tal hecho o, ni siquiera, del estado mental que lo preceda y lo cause.  La alegría que hubiéramos obtenido si nos hubiera tocado la lotería de Navidad, podemos conseguirla, e incluso intensificarla, ingiriendo un compuesto de prosaicas moléculas, sin que, realmente, nos toque ni un céntimo. Es más, con una calculada dosis, ya no diremos de la brutal etorfina, sino de fentanilo (peligrosísima) o de oxicodona, podrías sonreír de un indescriptible placer mientras te corto un brazo.

Este descubrimiento tiene unas consecuencias brutales. La mayor parte de las concepciones de la ética dadas a lo largo de la historia (con la honrosísima excepción de la genial ética kantiana) prometían un estado final de felicidad, a condición de seguir una serie de, a menudo muy duros, preceptos. La ataraxia griega, el nirvana budista o la visión deifica cristiana, son estados, en gran medida emocionales, que se obtienen después de  un largo proceso que, a menudo, puede durar toda una vida. El sentido de tu existencia, lo que debes hacer día a día, está sujeto a la obtención de ese premio final. Sin embargo, llegamos a día de hoy y conseguimos el premio sin el arduo proceso.

Se podría objetar que ese estado de felicidad artificial, ese paraíso químico, sería falso, un disfraz conseguido haciendo trampas, algo inauténtico, postizo ¿Por qué? Esta objeción encierra una confusión: la emoción que se consigue al ingerir un psicotrópico no tiene absolutamente nada de falso, es tan real como la conseguida sin la ingesta. Lo falso, o más bien lo ausente, es el suceso generador de la emoción, no la emoción misma.

Se sigue objetando: pero lo realmente valioso es el camino, no únicamente el resultado. Respondemos: podemos ponderar lo que obtenemos en cada fase del camino y ver si compensa o no perderlo en virtud de conseguir, inmediatamente y sin esfuerzo, el bien final. En algunos ejemplos está claro: pensemos en las millones de personas que se están machacando en el gimnasio por lucir un bonito cuerpo cuando llegue el verano. Si yo les dijera que, puedo conseguirles ese cuerpo deseado sin el más mínimo coste, tomando una pastilla que no tiene efecto secundario alguno… ¿No la tomarían sin dudar? ¿No sería estúpido decir que no, que prefieren sufrir levantando pesas y comiendo brócoli?

Las pocas experiencias que he tenido con drogas duras (con las mal llamadas blandas, como el tabaco o el alcohol, he tenido muchísimas) fueron en mi época universitaria (juventud: bendita idiotez). Recuerdo una noche en la que probé una pastilla de MDMA. Cuando la ingerí estaba ya completamente borracho (si no, seguramente, mi superyó bien aleccionado me hubiera impedido tomarla) pero al cabo de unos treinta minutos mi estado etílico cambio radicalmente hacia algo muy diferente. Sentí una felicidad inmensa, una plenitud absoluta, una comunión total con el cosmos… Todo tenía sentido y todo era completamente maravilloso. Nunca antes había sentido un amor hacia la vida y hacia todos los seres humanos similar. Sinceramente, esas horas de efecto del MDMA han sido las más felices de mi vida (y no soy una persona especialmente desgraciada). Nunca he vuelto a sentir emociones tan agradables con esa intensidad. Y, paradójicamente, eso es lo que me aterró de las drogas y lo que consiguió que, finalmente, no terminará siendo un yonki en cualquier parque. Me dio mucho miedo saber que lo que había tomado era demasiado bueno y comprendí lo brutal que debería ser el reverso tenebroso de algo así. Entendí por qué un yonki de cualquier parque es plenamente consciente de su penosa situación y, aún así, prefiere seguir drogándose a tener una vida. No volví a probarlo.

Sin embargo, de lo que no quedé nada disuadido, es de aceptar el uso de drogas que no tengan efectos secundarios significativos. Sería la utopía del utilitarismo hedonista: una sociedad en la que todo el mundo tenga acceso a la mayor felicidad posible. Es más, lo que sería inmoral sería privar a la gente de unas sensaciones de bienestar semejantes. Y, siguiendo esa lógica, nada parece alejarnos de un futuro en el que el uso de psicotrópicos de diversa índole sea cada vez más usual (de hecho ya lo es). Pero quizá un futuro emocionalmente paradisíaco puede esconder algo, como mínimo, inquietante. Sabemos, desde experimentos realizados en la década de los cincuenta del siglo pasado, que ratas de laboratorio preferían tomar cocaína a comer o a beber, dejándose morir con tal de seguir consumiendo su droga. Y es que los sistemas de recompensa emocional del cerebro tienen un fin evolutivo claro: moverte a actuar para obtener placer o evitar el sufrimiento ¿Qué ocurre entonces cuando no hay sufrimiento y se vive en un estado de placer constante? Que el individuo ya no tiene nada que hacer, que no hay nada que pueda motivar su conducta.

Un futuro así sería como un colosal fumadero de opio en el que miles de sujetos vivirían enchufados a aparatos que les suministraran regularmente la dosis adecuada, quizá siempre durmiendo o, simplemente, ensimismados en hermosísimas ensoñaciones, quizá sin hablar con nadie más (¿para qué las relaciones sociales?) o no, pero, seguramente, sin hacer prácticamente nada: solo lo necesario para mantenerse vivos y drogados. Aquí, si que el tiempo histórico quedaría congelado. No se evolucionaría hacia nada más ya que, esta vez sí, estaríamos ante el auténtico fin de la historia de Fukuyama.

Este futuro utópico, o distópico según se mire, casaría perfectamente con el advenimiento de la singularidad tecnológica de la IA. Si construimos inteligencias artificiales que nos superen abrumadoramente, y si hemos sido lo suficientemente listos para conseguir que no nos exterminen, podría pasar algo así: las máquinas tomarían el mando de la historia y se dedicarían solo Skynet sabe a qué, mientras dejarían a sus venerables, aunque patéticamente inferiores creadores, viviendo en un inofensivo paraíso. Entonces, poseamos superdrogas o no, tendremos que enfrentarnos a algo a lo que nuestro frágil ego humano no está acostumbrado: la irrelevancia ¿Aceptará el hombre perder el protagonismo de su historia? ¿Aceptará perder el mando, aún a sabiendas de estar en mejores manos que en las suyas propias? Sería un caso de interesante dilema moral: ¿libertad o felicidad? La respuesta sería fácil para los drogados: seguir en su paraíso toda la eternidad y que gobiernen otros. La responsabilidad del gobierno trae demasiadas preocupaciones y dolores de cabeza.

O quizá, la historia podría continuar por otros derroteros: es posible que los seres humanos no nos quedásemos del todo quietos, sino que siguiéramos buscando formas de placer aún más poderosas. Quién sabe si pondríamos a la IA a nuestro servicio para conseguir placeres que ahora no alcanzamos ni a imaginar. Pensemos en diseño de cerebros a los que se aumenta su capacidad de sentir, con circuitos de placer hiperdesarrollados, que viven en un mundo de realidad virtual en el que todo está pensado para estimular cascadas de opioides, maravillosas tormentas cerebrales de una potencia inusitada. La historia de la humanidad se convertiría en la búsqueda de paraísos dentro de paraísos.

Pensemos en el mejor sueño que hayamos tenido y pongamos detrás de el a un asistente computerizado que sabe lo que nos gusta mucho mejor que nosotros. Recomiendo ver Más allá de los sueños (1998) de Vincent Ward. La película es mala pero sus efectos visuales (que ganaron un Óscar) pueden ilustrar muy bien a lo que nos referimos: imagina caminar de la mano con una bella mujer (quizá con esa chica que nos gustaba en el instituto y que ya no sabes nada de ella), por el cuadro más hermoso que se te ocurra, mientras escuchamos una increíble sinfonía (la Lacrimosa de Preisner o el Dúo de las flores de Delibes) , a la vez que nuestros centros cerebrales de placer se disparan como fuegos artificiales, haciéndonos sentir una especie de orgasmo infinito… Vivir eternamente en ese día de verano de cuando teníamos doce años y no había nada que hacer, ninguna preocupación, y todo era nuevo…

paisajes-naturales-pinturas-al-oleo-sobre-lienzo_21

Por si alguien no ha leído mi último artículo en Xátaka, va sobre otro posible futuro: precrimen.

Y feliz Navidad máquinas mías.

supercomputer-jpg-650x0_q70_crop-smart

Recomendaciones: Black Mirror: San Junípero (3×04). Este capítulo de la serie nos habla de un futuro no demasiado lejano en el que, al morir, puedes elegir entre fallecer sin más (y probar suerte a ver si existe el paraíso de las religiones) o pasar tu mente a un ordenador y vivir en un paraíso artificial llamado San Junípero (una realidad virtual que representa un bonito pueblo en una playa de California). El capítulo es sublime y quizá escriba un día una entrada dedicada plenamente a él porque la temática lo merece: la posibilidad de un Cielo para ateos, de una eternidad de verdad.

Pero hoy voy a hablar de un tema recurrente en el blog: el minduploading o los problemas filosóficos que hay detrás suyo. La cuestión crucial es: Si mueres y decides ir a San Junípero, ¿serás tú el que realmente estás allí o será una mera copia de ti mismo? Este era exactamente el mismo problema del teletransportador (lo tratamos aquí, aquí y aquí), que remite al viejísimo problema de la identidad personal: ¿qué es lo que realmente hace que yo sea yo mismo y que, por lo tanto, tengo que llevarme necesariamente a San Junípero aunque se me olvide todo lo demás?

El matemático sueco Olle Häggström plantea el asunto de forma original. Supongamos que tenemos una máquina de teletrasportación que me lleva desde mi casa a Nueva York porque tengo allí una importante reunión de trabajo el jueves. ¿Me fiaría de subirme al teletransportador? ¿Sobreviviré al viaje o moriré y una copia de mí mismo ocupará mi lugar? Häggström distingue dos tipos de supervivencia:

σupervivencia: yo σobrevivo hasta el jueves si ese día existe una persona que tiene los mismos rasgos de personalidad, los mismos recuerdos, etcétera, que tengo yo hoy (permitiendo ciertos cambios correspondientes a lo que se considera normal en el transcurso de varios días).

Σupervivencia: yo Σobrevivo hasta el jueves si (a) σobrevivo hasta el jueves, y (b) se mantiene cualquier propiedad necesaria para que el tipo que llega a Nueva York siga siendo realmente yo (en comparación con una copia mía).

Después se pregunta cuál será esa propiedad (la llamaremos Σ) que diferencia los dos tipos de supervivencia. Propone como candidata la CBTST (Continuity of my Body’s Trayectory though Space-Time): yo sigo siendo yo mismo si, en el caso de una teletransportación, mi cuerpo es trasportado de alguna manera del punto de origen al de destino (Téngase en cuenta de que esto sería imposible para San Junípero ya que nuestro cuerpo habría muerto). Supongamos que existe una especie de súpercable que puede transportar todos mis átomos desde mi casa a Nueva York y, allí, el teletransportador reconstruirá por completo mi cuerpo. El teletransporte sería solo “empequeñecerme” para meterme en un cable para luego volver a “agrandarme”.

Sin embargo, la CBTST no convence a Häggström: los átomos no tienen identidad. Si yo cojo ahora mismo y construyo átomo a átomo a otro Santiago absolútamente idéntico a mí: ¿qué hay en cualquiera de los dos que haga que uno sea yo y que otro sea una copia? Si somos materialistas no podemos aceptar nada, y Häggström propone recurrir a la práctica navaja de Ockham: si no encontramos Σ por ningún lado, lo más probable es que no exista Σ. Por lo tanto, σobrevivir es exactamente lo mismo que ∑obrevivir. La teletransportación es segura y San Junípero es posible.

No obstante, creo que Häggström resuelve el tema muy rápido y con demasiada superficialidad. Su solución no resuelve, para nada, el problema del teletransporte no destructivo (que él mismo plantea también unas páginas antes). Supongamos que yo me teletransporto a Nueva York de la siguiente forma: la máquina teletransportadora realiza un súperpreciso escáner de mi cuerpo, después lo destruye, manda la información a Nueva York y allí, siguiendo las instrucciones recibidas, construye un ser idéntico al que había al otro lado. Según Häggström aquí no habría problema alguno: el teletransporte habría sido un éxito y yo seguiría siendo yo mismo (σ es igual a Σ). Sin embargo, ese día ocurre un problema y la máquina encargada de destruir mi cuerpo en el punto de salida se avería, de modo que no lo destruye. Entonces se da el caso de que existen dos santiagos, uno aquí y otro en Nueva York ¿Cuál de ellos soy yo? ¡Los dos! ¡Pero eso es imposible!

Desde mi perspectiva, Σ es la sentience, es decir, la capacidad de sentir en primera persona lo que me pasa. Yo sigo siendo yo mismo si cuando me pellizcan, yo, y ninguna otra persona o copia mía, siente ese dolor.  Pero también creo que esa capacidad es un fenómeno natural tan físico-químico-biológico como la digestión o la circulación de la sangre. Pero entonces, ¿cómo es posible que si hacen una copia idéntica a mí, ésta no tenga también la misma sentience que yo? Mi respuesta es que Σ es físico-químico-biológico pero, es una función, propiedad o proceso que tiene la cualidad de ser personal e intransferible. Es, por así decirlo, de un solo uso. Si creamos una copia, aunque sea idéntica a mí, crearemos sentience, pero una sentience diferente a la mía.

Sería algo así como la ubicación espacial de cada uno. Dos objetos pueden ser exactamente iguales pero su ubicación espacial siempre ha de ser diferente. Igual pasa con Σ: dos personas pueden ser materialmente iguales pero su Σ siempre ha de ser diferente. Si me duelen las muelas solo me duelen a mí y a nadie más. Podríamos hacer que otra persona sintiera exactamente mi mismo dolor de muelas pero, aún así, cada uno sentiría el suyo. No atino a entender cómo podría ser una consciencia global en el que nos fusionásemos todos ya que, precisamente, consciencia y global son dos términos antagónicos. Si todos nos fusionásemos en una consciencia global lo único que ocurriría es que cada una de nuestras individualidades sería absorbida por una consciencia dominante que sería, a fin de cuentas, la única consciencia existente.

Otro ejemplo: pensemos en dos videocámaras materialmente iguales que se ponen a grabar diferentes paisajes. A pesar de ser materialmente idénticas la película que filman es diferente. Pues, sencillamente, ∑ es lo que están grabando. Si yo cojo y hago una copia exacta de una de ellas con toda la película grabada hasta entonces y la pongo de nuevo a grabar, al ser ya la película diferente habría creado un nuevo Σ.

Aunque no es una gran respuesta a nivel explicativo (ya que sigue sin explicar casi nada de lo que es Σ) creo que es esencialmente correcta: salva el naturalismo, sortea el problema del teletransporte no destructivo, y hace lo que toda respuesta filosófica ha de hacer: aportar algo de claridad aunque sea tenue. Eso sí, la conclusión no gustará mucho a los amigos de la AI: no te teletransportes si no quieres morir y San Junípero estará lleno de tristes copias de muertos.

anatomias-fernando-vicente-1

  1. MacLuhan hablaba de “extensiones del hombre” o Ernst Kapp de “órganos proyectados”. He leído muchas veces usar la expresión “prótesis” (si bien sería más correcto decir “órtesis” en la mayoría de los casos ) para hablar de los adelantos tecnológicos que forman parte de nuestros quehaceres cotidianas y que, en cierto sentido, forman parte de nuestro cuerpo, siendo ya complejo establecer una frontera entre hombre y máquina. Se habla de cyborg para referirse a esta simbiosis representada por individuos con cualquier tipo de implante mecánico o electrónico. Todos se quedan muy cortos. Ortega se acercó algo más: somos esencialmente técnicos, esencialmente artificiales: nuestra forma de relacionarnos con el mundo es el artificio. No es que podamos elegir entre usar tecnología o no, es que somos tecnología. El ludismo es el movimiento más antinatural que existe y el transhumanismo es un humanismo.
  2. Spacewar fue el primer videojuego de la historia. Lo diseñó en 1962 un estudiante del MIT llamado Steve Russell. Conocer la fecha de este evento no parece importante. Yo mismo no la conocía hasta hace unos días, pero eso cambiará drásticamente. Igualmente que la historia que nos enseñaron en los institutos (llena casi exclusivamente de reyes y batallitas) ha ido evolucionando para convertirse en una historia social, económica, simbólica, de las ideas, etc. muchísimo más útil y significativa, la historia de la computación terminará por incluirse en ella y tener un importante papel en los planes educativos (o no, dependerá claro de nuestra insigne clase política). Es una obviedad decir que a día de hoy, un sociólogo no se enterará de absolutamente nada sin la historia del procesamiento de la información.
  3. En 2008 existían ya unos 8,6 millones de robots, cifra que contrasta mucho con los escasos 20.000 que funcionaban en 1980. En 28 años ya hay 430 veces más robots y, sin embargo, la jornada laboral no se ha reducido (incluso ha subido a principios de siglo) ¿Por qué? ¿En qué están fallando las predicciones de Keynes? ¿Por qué no tenemos ya jornadas de dos o tres horas diarias? Dos razones: nosotros, la clase media hemos elegido mantener un elevadísimo nivel de consumo a cambio de seguir trabajando muchas horas (hay que ser imbéciles pero así lo hemos decidido. Ya veréis a quién votáis o cuáles son las prioridades en vuestras vidas). Y la segunda: desde las clases dirigentes se ha remado en la misma dirección como no podría ser de otra manera. En tu empresa, si tus trabajadores echan ocho horas y producen x, y ahora tienes dos robots que te hacen producir x+5 sin un aumento significativo de costes, bienvenido sea ese aumento de producción en un ámbito de dura competencia en el sector. Si reduces la jornada laboral, siempre habrá otra empresa que no lo hará y ganará la partida, así que no lo haces. Sin una legislación global no se puede hacer nada.
  4. Diversos estudios (por ejemplo aquí y aquí) calculan que en un par de décadas casi la mitad de los puestos de trabajo en el sector industrial serán ocupados por robots. En España el sector industrial representa, desgraciadamente, solo un 20% del total de los trabajadores. Si tenemos algo más de 17 millones de trabajadores, de los cuales 3,4 trabajan en la industria, para el 2040 tendremos 1,7 millones de puestos de trabajo destruidos. Son veinte años, una generación. Hay tiempo para formar a los futuros trabajadores para adaptarse a este nuevo mercado laboral (evidentemente dentro de lo previsible. Mucho de lo que venga en veinte años es totalmente impredecible a día de hoy), si bien será complicado conseguir suplir un número tan alto de puestos de trabajo perdidos (se auguran momentos complicados). Además, este suceso implicará la división entre países que han conseguido robotizar su sector industrial y los que no. Se antoja muy necesario prepararse para la inminente robolución.

Metemos en el perceptrón multicapa una serie de datos que quizá no deberían tener relación alguna ¿Debería haber una relación directa entre los metros cuadrados de la vivienda, el número de los hijos y las edades de los cónyuges con el hecho de divorciarse? ¿No sería mucho más lógico pensar en infidelidades, número y duración de relaciones previas o capacidad de compromiso? Seguramente que sí, pero los caminos de las correlaciones y las predicciones son inescrutables como muy bien sabe el físico Javier García al inventarse estos parámetros en el vídeo.

Vamos metiendo los datos y entrenamos a nuestra red neuronal. Cada vez que acierta, giramos cada ruleta (variando el valor de los pesos, de w) y, al cabo de un número relativamente pequeño de repeticiones, la red puede predecir si una pareja va a separarse o no en función de unos parámetros que se salen del sentido común. Esto es impresionante por cuatro razones:

1. Una computadora nos está ayudando a hacer descubrimientos que nosotros, por sí solos, jamás podríamos conseguir. Una red neuronal puede descubrir correlaciones que nosotros no descubriríamos. La curiosa razón (un poco poetizada, lo reconozco) es que la red no tiene prejuicios. No parte de un sentido común previo que le diga que es absurdo relacionar el color de las cortinas del salón con la estabilidad de una relación marital. Los valores iniciales de sus pesos son aleatorios, por lo que no le perjudican a la hora de adquirir un nuevo aprendizaje. Una red neuronal no tiene demasiados problemas en desaprender esos valores iniciales y reajustarlos para conseguir la respuesta correcta. Es, por así decirlo, magnífica cambiando de opinión.

2. Como hemos dicho en más de una ocasión, la IA obtiene más logros siguiendo su propio camino que intentado imitar la mente humana. Este caso es un gran ejemplo: queriendo, en principio, imitar una red neuronal humana, conseguimos hacer un programa que es capaz de hacer algo que una mente humana, por lo general, no es capaz de hacer. Y eso no es nada malo, todo lo contrario. Hay que seguir haciendo redes neuronales, aunque no se parezcan ni pretendan imitar las humanas. De hecho, un perceptrón multicapa no es una buena réplica de una red neuronal biológica, pero es maravilloso que así sea.

3. El sencillo funcionamiento de este perceptrón constituye una refutación directa a la afirmación de que las máquinas no pueden aprender o que son incapaces de novedad (sí, ya sé que eso es una obviedad refutada hace mucho, pero hay mucha gente que aún no lo sabe). El perceptrón, tras entrenamiento, aprende a hacer algo de lo que los seres humanos no somos capaces. En este contexto creo que no tiene sentido hacerse la pregunta de si el perceptrón se sale o no de su programación. A nivel absoluto, evidentemente no se sale, al igual que los humanos no nos salimos de la nuestra (nuestras limitaciones cognitivas como especie afloran por doquier), pero a nivel relativo sí lo hace: aprende a predecir resultados que el programador es incapaz de predecir.

4. Es asombroso que el perceptrón sea capaz de aprender a realizar predicciones con cierta competencia pero que no podamos encontrar el patrón de razonamiento que sigue para conseguirlo. Podemos hacer una máquina cuya estructura profunda de funcionamiento nos es desconocida. Si abrimos “la caja negra” del perceptrón y vemos toda esa madeja de nodos y conexiones, con sus correspondientes valores y pesos, no comprendemos nada. Sabemos bien cómo funciona, la hemos diseñado y entrenado nosotros mismos, pero no entendemos por qué diablos esa determinada combinación de valores y operaciones lleva a la red a acertar en los resultados. En la inmensa mayoría de los casos (cuando la red es mínimamente compleja) no sabríamos convertir a una ecuación el patrón de su funcionamiento. Da la impresión (me voy a poner muy sensacionalista, lo sé) que su inteligencia se nos escapa…

Seguiremos hablando de estos seres.

Leo este artículo de un tal Michael Graziano. Otra propuesta más de cómo construir una máquina consciente, deshaciendo ese gran “pseudoproblema” que es el hard problem. Nada nuevo bajo el sol y la enésima prueba de que no se comprende bien el tema.

Graziano va introduciendo los elementos que habría que implementar en una máquina para que fuera consciente. Pone el ejemplo de ser consciente de percibir una pelota de tenis. En primer lugar hay que darle a la máquina información acerca de la pelota. Graziano insiste, y ahora veremos por qué tanto, en que la información que tenemos del mundo real es tan solo un esquema, una serie de indicadores que nos sirven para reconocer el objeto pero no para tener una información real y completa de él. Percibir una pelota de tenis no es tener en la mente otra pelota de tenis similar a la percibida, es únicamente tener una serie de datos que nos permitan reconocer y utilizar la pelota. La razón es que sería un grandísimo derroche de recursos tener una copa absolutamente fidedigna del mundo en nuestra mente, cuando lo único que nosotros necesitamos es funcionar eficientemente en él, es decir, adaptarnos a él.  Hasta aquí todo correcto.

Graziano dice que si le preguntásemos a la máquina si es consciente de la pelota de tenis, ésta no sabría cómo responder ya que le falta otra parte importante de la ecuación: información sobre sí misma. Para ser consciente de algo hace falta un sujeto, alguien que sea consciente del objeto. La solución es implementar en la máquina información sobre sí misma. Podemos darle información sobre su cuerpo, la posición de sus piezas, etc. De nuevo, esta información es un nuevo esquema. Nosotros no conocemos la posición de todos y cada uno de los átomos de nuestro cuerpo, ni siquiera sabemos muy bien dónde están ciertos órganos ni mucho menos cómo funcionan. Tenemos un mapa borroso e impreciso de nuestro cuerpo. Bien, se lo implementamos.

Si, de nuevo, le preguntamos a la computadora si es consciente de la pelota, volvería a fallar. Tiene información de la pelota y de sí misma, pero no de la relación entre ambas cosas. Graziano cree que la neurociencia estándar ha descuidado por completo esta relación, y parece pensar que ha descubierto América al hacernos caer en la cuenta de su importancia. Sí, en unos veinticinco siglos de historia de filosofía de la mente, a nadie se le había ocurrido pensar en cómo el hombre se piensa a sí mismo pensando. Probablemente habrá cientos de miles de páginas sobre el tema. Pero vale, no seamos malos y perdonémosle a Graziano estos deslices. Sigamos.

Tercer paso y el más crucial: hay que implementar en la máquina esa relación entre el objeto y el sujeto ¿qué le ponemos?  Graziano piensa que, de nuevo, hay que introducirle un esquema (Además, dado que según él la neurociencia no tiene nada que decirnos, no podríamos hacer otra cosa). Habría que implementarle propiedades generales de lo que significa prestar atención a algo. Por ejemplo, podríamos hacer que definiera atención como “poseer mentalmente algo” o “tener algo en mi espacio interior”. No importa que las definiciones pudiesen ser falsas, incompletas o muy imprecisas. Lo importante es sacarlas de la psicología popular, de cómo las personas nos referimos a prestar atención.

Entonces, y aquí viene lo interesante, si nos ponemos a charlar con la máquina, ésta nos dirá que es consciente de la pelota de tenis. Ella no sabe que funciona mediante microchips de silicio, ni que únicamente procesa información pero, en función de los datos que le hemos implementado, ella diría que no es una máquina y que tiene una propiedad no física que es ser consciente de una pelota de tenis, debido a que sus modelos internos son descripciones borrosas e incompletas de la realidad física.

Y ya está, para Graziano a esto se reduce el hard problem. Tenemos una forma útil aunque, en último término falsa, de referirnos a nuestra relación de atención entre los objetos del mundo y el modelo de nosotros mismos. Y de aquí surge la idea de consciencia, una mera forma de hablar que nos resulta muy práctica pero que, realmente no representa nada real. Graziano culmina el artículo hablando de que concebir la conciencia de otro modo es hablar de cosas mágicas. De nuevo volvemos al viejo funcionalismo que niega la existencia real de los qualia. Y, de nuevo, aunque Graziano seguro que no lo sabe, está repitiendo el antiguo esquema del conductismo lógico tan bien representado por Gilbert Ryle: la mente es un mero error en el uso del lenguaje.

Objeción a lo bruto desde el estado de ánimo que me causa leer este artículo: si yo cojo la pelota de tenis y la estrello en la pantalla de la “computadora consciente” ¿a la máquina le dolerá realmente? Y si cojo de nuevo la pelota y la estrello en la cara de Graziano ¿le dolerá igual que a la máquina o de otra manera diferente?

Objeción razonada una vez que me he calmado: Estoy bastante harto de leer teorías que, de uno u otro modo, niegan la existencia de los qualia y los equiparan con conceptos obsoletos como el de “alma” o “espíritu”, sosteniendo que hablar de ellos es hacer metafísica. No, queridos neurólogos e ingenieros varios, los qualia existen con una realidad aplastante. Cuando siento que me duelen las muelas, me duelen. Otra cosa es que el dolor no represente con precisión ninguna lo que ocurre en mis muelas (mi dolor no se parece en nada a millones de bacterias infectando un diente), que solo sea una especie de símbolo convencional para alertarme de que algo malo pasa en mi boca, pero el dolor existe con total plenitud ontológica.

La máquina de Graziano diría que es consciente pero, en realidad no lo sería. No tendría ningún tipo de sensación consciente, nada de nada. Lo único que hace es deducir una serie de conclusiones a partir de unas premisas erróneas que le hemos implementado a propósito. En el fondo, lo único que hemos hecho es programar a una computadora de la siguiente forma:

Premisa 1: Tu relación con la pelota de tenis es de consciencia.

Pregunta de Grazziano: Ves una pelota ¿eres consciente de ella?

Respuesta: En virtud de la premisa 1, deduzco que sí soy consciente.

La máquina solo ha hecho una deducción lógica, un sencillo modus ponens que el ordenador desde el que escribo esto realiza millones de veces por segundo, sin ser nada consciente de que lo hace. Y es que Graziano hace un juego muy tonto. Aunque no lo diga explícitamente y parezca deducirlo del resultado del experimento mental con la máquina, él parte de la premisa de que la consciencia es una ilusión útil. Entonces crea una máquina a la que le pone por premisa creer que es consciente sin serlo. Después, parece fingir sorpresa (dice que le resulta espeluznante) ante que la máquina diga que es consciente.

Lo repetimos: señores ingenieros de IA, psicólogos congitivos, neuorocientíficos y pensadores de diversa índole, no necesitamos máquinas que finjan, simulen, digan o prometan por el niño Jesús que son conscientes. Los qualia son muy reales y tenemos que construir máquinas que realmente los tengan. Entiendo que, de momento, no tengamos ni idea de cómo hacerlo. Pues sigamos estudiando el sistema nervioso, pero no nos lancemos tan deprisa a decir majaderías.