Quizá el primer problema de la historia de la filosofía occidental haya sido este: si Heráclito decía que la esencia del mundo es estar en continuo devenir, es decir, en constante y fluido cambio, y Platón afirmaba que solo es posible conocer lo que no cambia… ¿cómo es posible conocer la realidad? Platón tuvo que inventarse otro mundo estático e inmutable fuera del mundo natural, tal como, sorprendentemente (al menos para mí), hizo Popper ya bien metidos en el siglo XX, junto con muchos otros neoplatónicos actuales.

Pero, ¿permanece algo en el cambio? Parece que sí. Cuando miro a mi alrededor el mundo parece bastante estable y los objetos permanecen, al menos, tiempos razonables dada mi escala de medición humana… Si nos centramos en el presente, casi todo sigue igual y solo algunas cosas cambian. Ahora mismo estoy sentado enfrente de mi ordenador, mientras mi hija recorta papeles de colores en mi misma mesa. Al fondo, la tele está encendida. Si hago un cómputo entre lo que cambia y lo que no, la estabilidad gana por goleada: las paredes, los muebles, el suelo (el fondo de mi campo perceptivo), los colores, la luz permanece completamente invariable. Solo mi mente pensando, mis manos tecleando, las letras apareciendo en la pantalla, los movimientos de mi inquieta hija y el sonido de fondo de la televisión son cambiantes. Y dentro de eso que cambia, también hay cierta permanencia. Mis pensamientos parecen seguir siendo míos, siendo, de algún modo coherentes con los anteriores; las teclas siguen estando en su sitio, las letras permanecen escritas tal y como las escribo; mi hija sigue siendo ella y el sonido de la tele suena tan común y corriente como siempre lo ha hecho. Ahora mismo mi realidad sucede tranquila, predecible, controlable, apacible, cómoda…

Pero, si por ejemplo, los físicos nos dicen que los objetos están compuestos por partículas que están en continuo movimiento, si los objetos cambian de posición, salen y entran de mi campo de visión… ¿cómo sé que son los mismos y no otros diferentes? Si hay millones de fotones que bombardean a cada segundo todo mi cambio de visión, haciéndolo cada vez en cantidades variables, rebotando y chocando con todo… ¿cómo percibo colores e iluminaciones tan estables? Lo lógico sería pensar en una realidad caótica, confusa, vibrante… como el cuadro de Jackson Pollock que vemos arriba.

Bien, hagamos un experimento. El psicólogo cognitivo Roger Shepard y su discípulo Sherryl Judd, enseñaban a varios sujetos un conjunto de las doce pares de formas tridimensionales de la imagen de abajo. Como vemos, son dos formas idénticas cuya relación se va modificando en función de unas sencillas reglas de transformación: traslación en un plano bidimensional, rotación, traslación en profundidad (o cambio de escala), o rotación del propio plano (en g, h, i y l) .

Después, Shepard y Juud preguntaban que, suponiendo que las dos figuras del par fueran la misma, qué tipo de transformación había sufrido la primera para llegar a la posición de la segunda. En el caso del par a, la explicación parece clara e indiscutible: la figura se ha movido a la derecha por un plano. Sin embargo, en b caben dos explicaciones posibles: o el objeto ha aumentado su tamaño, o se ha acercado al observador partiendo de un plano tridimensional.  Del mismo modo, por ejemplo en h, puede decirse que la figura se ha contraído o que ha rotado sobre sí misma. La mayoría de los observadores elegían la explicación que no implicara cambiar la forma o el tamaño del objeto, prefiriendo añadir una tercera dimensión con tal de no modificarla. Es decir, ante dos explicaciones igualmente válidas, se elige la que mantiene estable el objeto (en la imagen, lo escrito encima del par de formas es la explicación que modifica la forma, y lo escrito debajo la explicación que no), lo que viene a demostrar que tenemos una tendencia innata a estabilizar la realidad. A esto lo llamo Shepard invariante (término tomado de James Gibson). En una sucesión temporal, nuestro cerebro intenta maximizar lo invariante de una realidad siempre cambiante. Pero lo invariante no es, desde luego, ninguna propiedad esencial o forma aristotélica que el sujeto abstrae del objeto, sino todo lo que sea posible percibir que me permita seguir identificando el objeto como el mismo en el momento siguiente.

Unas investigaciones muy relevantes (muy potentes al respecto son las de Hubel y Wiesel, por las que ganaron un Premio Nobel) demostraron como nuestra percepción visual es especialmente buena detectando los bordes de los objetos ¿Por qué? Para mantener la identidad de lo observado, dejando muy clara la frontera entre lo que es y no es el objeto (cuando, realmente, los objetos tienen bordes mucho más borrosos de como los percibimos). Los bordes nos dan información más relevante sobre la estructura invariante del objeto que cualquier otra región visual del mismo. A nivel físico, pueden describirse como un cambio brusco en los niveles de luminancia, que es además resaltada por la inhibición lateral de los fotorreceptores de la retina. La demostración es muy espectacular con las bandas de Mach:

Al observarlas nos da la impresión de que los límites entre las bandas tienen un cierto relieve, pareciendo sobresalir hacia nosotros y creando la ilusión óptica de cierta concavidad en cada banda. La ilusión se produce porque nuestro cerebro clarea u oscurece de más los límites entre cada banda para resaltar el contraste y diferenciar mejor unas de otras. Los bordes son un invariante que nuestra cognición trata de mantener a toda costa, incluso falseando la misma realidad.

 

Desde los albores de la lingüística, el modelo que se utilizaba para explicar el significado de las palabras (la semántica), era la teoría referencialista del lenguaje. Básicamente sostenía que las palabras significaban algo en la medida que existía un referente en la realidad. Así, la palabra “manzana” significaba si cuando hablábamos de ella nos estábamos refiriendo a una manzana del mundo real. De aquí, además surge la teoría de la verdad como correspondencia: La frase “la nieve es blanca” es verdadera si y solo si la nieve es blanca (tal y como desarrolló Alfred Tarski en 1933 y 1944). Estábamos ante una nueva reformulación del realismo clásico representando fundamentalmente por Aristóteles: mediante el lenguaje podemos hablar de la realidad y habría tantas formas lingüísticas de hablar de la realidad como categorías tenga la realidad. Así, si tuviésemos una descripción del mundo que asignara cada palabra a su referente, tendríamos una teoría completa y perfecta del mundo…

Pero los problemas comienzan. En primer lugar, cuando hablamos de seres imaginarios como, por ejemplo, unicornios, ¿dónde está la referencia real? No pasa nada. Nuestra imaginación crea nuevos mundos (habitualmente combinando elementos del mundo real: caballo + cuerno = unicornio). Sencillamente, las referencias se encuentran en ese mundo mental (verdaderamente, no era tan sencillo… ¿qué tipo de existencia tienen los objetos imaginarios? ¿Qué es y dónde está ese mundo mental?). Después había palabras sincategoremáticas como por, para, en, y, entonces… que no tienen ningún referente ni real ni imaginario ¿qué significan entonces? No pasa nada. Son solo palabras auxiliares que cobran significado cuando se combinan con otras que sí lo tienen. Por ejemplo, si digo “Tengo un regalo para ti”, “regalo” y “ti (tú)” tienen plena referencia y “para” la gana al designar la dirección hacia la que va el regalo (de mí hacia ti).

Vale, pero aquí viene un problema gordo: las palabras no solo refieren a un único referente, sino que pueden cambiarlo en función del contexto. Si yo digo “Fuego”, la referencia no tendrá nada que ver si estoy señalando con mi mano un cigarrillo en mi boca,  a si estoy asomándome por la ventana de un edificio en llamas. Esto, que parece trivial, y casi estúpido, representa una ruptura brutal con la teoría referencialista del significado: no existe un lenguaje universal para hablar de toda la realidad, no existe un único modelo lingüístico del mundo, sino que habrá tantos lenguajes como contextos en los que nos encontremos. De hecho, cada comunidad lingüística utilizará unos significados diferentes que no solo se reducirán a nombrar cada objeto con una palabra distinta, sino a diferencias mucho más profundas. Vamos a ver un ejemplo precioso sacado del libro de Jim Jubak La máquina pensante (muy, muy recomendable), en un capítulo que dedica a las ideas del lingüista George Lakoff:

Por ejemplo, el dyirbal, una lengua aborigen de Australia, que Lakoff expone en su libro de 1987 Women, Fire and Dangerous Things, utiliza tan solo cuatro clases para todas las cosas. Cuando un hablante del dyirbal utiliza un nombre, éste debe ir precedido de una de entre las cuatro palabras siguientes: bayi, balan, balam o bala. Robert Dixon, un lingüista antropólogo, registró cuidadosamente los miembros de cada clase del dyirbal. Bayi incluía a hombres, canguros, zarigüeyas, murciélagos, la mayoría de serpientes, la mayoría de peces, algunos pájaros, la mayoría de insectos, la luna, las tormentas, los arco iris, los bumeranes y algunos tipos de lanzas. Balan incluía a las mujeres, las ratas marsupiales, los perros, los ornitorrincos, los equidnas, algunas serpientes, algunos peces, la mayoría de los pájaros, las luciérnagas, los escorpiones, los grillos, el gusano plumado, cualquier cosa relacionada con el agua o el fuego, el sol y las estrellas, los escudos, algunos tipos de lanzas y algunos árboles. Balam incluía todos los frutos comestibles y las plantas que los producen, los tubérculos, los helechos, la miel, los cigarrillos, el vino y los pasteles. Bala incluía partes del cuerpo, la carne, las abejas, el viento, los ñames, algunos tipos de lanzas, la mayoría de los árboles, la hierba, el barro, las piedras, los ruidos y el lenguaje.

Dixon no creía que, simplemente, las clases se agruparan aleatoriamente y que, para aprender a usarlas, había que aprenderse de memoria cada uno de sus miembros. Estudiándolas más profundamente llegó a ciertas directrices de categorización: Bayi estaba compuesto por hombres y animales (lo masculino); balan por mujeres, agua, fuego y lucha; balam  tiene evidente relación con la comida; y bala parecía contener todo lo demás. Pero lo importante es que existían criterios experienciales para categorizar: por ejemplo, los peces eran bayi, por lo que todo lo relacionado con la pesca (lanzas, redes o cualquier aparejo de pesca) era también bayi. De la misma forma, los mitos y las leyendas  también influían en las clasificaciones. Los pájaros, siendo animales, deberían ser bayi, pero eran balan ¿Por qué? Porque según la mitología de los aborígenes australianos del noreste de Queensland, los pájaros son los espíritus de las mujeres muertas. Por el contrario, tres especies de pájaros cantores son hombres míticos, por lo que pasan a la categoría de bayi.

El contexto, las prácticas, costumbres, creencias, etc. de una determinada comunidad lingüística, fijarán (y no para siempre) los significados de un lenguaje. Wittgenstein sostenía que los lenguajes están irreversiblemente ligados a formas de vida.  A mí me gusta decir que tienen historia: cada acontecimiento histórico (no en el sentido político, sino en tanto en que influye significativamente en la vida de los hablantes) creará nuevas narraciones que podrán modificar los significados.

Pero, es más, el lenguaje puede llegar modificar nuestras capacidades cognitivas. En 2006, Diana Deutsch y sus colaboradores realizaron experimentos con hablantes de chino mandarín. El chino mandarín es una lengua tonal, es decir, una lengua en el que las variaciones del tono en que se pronuncian las expresiones cambian mucho su significado. Por ejemplo, la palabra “ma” puede significar palabras tan dispares como “caballo”, “madre”, “cáñamo” o “regañar” solo cambiando la duración o intensidad del tono. Deustch hizo un estudio comparativo entre estudiantes de conservatorio chinos (que hablaban mandarín) y norteamericanos (tondos angloparlantes de nacimiento) para comprobar cuándo conseguían desarrollar lo que se conoce como oído absoluto: capacidad de identificar notas aisladas (capacidad muy compleja incluso para los músicos profesionales. Todos podemos identificar notas en el contexto de una canción, al compararlas con otras, pero, por ejemplo, escuchar un fa aislado y reconocerlo como tal es muy difícil). Los datos fueron muy concluyentes: por ejemplo, de entre los estudiantes que habían empezado el conservatorio entre los 4 a 5 años de edad, tenían oído absoluto el 60% de los chinos, frente a solo un 14% de los estadounidenses. Hablar una lengua tonal favorece el desarrollo de oído absoluto, o dicho de un modo más general, según el lenguaje que hables desarrollaras más o menos ciertas habilidades cognitivas.

Sin embargo, esto no tiene que llevarnos a lo que, lamentablemente, la postmodernidad hace continuamente: dirigirnos a un relativismo radical (basándose en la hipótesis de Sapir y Whorf), afirmando que la realidad es una construcción lingüística, y como hay muchos lenguajes diferentes, habrá tantas realidades como lenguajes… ¡ufffff! Y es que prescindir de la realidad siempre es harto peligroso (es lo que tanto les gusta hacer a nuestros ilustres políticos). Vamos a ver unos ejemplos, de lo que se han llamado tipos naturales, es decir, de formas de significar que no obedecen a ningún tipo de construcción lingüística.

En sus experimentos [los de Brent Berlin y Paul Kay] mostraban 144 trozos de material pintado a hablantes de lenguas diferentes. Cuando les pedían a los sujetos que señalaran las partes del espectro que nombraba su lengua, las respuestas parecían arbitrarias. Pero cuando se les pedía que señalarán el mejor ejemplo de, pongamos “grue” [green + blue] (el nombre de una combinación de azul y verde), todos identificaban el mismo azul central y no el turquesa. Independientemente de los términos que utilizara una lengua para los colores, todos los seres humanos parecían estar de acuerdo en qué colores eran más azules, más verdes o más rojos.

Eleanor Rosch conoció los resultados de Berlin y Kay cuando estaba en pleno apogeo de su propio estudio sobre el dani, una lengua de Nueva Guinea en la que solo había dos términos para colores: mili para colores oscuros y fríos (incluyendo el negro, el verde y el azul), y mola para colores claros y cálidos (incluyendo el blanco, el rojo y el amarillo). Se trataba de una sociedad que planteaba un increíble desafío a los resultados de Berlin y Kay ¿Podría Rosch duplicar aquellos resultados con nativos de una lengua tan radicalmente pobre?

Reproducir la prueba de Berlin y Kay no fue difícil. Al enfrentar a los hablantes del dani con los 144 trozos coloreados y pedirles que escogieran el mejor ejemplo de mola, eligieron colores focales, bien el rojo central, el blanco ventral o el amarillo central. Ninguno eligió una mezcla de los tres.

Es más, Rosch fue más allá y realizó un nuevo experimento. Enseñó a un grupo de danis los nombres de ocho colores centrales (elegidos aleatoriamente) y a otro, otros ocho colores no centrales. Con total claridad, el grupo que aprendió los colores centrales lo hizo más rápidamente y recordaba mejor los nombres. Los resultados son evidentes: no todo es una construcción lingüística ya que hay una realidad preexistente que conocemos antes de, ni siquiera, saber o poder nombrarla. Y, por tanto, la construcción de un lenguaje no es algo totalmente convencional o arbitrario, sino que la realidad (o nuestra estructura o forma cognitiva de conocerla) interviene decisivamente.

Como vemos, la semántica es un tema mucho más complejo de lo que a priori podría imaginarse. En la comprensión de un lenguaje influyen aspectos de, prácticamente, todas las esferas de ámbito humano: la realidad, la situación contextual, las costumbres y las creencias, las prácticas sociales, las experiencias vitales, la biología de nuestros sistemas perceptivos, cognitivos e, incluso, de nuestros aparatos fonadores… todos influyen de diversas maneras en que comprendamos el significado de cualquier expresión de un lenguaje.

Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte “inmaterial” de la máquina. Lo demás, lo físico, era cosa de electricistas.

En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?

Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos “estúpidos” pueden emerger conductas muy sofisticadas e inteligentes.

Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).

Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.

Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.

Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.

Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

Adjunto el famoso paper de Brooks (muy criticado en su momento):

Intelligence without reason – Rodney Brooks

Es cierto que su “Alchemy and Artificial Intelligence” para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado.

Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban.  Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron.

El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más.

Vamos a hacer un somero resumen de sus planteamientos. Su crítica pueden dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades esenciales al ser humano que la IA nunca será capaz de reproducir.

Presupuestos discutibles de la IA:

  1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off  de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de ésto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestro modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro.
  2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente.  La mente está, según Dreyfus, muy lejos de ser igual a un ordenador.
  3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones?
  4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico.  Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica.

Aspectos del ser humano que la IA no puede, ni podrá nunca, simular:

  1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition.
  2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien ésto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su critica desde una perspectiva completamente opuesta a la visión materalista-naturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental.
  3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña).

Hubert Dreyfus falleció el pasado 22 de abril. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.

En Bigthink Dennett muestra su preocupación acerca del mensaje que los neurocientíficos están mandando a la sociedad acerca del libre albedrío, a saber, que es una ilusión. Parece ser que las personas que saben que no son libres actúan de modo más irresponsable, o directamente peor en términos morales, que las personas que piensan que sus actos son fruto de su libre elección.

Para ilustrarnos sobre el tema nos expone un divertido experimento mental (o bomba de intuición como le gusta decir): un paciente aquejado de un trastorno obsesivo-compulsivo es tratado mediante la inserción de un chip en su cerebro. El neurocirujano le dice al enfermo que esa pequeña prótesis no solo vale para curar su trastorno, sino que, desde ese momento, van a controlar su conducta a través de ella. Le dice que a él le parecerá todo normal ya que tendrá la ilusión de que lo que hace, lo hace libremente, aunque la realidad será que todas sus acciones estarán estrictamente controladas (causadas) por el médico y su equipo.

Al paciente le dan el alta del hospital y se marcha a su casa a seguir llevando su vida, feliz por haberse curado de su trastorno. Sin embargo, a los pocos días comete un delito y es llevado ante un tribunal. Cuando le preguntan por sus fechorías, él responde que no es culpable de nada, ya que ha obrado sin libre albedrío, controlado por el equipo de la clínica de neurocirugía. El juez llama entonces al neurocirujano quien dice que todo fue una broma, que realmente nadie estaba controlando la conducta del presunto delincuente ¿Sería culpable el acusado? Diríamos que sí. Pero, ¿actúo irresponsablemente el neurocirujano? Seguramente que sí ¿Habría delinquido el acusado si hubiera sabido que la responsabilidad era totalmente suya? Es posible que no.

Dennett utiliza este relato para advertirnos acerca de las consecuencias de decir a todo el mundo que no es libre de lo que hace. Si pensamos que son otros los que controlan nuestra conducta y nos apetece apalear a nuestro jefe, ¿no lo haríamos sabiendo que, realmente, toda la responsabilidad es de otros, que nosotros, realmente, no lo hemos hecho? O dicho de otro modo, ¿no lo haremos sabiendo que, realmente, lo están haciendo otros y nosotros no estamos haciendo nada? Pensemos que mientras hacemos el mal podríamos pensar: ¡Qué malvado el neurocirujano! ¡Lo que hace con mi cuerpo!

Y es que podríamos llegar a argüir que, incluso aceptando que todo fuera una broma pesada del médico y nadie controlara sus acciones, ese individuo no obró con pleno libre albedrío porque… ¿tienes la misma responsabilidad de tus actos si crees que estás siendo controlado? ¿Eres responsable de hacer algo que tú mismo crees que no estás haciendo?

Veámoslo más claro en otro ejemplo. Supongamos que estamos contemplando con una videocámara como un criminal asesina brutalmente a nuestro jefe. Nosotros, solo como espectadores, nos lo pasamos pipa viendo hacer algo que desearíamos haber hecho desde hace mucho tiempo. Es más, el asesino mata a nuestro desdichado jefe exactamente de la misma forma que nosotros hubiésemos elegido, de tal modo que casi nos da la impresión de que nosotros vamos ordenando al asesino qué hacer a cada paso. Bien, pues a pesar de que nuestra conducta como sádicos espectadores no es éticamente muy reconfortante, nadie diría que somos culpables del asesinato pero… ¿qué diferencia hay entre este caso y el del obsesivo-compulsivo de Dennett? ¿Por qué diríamos que uno es culpable y el otro no?

Aunque Descartes, y tantos otros antes que él, definiera la mente por su inextensión, es decir, por no ocupar lugar alguno en el espacio, por ser inmaterial, o si se prefiere, espiritual, todo el mundo con dos dedos de frente, ubica la mente “dentro” del cerebro. Sin saber muy bien qué tipo de entidad ontológica es, sin poder siquiera definirla con precisión, todo el mundo cree que se piensa con la cabeza. Nadie acepta de buen grado que le digas que su mente no está en ningún sitio, o que su último pensamiento está ubicado a 1.000 kilómetros de su cerebro.

Es más, dado el materialismo monista imperante en las ciencias de la mente, gran parte de la gente algo letrada en el tema apuesta por la teoría de la identidad: mi mente es equivalente a una serie de procesos físico-químico-biológicos que, en cuanto a tales, ocurren en una precisa ubicación espacial: mi tejido cerebral. Mi mente se forma, de alguna manera todavía no aclarada, entre esa increíblemente densa enredadera de neuronas que pueblan mi encéfalo.

Así que, solo por llevar la contraria y violentar un poco las mentes de mis brillantes lectores, vamos a ver una teoría clásica en filosofía de la mente  que pretende romper este “chauvinismo cerebral” de creer que los sucesos mentales solo ocurren “dentro” del cerebro: es la teoría de la mente extendida. Quizá la primera en plantearla fue la filósofa norteamericana Susan Hurley en su obra Conscioussness in Action de 1998, pero el texto clásico es el artículo de Andy Clark y David Chalmers The Extended Mind  del mismo año, y entró de lleno en el debate cuando Clark publicó el libro Supersizing the mind en 2008.

La teoría de la mente extendida es una consecuencia lógica del funcionalismo imperante en las ciencias cognitivas (ya lo describimos y lo criticamos aquí). El funcionalismo dice que los estados mentales son estados funcionales que conectan causalmente estímulos con respuestas (o estados funcionales con otros estados funcionales). En este sentido si yo quiero realizar una operación matemática y me valgo para ello de una calculadora de bolsillo, entre el input (por ejemplo, la visualización de los dos factores que voy a multiplicar) y el output (obtener el resultado), transcurren multitud de estados funcionales, unos “dentro” del cerebro y otros “fuera”. “Dentro”, por ejemplo, está mi miente ordenando a mis dedos qué teclas de la calculadora pulsar, y “fuera” estaría el microprocesador de la calculadora procesando los datos y mostrando en pantalla el resultado.

Si definimos los estados mentales por su función, es decir, por ser elementos causales en la cadena entre el estímulo y la respuesta, tanto mis pensamientos sobre que teclas pulsar como el funcionamiento del microprocesador de la calculadora, son eslabones causales de la cadena, ¿por qué decir  que solo los estados causales que están “dentro” de mi cabeza son estados realmente mentales, mientras que los que están “fuera” ya no lo serían? Supongamos que nos sometemos a los designios de Elon Musk y de su empresa Neuralink, y nos insertamos la calculadora en el cerebro, conectando sus circuitos a nuestros axones y dendritas neuronales. Entonces, si hiciésemos un cálculo ayudados por la calculadora, todo ocurriría “dentro” de nuestro cerebro ¿Ahora sí aceptamos lo que hace la calculadora como parte de nuestra mente y antes no? ¿Los criterios para distinguir lo mental son, únicamente, algo tan pobre como “dentro” y “fuera”?

Extendamos entonces la mente a lo bestia. Cuando usamos Google para buscar información, devolviéndonos Google la respuesta que buscábamos, nuestro proceso de causas y efectos funcionales ha viajado desde nuestra mente hasta diferentes servidores a lo largo del mundo, incluso ha podido ir al espacio y rebotar en antenas de satélites, hasta volver a nosotros… ¡Nuestros estados mentales se han extendido hasta el infinito y más allá! Seríamos, por utilizar terminología más guay, cíborgs cognitivos o mind cyborgs…

Según Clark, nuestra vida mental es un continuo negociar y re-negociar los límites de la mente con los diferentes dispositivos cognitivos que tenemos a nuestro alcance. Extendemos y reducimos la mente a cada momento: cada vez que encendemos la tele,miramos un reloj, nuestro móvil.. Lo interesante es que podríamos utilizar esta extensión para medir el potencial cognitivo de un individuo o sociedad: desde lo mínimo, un neanderthal escribiendo en la arena con un palo, hasta las actuales megalópolis de millones de individuos  hiperconectados entre ellos y con el resto del mundo, teniendo acceso a una incontable cantidad de información. Los hitos fundamentales en una historia de la humanidad concebida desde su capacidad de extensión mental serían la aparición del lenguaje, primero hablado y luego escrito (la extensión de la memoria), el desarrollo del cálculo y de sus herramientas que concluirían con la llegada del computador y, el estadio en el que nos encontramos: internet y su casi ilimitado acceso a todo tipo de datos.

Problemas: si la teoría de la mente extendida puede estar bien para medir la potencia cognitiva de un sistema, habría que entenderla únicamente como una etiqueta pragmática, como una forma de hablar útil en determinados contextos, ya tiene exactamente los mismos problemas del funcionalismo (como hemos dicho, no es más que una consecuencia lógica de éste): no explica la consciencia fenomenológica y no superaría la crítica de la caja china de Searle. Autores como Jerry Fodor, desde una perspectiva cerebrocéntrica o, Robert Rupert, desde todo lo contrario, han sido bastante críticos con ella. Y es que pasa lo de siempre: la explicación funcionalista de los estados mentales es muy incompleta y, llevada a su extremo, llega a ser confusa.

Ejemplo: de nuevo voy a realizar un cálculo extendiendo mi mente hacia una calculadora. Sin embargo, me doy cuenta de que no tiene pilas, así que bajo a la tienda de abajo de mi casa a comprar unas. Desafortunadamente no les quedan ¡Los vendedores de pilas están de huelga! Así, recorro decenas de tiendas pero en ninguna tienen nada. Viajo por toda España en busca de las pilas malditas, hasta que en un pequeño pueblecito perdido en los Pirineos, encuentro una tienda donde, al fin, las consigo. Después de tres meses de búsqueda vuelvo a mi casa, y puedo usar la calculadora para terminar mi cálculo… ¿Todo este tedioso proceso de búsqueda geográfica de tiendas de pilas formaría parte de un proceso cognitivo? ¿Lo englobaríamos dentro de un proceso mental? Echar gasolina al coche, conducir, preguntar a transeúntes, usar el GPS… ¿todos son estados mentales? ¿Dónde queda el límite entre lo que es y lo que no es un estado mental si cualquier cosa es susceptible de participar en un proceso causal?

Vamos a hacer un poquito de ejercicio. Mis conocimientos en las ciencias del deporte son más bien precarios, así que decido bajarme una aplicación a mi móvil que me proponga un plan de entrenamiento efectivo. Si la aplicación es de calidad, en ella estarán concretados los mejores conocimientos acerca de cuál es el mejor plan para una persona de mis características y, por tanto, será eficaz. Entonces yo confío en la aplicación y la pongo al mando, es decir, dejo que ella decida por mí qué es lo que tengo que hacer. En ese momento estoy dejando que un algoritmo gobierne una parcela de mi vida ¿Estoy haciendo algo malo? No, precisamente porque ese algoritmo es mejor gobernando esa parcela de mi vida que yo mismo. Es totalmente razonable confiar en esa máquina si, realmente, queremos adelgazar.

Damos un paso más. Hoy es día de elecciones y como buen ciudadano voy a ir a votar. Desde siempre he votado al PSOE. Mi abuelo luchó en la guerra civil en el bando republicano e inculcó sus ideas políticas a mi padre, quien luego me las inculcó a mí. Soy socialista por tradición. Sin embargo, cuando voy a votar me encuentro con un viejo amigo comunista. Hablamos un rato, precisamente sobre política, y me hace pensar. Al final, por primera vez en mi vida, voto a Podemos. Pero después, mientras voy caminando de vuelta a casa, comienzo a sentirme mal. Me arrepiento de mi voto y pienso que he traicionado a mi familia por una conversación de última hora. Quisiera cambiar mi voto pero ya es demasiado tarde: yace en el fondo de la urna.

Rebobinamos. Supongamos otra vez la situación anterior pero introducimos un nuevo elemento: Cortana 2045, mi asistente virtual de última generación, cortesía de Microsoft. A partir de todos mis datos de internet y de acompañarme continuamente en todo mi quehacer cotidiano, sabe perfectamente mis preferencias políticas y también sabe lo voluble que puedo ser a la hora de tomar una decisión, sobre todo, a última hora. Ella sabe mejor que yo a quién quiero realmente votar y no va a dejarse llevar por sesgos ni cambios repentinos de opinión. Entonces, lo razonable sería dejar que Cortana votara por mí ¿Dejaremos entonces una decisión supuestamente tan importante como el voto a un conjunto de algoritmos automatizado?

¿Qué pasará cuando inteligencias artificiales sepan tomar nuestras decisiones mejor que nosotros mismos? Tendremos dos opciones: o preferimos seguir sintiéndonos libres y decidimos por nosotros mismos, o dejamos que las máquinas lo hagan y perdemos el mando. El problema estará en que los que pierdan el mando vencerán, ya que tomarán mejores decisiones que los libres, por lo que parece que por simple y pura lógica, cada vez más gente dejará la toma de decisiones a sus consejeros digitales.

Y pensemos las repercusiones de algo así: como apuntábamos en la entrada anterior, la base política, social y económica de nuestra sociedad es el liberalismo, y el liberalismo presupone como condición de posibilidad la existencia de un agente libre que vota, consume y delinque en virtud de susodicha libertad ¿Qué pasará cuándo esas decisiones las tomen máquinas? Podríamos llegar a un original pronóstico: el fin del liberalismo no será, desde luego, el marxismo ni sus diversas variantes, sino una tecnología: la IA.

Pero, y ésta creo que es la gran pregunta del futuro próximo: ¿Aceptará el arrogante ser humano la pérdida del protagonismo en la historia? ¿Aceptará pasar a un segundo plano? ¿Aceptará ser irrelevante?

 

  1. El giro humanista del Renacimiento se concretó, sobre todo con la figura de Descartes, en el giro a la subjetividad. El centro del pensamiento a partir de entonces sería el yo en dos vertientes: como sujeto cognoscente (la teoría del conocimiento sustituirá a la metafísica como disciplina reina dentro de la filosofía) y como sujeto moral (base del individualismo y del liberalismo moderno).
  2. La idea fundacional nuestro sistema político-judicial y económico es el liberalismo. Se entiende al sujeto desde tres vertientes: como votante (política), como sujeto responsable de sus actos (Derecho) y como productor-consumidor (economía) y, en las tres, se entiende el yo fundamentalmente como un agente libre que vota, delinque, y trabaja y consume en virtud de su capacidad de elección completamente libre. Por eso cualquier ataque a la libertad o a la intimidad individuales, cualquier atisbo de totalitarismo es condenado unánimemente por la sociedad.

Tres críticas para extinguir el yo moderno (y, por tanto, para hacer saltar en pedazos la Modernidad y, con ella, todo nuestro estilo de vida actual):

  1. El yo no existe. La crítica viene desde lejos. El filósofo ilustrado David Hume ya advirtió que no teníamos experiencia alguna que pueda corresponder a un “yo”. Si hacemos un ejercicio de introspección e intentamos “ver” dentro de nosotros mismos solo encontramos ideas, palabras, imágenes, sentimientos… pero nunca encontramos a ese sujeto, a ese yo que, supuestamente, es el dueño de todos los contenidos de la mente. Las actuales neurociencias no parecen encontrar en el cerebro ningún “módulo central” que pueda equipararse a un yo. Tampoco parece existir ningún “teatro cartesiano” en dónde un homúnculo contempla lo que perciben nuestros sentidos.
  2. El individuo no existe. Una condición de posibilidad de que el yo exista es que sea un individuo, es decir, que sea indivisible. Si hubiese muchos yoes diferentes, ¿cuál de ellos sería realmente yo? ¿Cuál de ellos sería el que vota o comete crímenes? De hecho, incluso solemos entender una gravísima enfermedad mental, la esquizofrenia, como una especie de fragmentación del yo. Pues, precisamente, la ciencia nos está diciendo que no existe un solo yo. Los inquietantes experimentos con cerebros escindidos de Sperry y Gazzaniga apuntan claramente en esa dirección: no tenemos un solo yo, sino que múltiples agentes funcionales compiten para controlar el mando de la acción según se requiera.
  3. El yo no es libre. Entender el yo como un agente causal libre de nuestras acciones significa hablar de una causa incausada que constituiría una violación del principio de razón suficiente (desde una perspectiva materialista, de una violación del principio de conservación de la energía), un absurdo lógico. Además, desde la perspectiva neurológica los experimentos de Libet y otros, a pesar de ser discutibles y matizables, apuntan con claridad a la ausencia de libre albedrío (Wikipedia en castellano tiene un buen artículo sobre este tema). En coherencia, las tesis del psicólogo Daniel Wegner son claras: no elegimos nuestros pensamientos, y si consideramos que éstos son los agentes causales de nuestra conducta, no elegimos nuestra conducta.  Cuando comunicamos la intención de hacer algo lo único que hacemos, tal y como decía Spinoza, es lanzar una hipótesis predictiva de lo que es posible que vaya a ocurrir en un futuro.

Objeción: ¿Por qué entonces todos tenemos la sensación de poseer un yo y de ser libres? Es una ilusión fruto, igualmente como decía Spinoza, de las limitaciones de nuestra mente para conocer la multitud de causas que, realmente, ocasionan nuestros actos  ¿Y cuál es el sentido de tal ilusión? El agenciamiento (no confundir, por Dios, con el fraudulento concepto deleuziano). En la naturaleza operan simultáneamente una exponencial cantidad de agentes causales. A nuestro organismo le interesa mucho diferenciar, al menos, los agentes que son importantes para su supervivencia (un conjunto en movimiento de manchas naranjas y negras que ruge puede hacerme mucha pupa, por lo que yo establezco la relación causal: si tigre entonces pupa, en la cual pongo al tigre como agente, como sujeto de la acción “hacer pupa”. Nótese que no es porque el tigre sea un individuo ni tenga realmente un yo que active sus dientes y garras, sencillamente a un conjunto de percepciones les pongo una etiqueta útil para mi supervivencia). Igualmente, a la enorme colonia simbiótica de células que nos compone, le conviene diferenciarse de otros agentes causales (no es lo mismo que el tigre muerda cualquier brazo a que muerda ese brazo que tengo pegado al cuerpo). Y aquí llega el agenciamiento: agenciarme actos, hacer mío un objeto o suceso del mundo (Un ser está bebiendo agua ¿Cómo sé si eso es útil para mi supervivencia? Si el ser que está bebiendo agua es mi organismo y no otro, por lo que mi organismo le dice a un módulo funcional de mi cerebro que se agencie ese acto, que diga “Yo, y no otro agente causal, estoy bebiendo agua”. Importante: eso no quiere decir que haya un yo que beba agua ni que exista un yo que le ordene al organismo que beba agua, es solo una diferenciación, una ficción práctica, una etiqueta útil para que el organismo se diferencie de otros en función de utilidades evolutivas).

Nueva objeción a la que no soy capaz de responder: ¿Y qué pasa con la consciencia? Cuando a mí me duele algo, si no hay un yo al que le duela ¿a quién le duele realmente? ¿Podría darse, como en el mundo de las ideas platónico, el dolor sin sujeto doliente? Estamos, como siempre, con el problema de la irreductibilidad de los qualia. Sabemos que las sensaciones conscientes son un poderoso motivador de la conducta: el placer atrae y el dolor aleja, por lo que la función evolutiva de la consciencia parece clara, pero viendo lo fácil que nos resulta hacer computadores perfectamente motivados sin emociones ¿por qué la evolución crearía algo tan extraño?

Posible vía de solución 1: el yo como sujeto de la consciencia es una trampa del lenguaje. Una muestra de ello: extrapolamos la gramática a la realidad sin justificación. Como toda oración tiene un sujeto, sostenemos que debe existir un sujeto de las sensaciones consientes. Quizá sí es posible que existan sensaciones sin sujeto, si bien nos sigue pareciendo una idea extraña y poco intuitiva (¿un dolor de muelas que no le duela a nadie?). En esta línea está el trabajo de Gilbert Ryle y de su discípulo Dan Dennett, quienes llegan a negar la existencia de la propia consciencia.

Posible vía de solución 2: podríamos aceptar que si bien no existe un yo como agente causal de nuestra conducta, que no es individual y que no es libre, sí que existe en cuanto a sujeto paciente de la consciencia. No obstante, me parece una solución poco elegante, fea.

 

joseph_wright_of_derby_the_alchemist

Durante muchos siglos, la forma de entender la vida biológica ha ido de la mano de lo que se ha denominado vitalismo. Dibujándolo a brocha gorda, consistiría en afirmar que hay un principio, fuerza, energía, o incluso fluido, que, cuando se “insufla” en la materia inerte produce la vida. Está muy emparentado con el animismo, que diría que los seres vivos poseen anima, un principio que los anima, es decir, que los mueve. Aristóteles pensaba que los seres vivos contenían internamente su causa eficiente, a diferencia de los seres artificiales, a los que había que mover “desde fuera”, es decir, que su causa eficiente les es externa. Este principio no podría explicarse desde la materia o sus características, por lo que el vitalismo es pretendidamente antimaterialista o, en el mejor de los casos, no-materialista. Además, encajaba muy bien con la perspectiva religiosa: cuando mueres, esa anima o alma, abandona tu cuerpo material (que es lo único que muere) y se va derechita al paraíso.

Es muy curioso como el vitalismo ha continuado existiendo en la mente de muchos intelectuales a pesar que, en biología, ha sido desterrado como una teoría falsa desde hace mucho. En 1828 Friedrich Whöler obtuvo urea (un componente químico propiamente orgánico que podemos encontrar en nuestra orina) de cianato de amonio (una sustancia típicamente inorgánica). Con esto Whöler demostró que la sustancia de la que se compone los seres mismos es exactamente igual que la que componen los seres inertes. No hay ningún extraño elemento químico, ni ninguna fuerza ni energía diferente que exista dentro de los seres vivos. La física y la química son iguales para todos (no hay nada más democrático).

Y si los descubrimientos de Whöler dejaban todavía algún resquicio para la duda (el cianato de amonio se obtenía de la fermentación de plantas, por lo que todavía podría argumentarse que no era una sustancia plenamente inorgánica), unos años más tarde (1845), Hermann Kolbe, a partir de disulfuro de carbono y cloro (Dos sustancias estrictamente inorgánicas), obtuvo ácido acético (que se encuentra en el vinagre de toda la vida).Y por si quedaba alguna duda, durante la década de 1850, el francés Pierre Eugène Berthelot sintetizó docenas de compuestos como el alcohol etílico, el ácido fórmico, el metano, el acetileno o el benceno. Desde mediados del siglo XIX, no hay lugar para el vitalismo en ciencia.

De hecho, hoy en día la mal llamada química orgánica, expresión acuñada desde la perspectiva vitalista de Jöns Jacob Berzelius (maestro contra el que se rebeló Whöler) para diferenciar una química para lo vivo y otra para lo inerte, se encarga de estudiar, no solo los compuestos que forman a los seres vivos, sino otros como el petróleo y sus derivados como, por ejemplo, el polietileno del que están hechos gran parte de los envases de los productos que consumimos a diario. Sí, la química del carbono que regula el funcionamiento de nuestro organismo es la misma que rige las propiedades de las botellas de plástico.

Sin embargo, cierto sector (bastante importante) del mundo intelectual siguió trabajando, haciendo caso omiso a los descubrimientos científicos, y el vitalismo siguió campando a sus anchas. Tenemos a Schopenhauer, hablando de una voluntad de vivir propia de todos los seres vivos, recogida por su discípulo Friedrich Nietzsche en su voluntad de poder y, de nuevo, repescada por nuestro filósofo patrio por excelencia, Don José Ortega y Gasset y sus muchos discípulos. En 1927 le dieron el premio Nobel de Literatura (menos mal que no fue el de medicina) al filósofo francés Henri Bergson, quien seguía manteniendo la presencia de lo que él llamaba élan vital, una fuerza o energía creadora, motor del proceso evolutivo… ¡82 años después de Kolbe y dando premios Nobel a vitalistas!

Pero la cosa no queda aquí. Todavía es muy común leer a intelectuales influenciados por el padre del psicoanálisis, Sigmund Freud, quien, a parte de sus muchas aportaciones positivas a la psicología, defendía la presencia de una especie de energía pulsional, igualmente no encontrada por experimento alguno. Y más grave que Freud es la famosa figura de Wilhelm Reich, discípulo del vienés, nos hablaba del orgón, una energía cuya liberación más manifiesta está en el orgasmo (de ahí su nombre, mezcla de orgasmo y organismo). A pesar de que Reich murió encarcelado por la venta de equipos médicos fraudulentos, hoy en día tiene incluso una fundación: el American College of Orgonomy. Alucinante.

Lamentablemente, el filósofo esloveno Slavoj Zizek, tan de moda en la actualidad en ciertos círculos universitarios y políticos, se considera influenciado por Freud, Reich o Lacan (este tercero también tiene telita). Una pena fruto quizá de la triste separación entre ciencias y letras. Si los humanistas contemporáneos estuvieran versados en algo de biología o química, prácticamente, básicas, otros gallos cantarían.

Un escándalo, pero no me queda del todo claro: ¿acaso no existe el instinto de supervivencia o el deseo sexual como fuerzas, o energías, motivadoras de nuestra conducta? Sí que existen pero no como causas motrices. El deseo de hacer o conseguir algo en general no es más que una sensación: yo siento que deseo. Esa sensación activa (o como mínimo informa) un montón de subprocesos que se ponen en marcha para que, realmente, nuestro organismo consiga el objeto de deseo. Esa sensación activadora o informadora no es ninguna fuerza o energía, no es nada que empuje ni mueva absolutamente nada. A nivel físico no existe ninguna correlación entre el deseo y tal fuerza o energía vital, sencillamente porque no existe. El único correlato material de la sensación de deseo es actividad neuronal.

Un ejemplo: deseo beber agua. En mi mente aparece la sensación de sed, por lo que mi brazo se mueve para coger un vaso de agua ¿Qué fuerza o energía se pone aquí en juego? La única fuerza significativa será la que produzca la contracción de las fibras musculares de mi brazo, no hay otra. Ningún élan vital bergsoniano ni ningún conatus spinozista empujarán desde ningún lado. Por favor, dejemos de hablar de alquimia de una vez por todas.

pinzas-10ud-4

Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad.

Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato.

Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el  que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial.

Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo.

Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libremercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra?

Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital pero al agudo nerd se le ocurrió un método para el que no hacia falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores…

De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló:

– Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies.

De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

terminator-2-1200x873