Parménides empieza su poema siendo raptado por unas doncellas hijas del sol, que lo llevan ante la presencia de una diosa. Ésta le va a transmitir un mensaje, nada más y nada menos, que la verdad sobre el ser. En los albores de la filosofía, cuando mito y logos son todavía inseparables, el acceso a la verdad es una concesión de los dioses. Un hombre por sí solo jamás podría semejante hazaña. La verdad, la aletheia, estaba siempre oculta y para sacarla de su escondrijo era necesaria cierta iluminación divina (como bien prosiguió Agustín de Hipona en el cristianismo).

Y si llegar al conocimiento verdadero era una cuestión divina, no menos va a serlo la creación de narraciones. Los rapsodas griegos siempre pedían ayuda a las musas antes de empezar a cantar. Hesiodo dedica todo el comienzo de la Teogonía a homenajear y pedir ayuda a las musas heliconíadas y olímipicas, y  Homero empieza así la Iliada y la Odisea, pidiendo a las propias musas que canten la historia, como si fueran ellas, y no él, las auténticas autoras del relato.

La creatividad era una cualidad sobrenatural y caprichosa (nadie más caprichoso que un dios griego), que no funcionaba cuando uno quería. De aquí la simpática frase atribuida a Picasso: “Cuando la inspiración me encuentre, que me pille trabajando” ¿Y a quién suele encontrar la inspiración? No a cualquiera, solo a los artistas y a los genios (otra figura mítica que hay que bajar de su trono), solo a unas personas muy concretas capaces de contactar con los dioses. El resto de los mortales estaríamos condenados a la vida monótona y repetitiva de los mediocres.

Curiosamente, a partir del romanticismo, la creatividad se contrapuso a la racionalidad. En la reacción decimonónica contra la Ilustración, se crítico (en parte con razón) los excesos de creer que solo con la razón, solo con la lógica pura, podríamos conseguirlo todo. Los ilustrados habían olvidado una parte esencial del ser humano: las emociones. Y aquí hunde sus raíces el enfrentamiento entre ciencias y letras. El romanticismo puso por encima del científico al artista y la creatividad, cualidad más esencial del primero, se prohibió al segundo. Los de ciencias son similares a las máquinas, están dotados de una fría y precisa lógica matemática, pero carecen de emociones, carecen de creatividad (extrañamente, la creatividad se concibe como más cercana a lo afectivo que a lo racional ¿Por qué?), las musas rara vez les otorgan sus bendiciones.

Es por eso que cuando se critica lo que la IA no puede hacer, se apela muchas veces a la creatividad. Si la IA es pura racionalidad, ¿cómo va a ser creativa? Muchas veces se repite que las máquinas no pueden innovar porque solo pueden hacer para lo que han sido programadas (Es la famosa objeción de Ada Lovelace, bien respondida por Turing a mitad del siglo pasado). Entonces, la capacidad de crear se propone como uno de los grandes reductos del hombre ante la constante amenaza de ser sustituido por un computador.

Sin embargo, nada más lejos de la realidad: la creatividad no es algo mágico ni sobrenatural, es una cualidad de un organismo biológico y, por lo tanto, tan abordable científicamente como cualquier otra. Vamos a intentarlo.

Creatividad suele significar en su forma más trivial, sencillamente, sorpresa para el observador. La ocurrencia de algo inesperado, de una conducta que se sale de lo normal, se convierte automáticamente en un acto creativo.  En este sentido más burdo, creatividad significa incapacidad para predecir la conducta del otro. Si ese suceso que se sale de lo normal, hubiera sido enteramente previsto por el observador, no le parecería novedoso y, por lo tanto, no lo caracterizaría como creativo. Además, la creatividad sería aquí relativa a la capacidad de predicción o a los conocimientos del observador, no una cualidad objetiva de lo observado. Por ejemplo, si yo conozco muy poco a una persona y, de repente, la contemplo haciendo algo que se sale mucho de lo normal, podría interpretar que esa persona es creativa. Sin embargo, para otro que conociera mucho a esa misma persona, ese acto, supuestamente rupturista, podría ser algo, incluso, aburrido, ya que podría haberlo observado en muchas ocasiones anteriores en ese sujeto. Denominaremos a esta idea de creatividad creatividad subjetiva.

Con total certeza, las máquinas poseen este tipo de creatividad. Una sencilla calculadora que realiza una operación matemática lo suficientemente compleja para no ser evidente para un observador, ya sería creativa. Por ejemplo, para el común de los mortales la operación 5.789.345 multiplicado por 453, no es evidente y se necesita un rato, con lápiz y papel, para calcularla. Una calculadora la resuelve en fracciones de segundo, por lo que al mostrar el resultado al, aritméticamente torpe, operador humano, le resultará necesariamente sorprendente al ser incapaz de predecirlo a esa velocidad. Las máquinas son subjetivamente creativas.

Pero vayamos a una idea de creatividad más potente. Definámosla de forma más objetiva: la creatividad es la capacidad de crear algo genuinamente nuevo, no solo nuevo para el observador, sino nuevo para cualquier observador posible. Entonces los problemas filosóficos se disparan: ¿existe, realmente, la novedad? Si partimos de una visión determinista, de un cosmos gobernado por estrictas leyes físicas que concatenan causalmente todos los sucesos, la novedad es imposible. Aceptarla implicaría una ruptura con ese orden y sería algo así como la irrupción de algo sobrenatural que no muchos estarían dispuestos a aceptar. Para eludir este problema vamos a restringir novedoso como la generación de algo que antes no estaba (no que no pudiera predecirse que estuviera dado el determinismo universal). Es decir, algo nuevo no tiene por qué ser sorprendente, solo nuevo ¿Son las máquinas capaces de crear algo genuinamente nuevo?

La científica cognitiva británica Margaret Boden nos expone tres formas de creatividad:

  1. Creatividad combinatoria: elementos conocidos se combinan creando combinaciones novedosas (Si lo pensamos, quizá esta es la única forma posible de creatividad y podemos reducir las otras dos a ésta). Por ejemplo, la idea de pegaso es una novedosa forma de combinar las ideas de caballo y de alas. La creatividad combinatoria es trivial para cualquier programa informático desde hace muchos años. Yo mismo, jugando a programar en Java, hice un sencillo programa que generaba poemas, sencillamente, partiendo de una pequeña base de datos de palabras organizadas según criterios sintácticos (Ej.: sustantivos femeninos en singular) que se agrupaban en frases previamente estructuradas según un motor aleatorio. El resultado era sorprendentemente bueno y mi estúpido programa pasaría, sin demasiados problemas, un test de Turing poético. Problema: los resultados de la creatividad combinatoria han de ser evaluados para juzgar si son valiosos. Pensemos en el clásico ejemplo de un mono pulsando aleatoriamente las teclas de una máquina de escribir durante un tiempo infinito. Al final, conseguiría escribir el Quijote, pero haría falta alguien que evaluara todos los resultados y que identificara al Quijote como resultado valioso. El mono, por sí solo, no sabe evaluar sus resultados, igual que mi programa poeta no sabía si su poema era bueno o no. Es el problema de la relevancia del que ahora hablaremos más.
  2. Creatividad exploratoria: consiste en explorar un determinado modelo, incluso llevándolo al máximo forzando sus límites. Por ejemplo, dentro de un determinado estilo pictórico o literario, se exploran todas sus posibilidades, llegando a bordear sus fronteras. La novedad se reconocerá como una evolución del propio modelo de partida.  La creatividad exploratoria y la combinatoria son, a menudo lo mismo, pues podría entenderse que la exploratoria se agotará al probar todas las combinaciones posibles de unos elementos dados. Igualmente, la creatividad exploratoria ha sido replicada computacionalmente a un nivel, además, sobrehumano. Tenemos programas que hacen música al estilo de Chopin, Vivaldi o de Bach de forma que nadie sabría determinar si son o no obras de los autores originales (véase el programa Emmy de David Cope). También es muy interesante el proyecto Next Rembrandt  en el que se utilizó aprendizaje profundo para pintar un nuevo cuadro absolutamente indistinguible de un original (incluso emularon las pinceladas mediante impresión 3D) ¿Algún humano en la sala sabría hacer algo así?

3. Creatividad transformacional: consiste en dar el siguiente paso de la exploratoria: no solo llegar a la frontera del modelo sino traspasarla. Se trata de romper alguna de las normas propias del canon del modelo explorado (negándola, sustituyéndola, complementándola, añadiéndole otra nueva…), creando así un modelo nuevo. Por ejemplo, las vanguardias artísticas de principios del siglo XX se basaron en gran parte, de romper con cualquier normatividad del estilo clásico, creando así todos los -ismos que se desarrollaron durante el resto del siglo ¿Es la IA capaz de esta creatividad? En principio sí. Tenemos algoritmos genéticos que se modifican a sí mismos y, en base a esa modificación, pueden romper fácilmente con cualquier protocolo de actuación inicial. Al inicio y al final de esta entrada tenemos imágenes de diseños de columnas hechos mediante la arquitectura computacional de Michael Hansmeyer ¿Constituyen un nuevo estilo arquitectónico? El problema, de nuevo, está en el reconocimiento como valioso de ese nuevo resultado ¿Cómo puede saber la computadora si lo que ha creado es un verdadero nuevo estilo o es mero ruido? Otra vez nos encontramos con la relevancia.

¿Y qué es el problema de la relevancia? Es una variante del controvertido y largamente debatido frame problem (problema del marco). Por definirlo de alguna manera (muchos han dicho que el problema es, prácticamente, indefinible), diremos que viene a decir que las máquinas son especialmente torpes para identificar los elementos relevantes para solucionar un determinado problema (en breve escribiré una entrada específicamente de ello). Llevamos décadas discutiendo sobre el tema sin llegar a ninguna solución satisfactoria.

Pero podríamos abordar la cuestión desde otra perspectiva eludiendo el grueso del problema: no hace falta que solucionemos el problema del marco en su totalidad, sino solo para este problema en concreto ¡Acotemos el marco! En nuestras sociedades debe de existir algún tipo de mecanismo o procedimiento que se utilice para determinar si una novedad representa el nacimiento de un valioso nuevo estilo o si tan solo es mal arte. Basándonos en ello, podríamos construir un segundo programa que evaluara la calidad artística de las creaciones de un primero ¿Existe tal procedimiento? ¿Quién decide si algo es arte o no? ¡Ufff! Ahora nos metemos en un problema más complicado si cabe, porque tampoco existe acuerdo entre los expertos acerca de qué es y qué no es arte. Dicho de otro modo, en el estado actual del arte contemporáneo, ¡los propios humanos no han resuelto el problema de la relevancia para sí mismos!

Observemos la fuente de Duchamp, la mierda de artista de Piero Manzoni o el cuadrado negro sobre fondo blanco de Kazimir Malevich… Hoy en día se exhiben en museos y son consideradas obras de arte de pleno derecho… ¿Qué criterio se utilizó para determinar que obras así son arte y otras no?

Lo que sí podemos decir es que a nivel técnico, un computador puede hacer todo lo que un artista humano puede. No creo que exista técnica pictórica (o de cualquier tipo de arte) que no pueda ser copiada (y expandida fruto de la creatividad exploratoria) por las computadoras. Al igual que con el nuevo Rembrandt, pueden generar cualquier obra indistinguible de la original de cualquier artista existente. Por ejemplo, para un experto en arquitectura es muy difícil definir el estilo arquitectónico de las casas de la pradera de Frank Lloyd Wrigth. Sin embargo, un generador computacional emuló la “gramática creativa” de Lloyd Wrigth, diseñando una indefinida cantidad de nuevas casas que recreaban perfectamente su estilo (Koning y Eizenberg, 1981). Una versión más moderna es ArchiDNA.

Y lo que no podemos decir es lo de siempre: a pesar de que los resultados sean impresionantes, a las máquinas creativas les pasa lo mismo que a las máquinas que juegan al ajedrez o al Go:  su funcionamiento no se parece en nada al humano. Las máquinas no crean como nosotros porque la mente humana todavía es un misterio en muchísimas de sus facetas, y todavía carecemos de modelos cognitivos suficientemente potentes como para comprenderlas con claridad. Esto no quiere decir, desde luego, que en el proceso creativo existan elementos sobrenaturales o que exista algo en nuestra mente que se escapará para siempre a la ciencia. Sencillamente, el cerebro humano es, que sepamos, el objeto más complejo del universo conocido y con los nuevos, y prometedores, avances en neurociencias, y en ciencias cognitivas en general, solo hemos tocado su superficie. Queda todavía mucho para comprender el surgir de una simple emoción, cuánto más para explicar un complejo proceso de creación artístico en el que intervienen gran cantidad de procesos cognitivos, afectivos, biográficos, etc.

 

Anuncios

La Robolución y el fin del mundo

Publicado: 26 noviembre 2017 en Economía, Tecnología

 


A partir del minuto 56 del vídeo comienza la mesa redonda sobre empleo y robotización (si bien las otras mesas también son muy interesantes para comprender bien qué nos deparará el futuro próximo).

Las alertas saltaron con el famoso informe de Oxford (Frey y Osborne, 2013) en el que se barajaban unas cifras escalofriantes: el 47% de los puestos de trabajo en EEUU, susceptibles a ser automatizados en las próximas décadas. Una robotización tan rápida llevaría a unos porcentajes de paro estructural insostenibles para cualquier país desarrollado. El CEO de la think tank REX, Jerry  Michalsky llegó a decir que “la automatización es Voldemort”, y el profesor de Harvard Justin Reich hablaba, sin ambages, del hundimiento de la clase media.

Además, constantemente nos llegan noticias en esta línea: Elon Musk pretende que sus fábricas de Tesla sean algo semejante a alien battleships, es decir, escenarios en los que solo hay máquinas sin ningún humano a la vista; ADIDAS está poniendo en marcha su SpeedFactory en Ansbach (en Alemania, ya no en China. Pensemos que con las máquinas la ventaja competitiva de explotar a los trabajadores se pierde) en la que se pretende que solo trabajen 136 personas; o Foxconn (la gigante subcontrata taiwanesa que fabrica los iphone) quiere automatizar todos sus procesos productivos, habiendo anunciado la sustitución de 60.000 empleados humanos por foxbots en una de sus inmensas factorías en China. La clásica figura del operario de cadena de montaje está en inminente peligro de extinción, estando ya el proceso de mecanización total del sector industrial en fase avanzada.

Pero el problema no está ya solo en que los robots van a terminar con los trabajos de las tres d (dull , dirty y dangerous) sino con muchos otros, a priori, menos mecanizables. No solo transporte, construcción o industria, sino logística, contabilidad, administración… La empresa japonesa Fukoku Mutual Life Insurance sustituyó a 34 de sus adminsitrativos por un sistema informático basado en el IBM’s Watson Explorer con la intención de subir la productividad en un 30%, amortizando su inversión de 1,7 millones de dólares en dos años… ¡Ningún trabajo parece estar completamente a salvo!

¿Estamos ante una época de colapso económico, de caos e inestabilidad irrefrenables?

  1. Creo que los plazos de los que se hablan son exagerados. Si uno analiza el estado del arte de la robótica, de la IA y, en general, de la automatización, comprueba que no hay razones tan sólidas que justifiquen la desaparición de tantos puestos de trabajo en tan poco tiempo. Hay que tener en cuenta que que algo funcione muy bien en un laboratorio del MIT no implica, para nada, que vaya a terminar por ser una tecnología de uso común en nuestra vida cotidiana. El proceso de implementación de una tecnología, a pesar de ser rapidísimo en comparación con otras épocas, todavía lleva mucho tiempo. Solo una pequeñísima parte de lo que se sueña en Silicon Valley es lo que llega a nuestros trabajos y hogares y, en general, los expertos como, por ejemplo, el ingeniero de IA del MIT David Clark, sostienen que la automatización no será tan autónoma en las próximas décadas.
  2. Otros estudios posteriores han manejado cifras mucho más conservadoras que las del de Oxford. Por ejemplo, el realizado por el National Bureau of Economic Research (Acemoglu y Rastrepo, 2017), a pesar de manejar datos todavía muy preocupantes (que por cada robot introducido se pierden entre 3 y 5,6 trabajos), da unas previsiones económicas menos drásticas. Otros, como el hecho por el McKinsley Global Institute, hablan de que solo un 5% de los empleos actuales son enteramente automatizables.
  3. Incluso hay visiones muy optimistas. Otro estudio más, esta vez hecho por el Pew Research Institute, nos mostraba que las opiniones entre los expertos están muy divididas. De entre 1.896 investigadores en este campo, un 48% mantiene una perspectiva catastrofista, mientras que el restante 52% la tiene optimista. Un argumento que se repite es que en épocas de alta rentabilidad (Accenture dice que la IA podría duplicar las tasas de crecimiento económico anuales de los países desarrollados para el 2035, con aumentos de la productividad de hasta el 40%), el empleo no suele ni destruirse ni parar de crecer. Desde finales del siglo XIX, la productividad ha crecido de entre 15 a 20 veces por hora trabajada, a la vez que el volumen de empleo ha crecido de entre un 30 a un 50% en economías avanzadas. Parece que, desde una perspectiva histórica a largo plazo, el aumento de productividad provocado por la automatización no ha dado como resultado la pérdida de empleo, sino todo lo contrario. Desde perspectivas liberales, suele utilizarse la expresión “destrucción creativa” para referirse al ciclo continuo de eliminación de puestos de trabajo obsoletos que se sustituyen por nuevos, entendiéndose este proceso como algo enteramente deseable. Las sociedades en las que no quedan obsoletos puestos de trabajo son sociedades económicamente estancadas, por lo que cualquier política proteccionista con algún gremio específico no es, para nada, aceptable. En este sentido, que el avance de la tecnología destruya empleo es una excelente noticia.
  4. Sin embargo, otros economistas hacen hincapié en que está visión es demasiado simple y no tiene en cuenta un factor fundamental: la reducción de la jornada laboral que ha acompañado históricamente a este aumento de la productividad (a lo largo del siglo XX las salvajes jornadas laborales del diecinueve se han reducido aproximadamente a la mitad). Si la automatización no es acompaña de la reducción de jornada, dicen ellos, sí que se destruye empleo ¿Vamos a trabajar menos horas en los próximos años? Desde luego, sería una gran noticia. Marta G. Aller me recordó en la charla que algo así ya había ocurrido en la historia con las sociedades esclavistas. Es cierto, la diferencia estriba en que antes solo una pequeña élite de amos podía vivir sin trabajar mientras que ahora estamos hablado de toda la clase media. En cualquier caso (y salvando la enorme distancia histórica), el ejemplo de sociedades como la Atenas de Pericles, sirve como argumento a favor de que vivir sin trabajar no tiene por qué llevarnos a un mundo de holgazanes y maleantes, sino todo lo contrario: las obras de Sófocles, Platón, Fidias, Mirón, Policleto, Heródoto, etc. quizá no hubieran sido posibles si sus autores hubieran tenido que trabajar para ganarse la vida ¡Una de las épocas culturalmente más gloriosas de la historia de la humanidad fruto de vivir sin trabajar!
  5. Si aceptamos una visión más bien conservadora de la automatización del trabajo, parece que sí nos acercamos a un momento de aceleración de la destrucción de empleo que no va a poder ser reciclado al mismo ritmo. Se aproxima una época de desajuste que llevará a una subida del paro muy peligrosa. Las medidas que se barajan son varias y antiguas (vienen ya desde Keynes): la ya mencionada reducción de jornada laboral (que el propio Keynes preveía de 15 horas semanales en el 2050), que los robots paguen impuestos, que el Estado sea un “empleador de última instancia” para evitar parados de larga duración, la famosa y controvertida renta básica universal (si bien puede hablarse en términos no maximales de ayudas a las rentas mínimas o de diversas formas de ayuda al desempleo), o reformas en el sistema educativo para fomentar las habilidades menos automatizables. El influyente Andrew Ng subraya la necesidad de un nuevo New Deal, destacando la medida de subvencionar en forma de nueva formación a los desplazados por la tecnología.
  6. Y a largo plazo, aunque es muy difícil aventurarse a pronosticar nada, si la automatización del trabajo prosigue tal y como auguran algunos de los acérrimos defensores del avance de la robótica y la IA, la destrucción masiva de empleo será una realidad absolutamente inasumible por cualquier “destrucción creativa”. En la mesa redonda, argumenté que los nuevos empleos que surgen de las revoluciones digitales no podrían hacer frente a esto. De modo un tanto socarrón, dije que “youtubers hay cuatro”, a lo que Rallo me respondió que podrían existir más youtubers debido a que, al aumentar el poder adquisitivo de los espectadores debido al aumento de productividad, un youtuber podrá ganarse la vida con menos público ya que éste se podrá permitir pagar más. Problema: los youtubers también podrán ser robots. De hecho, en Japón ya existen hasta youtubers virtuales o cantantes de música pop holográficos con bastante éxito. En otras revoluciones industriales, siempre nos quedaba el trabajo intelectual. El quid de la cuestión es que en ésta ya no tendremos qué hacer que las máquinas no puedan hacerlo mucho mejor que nosotros. En este escenario (insisto en que todavía muy hipotético), la renta básica universal no parece ser una opción más o menos opinable en función del espectro ideológico en el que uno se mueva, sino que será completamente necesaria.

Block y su argumento Blockhead

Publicado: 13 noviembre 2017 en Sin categoría
Etiquetas:, , ,

En su artículo “Psychologism and behaviourism” (1981), el filósofo norteamericano Ned Block, nos ofrece una versión, a mi juicio más precisa, del celebérrimo argumento de la Caja China de Searle: y que se ha denominado comúnmente como argumento Blockhead. Vamos a verlo:

El número de oraciones sintáctica y gramaticalmente correctas con las que puede comenzarse una conversación es un número finito (que ese número sea muy alto no nos importa). Entonces cabría construir un computador que tuviera dichas oraciones en su memoria. De la misma forma, el número de oraciones correctas con las que puede responderse al comienzo es igualmente finito, por lo que también podríamos almacenarlas en un computador. Y el número de respuestas posibles a estas respuestas es, de exactamente la misma forma, finito, por lo que, de nuevo, podríamos almacenarlas en el mismo computador. Repitiendo una y otra vez el proceso, podríamos almacenar toda respuesta posible a toda conversación posible.

De modo similar a como los ordenadores modernos agotaron juegos como las damas, sencillamente, a base de fuerza bruta (creando enormes árboles de decisión en el que se contenían todas las jugadas posibles), podríamos crear un computador que pudiera agotar todo acto comunicativo verbal posible. Entonces, necesariamente, este programa pasaría el Test de Turing sin el más mínimo problema (y engañaría a todos los interlocutores, y no solo al 30% previsto por el propio Turing). La máquina que nos propone Block sería Turing-perfecta en el sentido que no cabría imaginar una máquina mejor para superar el test (realmente podrían diseñarse máquinas más eficientes que hicieran lo mismo sin recurrir a la pura fuerza bruta computacional, pero para el caso lo que nos interesa es solo el resultado: la máquina cumple su propósito a la perfección).

La cuestión es: ¿Esa máquina piensa? Evidentemente no o, como mínimo, no mucho (por eso la han llamado blockhead). El programa no entiende ni una palabra de lo que dice, no tiene semántica de ningún tipo. Solo es un gigantesco árbol de decisión que conecta unas cadenas de símbolos con otras sin saber lo que significan. Ni siquiera sabe de gramática ni sintaxis, solo sabe de conectar unos símbolos con otros que ya tiene almacenados en su enorme memoria. Podríamos, por el contrario, tener obra máquina que dispusiera de gramática, semántica, sintaxis, etc. muchísimo más sofisticada y, por tanto, mucho más inteligente, que, sin embargo, no fuera capaz de pasar el Test de Turing o, al menos, no con la misma competencia.

Conclusión: el test de Turing no es un buen método para saber si una máquina piensa. Se puede exhibir una conducta muy inteligente sin un pensamiento inteligente detrás y, por el contrario, se puede mostrar conducta menos inteligente con un pensamiento mucho más inteligente detrás.

Nota: de estas cosas hablaremos este jueves a las 18:00 h. en la Escuela Técnica Superior de Ingenieros Industriales de Madrid. Contaremos con figuras de la talla de Julio Cesar Armero, Jesús Vega Encabo o Ricardo Sanz. Habrá una fase de preguntas muy amplia, por lo que podréis preguntar y comentar cualquier cosa que os plazca ¡Animaos!

Ilustración de Mattias Adolfsson.

Desde el Foro de Futuro Próximo hemos planteado una serie de debates acerca de un tema tan apasionante en estos momentos como es la IA. En nuestra primera mesa, mañana a las 18:00 horas en las Escuela Técnica Superior de Ingenieros Industriales, contamos como contertulios a figuras tan interesantes como Juan Andrés Avilés, Pablo Gervás, José Manual García y Álvaro José García Tejedor, primeras espadas en el campo de la IA nacional. Y como no podía ser de otra manera, el moderador será vuestro maquinista preferido, un servidor.

La asistencia es gratuita (podéis registraros en la página por razones de control, pero no es necesario), así que no podéis faltar. Os garantizo un debate de calidad que, con total seguridad, os dará una visión más rica y profunda del fenómeno tecnológico de moda (tened en cuenta que lo modera un filósofo, con su peculiar toque, muy distinto a la habitual visión ingenieril). Después de la mesa redonda habrá una fase de preguntas en las que podréis participar, y discutir y debatir lo que os plazca, con toda la maldad e irreverencia que os de la gana (Incluso después podréis hablar con nosotros y conocernos en persona, hasta tocarnos para comprobar que somos organismos biológicos y no androides… o eso creo).

Os espero. Doy mi palabra de que merecerá la pena venir.

Addendum del 4-11-2017:

 

 

Añado el vídeo de la primera sesión. El montaje es genial (doy las gracias a Alianza Futurista por ese excelente trabajo). Ponentes de altísimo nivel (de verdad), dando opiniones formadas en un debate fluido (creo que no se hizo demasiado aburrido) sobre nuestro tema. No sé los demás, pero yo me lo pasé bastante bien.

(Cuidado, spoilers).

0. Cuando haces una continuación de un clásico como Blade Runner (además diseñado para no tener secuelas, una obra redonda, completa en sí misma) lo tienes dificilísimo. Si haces lo mismo no aportarás nada, y si haces algo distinto, ya no será Blade Runner y decepcionarás a los puristas. Era muy fácil hacer algo muy malo y, en este sentido, Villeneuve no lo ha hecho mal: ha fabricado su propio Blade Runner con mucho del original pero con mucho también de cuenta propia. Ha equilibrado. Pese a ello, otra cosa es que te guste Villeneuve (a mí no especialmente, pero es cuestión de gustos).

1. La atmósfera: lo mejor que tenía la original era el clima ciberpunk ochentero: la lluvia, los inmensos carteles luminosos, suciedad, desorden, mucha gente, superpoblación, orientalismo por doquier (recordemos que en los ochenta Japón acababa de superar económicamente a Estados Unidos)… clásico universo apocalíptico opresivo y asfixiante que muestra una sociedad decadente dominada por despiadadas multinacionales (por eso la gente la abandona y se va a las colonias, siguiendo aquí fielmente la novela de Dick). Sin embargo, en la Blade Runner de Villeneuve no hay tal atmósfera opresiva: hay cierta limpieza y sobre todo, mucho espacio, mucha amplitud (a veces, casi recuerda a la Gattaca (1997) de Niccol). Y tampoco se ve la monstruosidad arquitectónica de la original (que Syd Mead pudo ver en Metrópolis), en la que la ciudad era un maremagnun de alturas y niveles que no dejaban ver el cielo.  El futuro de Villeneuve no es el mismo que el de Scott y a mí me gustaba mucho más el original y pensaba que Villeneuve, con los medios técnicos actuales, podría profundizar en él. A mi pesar no ha sido el caso y a mí, personalmente, la ambientación del canadiense no me dice demasiado.

2. La música: la película original tenía una de las mejores bandas sonoras de la historia del cine por lo que no se podía hacer mucho más de lo que han hecho: un refrito de la de Vangelis metiendo alguna cosita diferente. No obstante, hay errores: no entiendo por qué a Villeneuve le gusta meter esas estridencias a todo volumen cuando parece que no pega demasiado (igual lo hacía en la Llegada, 2016).

3. La fotografía: me ha pasado algo parecido a cuando vi Prometheus (2012): sí, la fotografía es excelente pero estamos en un momento en el que parece que con una buena fotografía ya justificas todo lo demás (la crítica parece tener orgasmos solo con esto), cuando, realmente es al contrario: la fotografía es otro elemento del lenguaje cinematográfico que tiene que estar al servicio de la película. Para ver solo buenas fotos ya me voy yo a una exposición en una galería. Y aquí es donde el metraje se hace innecesariamente largo: hay planos demasiado extensos que se recrean en la imagen por el mero hecho de recrearse, no porque digan nada más. Hay, digamos, un exceso de preciosismo.

4. El guión: hay historia y hay giros, vale. No está mal. Hay investigación detectivesca (recordemos que estamos en una película de cine negro) que hace avanzar la película. Además, como no podría ser de otra manera, el núcleo de la trama se basa en la duda de si uno es un replicante o no. Sin embargo, deja bastantes flecos… ¿Qué pasa con Wallace? ¿Y con la rebelión? ¿Vamos hacia la trilogía?

5. Me ha gustado mucho como se introducen nuevos temas como la relación emocional con una inteligencia artificial o la realidad aumentada, con el personaje de Joi (esos temas no existían en 1982). El problema es que, al hacerlo, se copia descaradamente, y sin vergüenza alguna, a Her (2013), incluso repitiendo la escena sexual en que se contrata a una chica para dar cuerpo a la intangible IA que, en este caso y al contrario que en Her, quiere ser humana. Y una pequeña cuestión: Joe lleva a Joi en una especie de disco duro externo que le permite proyectar su holograma en cualquier lado (lo llaman emanador), pero que si se destruye, ella desaparece… Vamos a ver: ¿no puede hacerse copia de seguridad? Joi no deja de ser un programa de ordenador…  No obstante, Ana de Armas es, probablemente, lo mejor de la película: su particular belleza que la asemeja a una chica anime la hace especialmente idónea para el papel de mujer florero virtual.

6. También me ha gustado que se toque el tema de la creación e implantación de recuerdos, aunque se hace de un modo muy superficial, al menos visualmente es interesante. El personaje de Carla Juri se hace entrañable en pocos segundos.

7. Ryan Gosling: tiene buena apariencia de blade runner, y acepto que su total inexpresividad quiera representar la falta de afectividad de un replicante, pero eso hace que no empatices ni un segundo con él. Es más, lo bien que asume su miserable vida de ciudadano de segunda (de pellejo) que vive en un apartamentucho, solo con una IA simulando ser su esposa… Lo siento pero si lo hubiesen matado en cualquier parte de la película el espectador no habría sentido ni la más mínima pena (de hecho así ocurre cuando, al final, parece que se deja morir sin ninguna razón mientras ve nevar, en una nueva muestra de lirismo sin demasiado sentido). Igualmente pasa con Joi. Supongo que Villeneuve esperaría que todos nos estremeciéramos por dentro en el momento de su muerte, pero no sucede así. A pesar de que uno entiende su pequeñez y su indefensión, no termina de empatizar, sigue siendo algo plana. Muchos críticos han dicho que a la película no tiene alma, y tienen mucha razón. Todo pasa demasiado tranquilamente, con ese ritmo pausado propio de la original, pero que le quita muchísima intensidad. Y este es el gran problema: no te sobresaltas, no te emocionas, no vibras… Villeneuve, contigo no siento nada.

8. Jared Leto… ¡uffff! Por un lado me parecen demasiado efectistas esos continuos reflejos acuáticos que rodean su entorno piscinero-orientaloide, por no hablar del juego de claroscuros cuando conversa con Deckard. Tampoco ayudan los delirios peudofilosóficos que suelta cuando habla… El personaje queda muy desdibujado y sin desarrollar ¿Por qué está ciego? Y luego su secuaz, la auténtica villana de la película, pues… tampoco. Sylvia Hoeks lo hace bien pero es que a mí que la mala sea una replicante pija diseñada como una psicópata experta en artes marciales… No podemos compararla, ni de lejos, con la presencia ni el carisma de Roy Batty.

9. Robin Wright: bien. Muy correcta como la dura, fría y amargada teniente Joshi, que lucha por mantener el orden a toda costa. Nada que envidiar a su homólogo en la original: Michael Emmet Walsh como Bryant.

10. Momentos lamentables: fundamentalmente tres: el encuentro, y la pelea, entre Joe y Deckard es totalmente ridículo y sin sentido (¿por qué citan La Isla del Tesoro?); la digitalización de Sean Young… ¿por qué? ¡Dios mío! ¿Por qué? ¿Y por qué ese doblaje al castellano? ¿Por qué no habéis intentado, al menos, imitar la voz de Rachael?; y encontrar a Edward James Olmos en un geriátrico… ¿no se les podría haber ocurrido un final mejor para el enigmático agente Gaff?

11. Grandes momentos: la secuencia de la pelea entre Joe y Luv, en plena oscuridad marítima, con planos aéreos incluidos, es muy buena. Tampoco está mal el nacimiento de la replicante a la que Jared Leto ejecuta sin compasión. Mola mucho el spinner de Joe (más que el original de Deckard).

Conclusión: podría haber sido mucho peor, pero, desde luego, no es la obra maestra de la que habla la crítica y no va a pasar a la historia de la sci-fi.  Si te gusta Villeneuve, es posible que te encante, pero a los que no nos hace del todo tilín… Creo que ha sido una oportunidad desaprovechada para profundizar más en la obra de Scott. En una conversación de la película se dice que los nacidos tienen alma pero los fabricados no. Esa es la diferencia entre las obras de Scott y Villeneuve: la de Scott tenía alma y la de Villeneuve, es tan solo una replicante.

Desde cierta perspectiva ideológica se entiende el entramado tecno-científico  como un instrumento al servicio del malvado capitalismo (tecnoliberalismo he leído). Las grandes corporaciones que dominan el mundo desde la sombra, utilizan la tecnología, esencialmente, contra el ciudadano de a pie (es decir, contra el lector promedio de noticias de esa temática ¿Qué iban a tener mejor que hacer los dueños de las multinacionales?), intentando controlarle, mantenerle alienado, en un estado de esclavitud inconsciente.

Las máquinas, asociadas a la revolución industrial y, por lo tanto, a la explotación de la clase obrera, se ven como la máxima expresión de lo inhumano. Si el sistema capitalista ya es inhumano, sus frutos mecánicos no podrían ser menos: los robots son entes fríos gobernados por despiadadas almas de metal, seres amorales que, como tantas veces pronostica la literatura y el cine, terminaran por aniquilarnos. HAL 9000, Proteus, Skynet… todas las versiones cinematográficas en las que se habla de inteligencias artificiales es, siempre, para reinterpretar una y otra vez el mito de Frankenstein: humanos jugando a ser dioses (“jugar a ser dioses” es un mantra repetido ad nauseam que no significa absolutamente nada) a los que su creación se les va de las manos y termina por volverse contra ellos.

Recientemente apareció en la prensa la noticia de dos programas de IA de Facebook, diseñados para establecer negociaciones, que habían creado un lenguaje propio aparentemente ininteligible. Asustados por el descontrol, aseguraban los periodistas,  los programadores desconectaron los programas (como si los programas estuviesen vivos siempre en funcionamiento y no se desconectaran cada vez que no se estuviesen ejecutando, es decir, como mínimo cuando los programadores se fueran a dormir a casa y apagaran sus ordenadores). La prensa amarilla vendió el asunto como si los programas se estuviesen escapando de las manos de sus creadores y los ingenieros de Facebook, realmente, hubiesen sentido miedo ante las posibles consecuencias de dejar funcionando algo sí. En ciertos medios (que no citaré para no darles publicidad) se dijo, alegremente, que esto demostraba que el estado de la IA actual ya había superado al hombre, y sugerían un escenario apocalíptico de lucha entre humanos y máquinas. Lamentable: la prensa, como tantas veces, desinformando.

La realidad es que, a mi pesar, la IA está a años luz de conseguir lo que sería una IAG (Inteligencia Artificial General) equiparable al ser humano, hacia la que tuviésemos que empezar a mostrar algo de preocupación. Se han dado excelentes progresos en reconocimiento visual o comprensión del lenguaje natural a través de modelos de redes neuronales artificiales, además de que con la actual capacidad de computación, podemos diseñar redes que aprenden rápido (y por sí solas) a través de ingentes cantidades de datos. Sin embargo, todavía son máquinas demasiado especializadas en una tarea concreta para poder enfrentarse a la inabarcable complejidad que parece necesitarse para operar competentemente en el mundo real. Es posible que en un futuro, más lejano que cercano, lo conseguirán, pero creo que, de momento, tenemos preocupaciones más apremiantes que las IA asesinas pretendiendo dominar la Tierra.

Y si nos vamos a las ciencias de la vida, el asunto no hace más que empeorar. Ya sabemos como en temas de nutrición, hay que comer alimentos sanos, es decir, naturales. Todo lo “químico”, lo “artificial” es, casi a priori, tóxico. Los defensores de lo natural parecen desconocer que todo lo que existe (o, como mínimo, lo que comemos) está compuesto de elementos químicos presentes en la tabla periódica (todo es químico). Si contraargumentan que químico significa que ha sido sintetizado en un laboratorio, habría que preguntarles qué tiene de malo que algo se procese en un laboratorio, cuando, precisamente, los laboratorios han de pasar por una infinidad de controles para poder sacar un producto al mercado, mientras que algo que no procede de ningún laboratorio es lo que puede escapar más fácilmente al control.

Es lo que pasa con la medicina natural. Un medicamento convencional requiere una altísima inversión por parte de la empresa farmacéutica que va desde la investigación hasta que el medicamento es aprobado y sale al mercado (igualmente pasando por una gran cantidad de protocolos y controles sanitarios). Por el contrario, el medicamento natural, se ahorra absolutamente todo: ni investigación (¿para qué demostrar que el medicamento es eficaz o no, o qué efectos secundarios tiene, si mi cuñada dice que le fue genial?) ni ningún tipo de control ¡Vaya chollazo! Es curioso que los críticos con las farmacéuticas ven en ellas el feo negocio de la salud (muchas veces con razón), pero no lo vean en los suculentos beneficios de las empresas de lo natural.

Si por natural entienden lo orgánico como referencia a la química orgánica o del carbono, deberían saber que el petróleo y sus derivados plásticos son compuestos tan orgánicos (tan compuestos por carbono) como su zumo de aloe vera. Es más, su coliflor ecológica, tan sana en comparación con la peligrosísima coliflor transgénica, es fruto de milenios de selección artificial de genes, sin ningún estudio de su peligrosidad más que comerla y ver qué pasa. La coliflor, y todas las frutas, verduras, hortalizas y legumbres que cultives “naturalmente” en tu huerto ecológico, provienen de ancestros completamente diferentes (la coliflor viene de una insustancial especie de mostaza silvestre)  que fueron seleccionándose en función de las propiedades que se querían potenciar, es decir, que se escogieron genes y se desecharon otros durante miles de generaciones. Todo tu huerto está formado por especies diseñadas por el hombre: es, por entero, artificial.

Desde obras como Brave New World de Huxley, inspiradora directa de la Gattaca (1997) de Niccol, se ha criticado cualquier forma de eugenesia apelando, fundamentalmente, a que crear niños a la carta (por muy buenas virtudes que les demos y por muchas enfermedades de las que les libremos) les privaría de cierta libertad, dando lugar a un mundo demasiado ordenado y regular, demasiado perfecto. En Gattaca se ataca directamente el determinismo genético (el que, erróneamente, tanto se ha atribuido a Dawkins) afirmando, en lenguaje cinematográfico, que no todo está en los genes, sino que el hombre tiene algo valioso en su interior, una especie de esencia, que le permite vencer incluso a su propio genoma.

En la misma línea, repitiendo el jugar a ser dioses, se ha argumentado que modificar genéticamente al ser humano no puede dar lugar a otra cosa que no sean monstruos que, al final, se volverán de algún modo contra nosotros (Véase la película Splice, 2009) . Nuestra naturaleza humana es la que nos hace ser lo que somos, de modo que cambiarla nos deshumanizaría o, peor aún, inhumanizaría.  Todo esto se enmarca siempre con menciones a los programas eugenésicos de los nazis (no suele mencionarse que esos mismos programas se estaban dando, igualmente, en los países aliados, notablemente en Estados Unidos, uno de los países más racistas del mundo) o al darwinismo social (que tantas veces se confunde con el darwinismo o con la misma teoría de la evolución).

Los errores son evidentes:

  1. Modificar los genes de un embrión para darle ciertas características no le resta ningún tipo de libertad que antes tuviera, ¿o es que alguien ha elegido sus genes antes de nacer? El ser humano genéticamente modificado será tan libre de elegir su futuro como cualquiera de nosotros.
  2. Decir que mejorar genéticamente al ser humano va dar lugar a un mundo enrarecido demasiado perfecto, es una afirmación gratuita: ¿por qué? Con total seguridad, a pesar de dotar a los seres humanos de mejores cualidades, estaremos lejos de crear un mundo perfecto. Lamentablemente, los problemas y las injusticias seguirán existiendo. Yo solo creo que con mejores seres humanos sería más probable conseguir un mundo mejor, pero de ninguna manera perfecto.
  3. Nadie defiende hoy en día el determinismo genético. Somos fruto de nuestros genes, pero también del ambiente y del azar. El niño modificado tendrá una vida entera por delante en la que sus experiencias vitales configurarán su personalidad igual que la de cualquier otro hijo de vecino. Lo que sí está claro es que no tenemos ninguna esencia interior, ninguna fuerza mágica que haga que podamos vencer a nuestra biología. Lo sentimos mucho pero el cáncer no puede curarse con meditación ni buena voluntad.
  4. No existe una naturaleza humana sagrada, dada para siempre. El ser humano es una especie como cualquier otra y, en cuanto a tal, sigue evolucionando por lo que, queramos o no, se modificará ¿No será mejor que nosotros controlemos nuestra propia evolución antes de que lo haga el mero azar?
  5. Que los nazis tuvieran programas eugenésicos no implica que la eugenesia sea mala. Estoy seguro de que muchos nazis eran hábiles reposteros de apfelstrudel (pastel de manzana, postre típico austriaco, muy común en Alemania), ¿por eso cocinar pastel de manzana va a ser malo?
  6. Nadie defiende ningún tipo de darwinismo social. Que alguien tenga cualidades genéticas mejores que otro no quiere decir que haya que marginar o discriminar a nadie. Por esa regla de tres, si me encuentro con otra persona menos inteligente que yo, ¿ya tengo derecho a tratarla mal? Y, en el peor de los casos, la jerarquización social que podría llegar a darse no sería muy diferente a la actual. Los más inteligentes, trabajadores, atractivos, etc. tienden a copar los mejores puestos socio-económicos… ¿qué es lo que iba a cambiar?

Evidentemente, el control ético de todo avance en el que estén inmiscuidos seres humanos debe ser extremo y no debe darse ningún paso sin garantizar, al menos de un modo razonable, que nadie va a sufrir ningún tipo de daño. Nadie está hablando de hacer experimentos genéticos al estilo de La Isla del Doctor Moreau ni de nada por el estilo, se está hablando de dar mejores cualidades, lo cual, probablemente aunque no necesariamente, hará un mundo mejor, lo cual, probablemente aunque no necesariamente, evitará mucho sufrimiento futuro.

Hagamos un último experimento mental. Supongamos que en un futuro próximo el mundo se ha unificado políticamente, de modo que toda la población vota a un presidente mundial. Tenemos dos candidatos:

a) Un ciudadano cualquiera del que no sabemos nada de sus genes.

b) Un ciudadano que fue modificado genéticamente para ser muy inteligente y voluntarioso, a parte de bondadoso, generoso, idealista, honesto…

¿A cuál votaríamos? ¿Con cuál sería más probable que el mundo fuese mejor? Y podríamos añadir una tercera opción:

c) Una inteligencia artificial con capacidades cognitivas sobrehumanas programada para buscar el bien y la felicidad del ser humano, y para ser totalmente incapaz de hacer daño a nadie.

Yo, siendo políticamente incorrecto, creo que la apuesta más segura para un mundo mejor es la c.

Desgraciadamente, toda esta distorsionada y, a todas luces, equívoca forma de entender la realidad domina en gran parte de las universidades y, sobre todo, en la izquierda política. Y es una verdadera lástima porque sería necesaria una izquierda ilustrada que entendiera que una de las mejores formas de conseguir que las clases bajas mejoren su situación es a través del desarrollo científico y tecnológico. No estamos hablando de caer en un optimismo ingenuo hacia las posibilidades de la ciencia, ni en el torpe solucionismo tecnológico (creer que todo lo va a solucionar el avance tecnológico). Este artículo, publicado en el New York Times, nos dejaba claro lo lejos que aún estamos de hacer seres humanos a la carta (fijaos en el dato de que en, solamente, una cualidad como la altura intervienen unas 93.000 variaciones genéticas). Sin embargo hay que cambiar, radicalmente, esta visión-actitud hacia las nuevas tecnologías. Es, sin duda, el tema de nuestro tiempo.

Quizá el primer problema de la historia de la filosofía occidental haya sido este: si Heráclito decía que la esencia del mundo es estar en continuo devenir, es decir, en constante y fluido cambio, y Platón afirmaba que solo es posible conocer lo que no cambia… ¿cómo es posible conocer la realidad? Platón tuvo que inventarse otro mundo estático e inmutable fuera del mundo natural, tal como, sorprendentemente (al menos para mí), hizo Popper ya bien metidos en el siglo XX, junto con muchos otros neoplatónicos actuales.

Pero, ¿permanece algo en el cambio? Parece que sí. Cuando miro a mi alrededor el mundo parece bastante estable y los objetos permanecen, al menos, tiempos razonables dada mi escala de medición humana… Si nos centramos en el presente, casi todo sigue igual y solo algunas cosas cambian. Ahora mismo estoy sentado enfrente de mi ordenador, mientras mi hija recorta papeles de colores en mi misma mesa. Al fondo, la tele está encendida. Si hago un cómputo entre lo que cambia y lo que no, la estabilidad gana por goleada: las paredes, los muebles, el suelo (el fondo de mi campo perceptivo), los colores, la luz permanece completamente invariable. Solo mi mente pensando, mis manos tecleando, las letras apareciendo en la pantalla, los movimientos de mi inquieta hija y el sonido de fondo de la televisión son cambiantes. Y dentro de eso que cambia, también hay cierta permanencia. Mis pensamientos parecen seguir siendo míos, siendo, de algún modo coherentes con los anteriores; las teclas siguen estando en su sitio, las letras permanecen escritas tal y como las escribo; mi hija sigue siendo ella y el sonido de la tele suena tan común y corriente como siempre lo ha hecho. Ahora mismo mi realidad sucede tranquila, predecible, controlable, apacible, cómoda…

Pero, si por ejemplo, los físicos nos dicen que los objetos están compuestos por partículas que están en continuo movimiento, si los objetos cambian de posición, salen y entran de mi campo de visión… ¿cómo sé que son los mismos y no otros diferentes? Si hay millones de fotones que bombardean a cada segundo todo mi cambio de visión, haciéndolo cada vez en cantidades variables, rebotando y chocando con todo… ¿cómo percibo colores e iluminaciones tan estables? Lo lógico sería pensar en una realidad caótica, confusa, vibrante… como el cuadro de Jackson Pollock que vemos arriba.

Bien, hagamos un experimento. El psicólogo cognitivo Roger Shepard y su discípulo Sherryl Judd, enseñaban a varios sujetos un conjunto de las doce pares de formas tridimensionales de la imagen de abajo. Como vemos, son dos formas idénticas cuya relación se va modificando en función de unas sencillas reglas de transformación: traslación en un plano bidimensional, rotación, traslación en profundidad (o cambio de escala), o rotación del propio plano (en g, h, i y l) .

Después, Shepard y Juud preguntaban que, suponiendo que las dos figuras del par fueran la misma, qué tipo de transformación había sufrido la primera para llegar a la posición de la segunda. En el caso del par a, la explicación parece clara e indiscutible: la figura se ha movido a la derecha por un plano. Sin embargo, en b caben dos explicaciones posibles: o el objeto ha aumentado su tamaño, o se ha acercado al observador partiendo de un plano tridimensional.  Del mismo modo, por ejemplo en h, puede decirse que la figura se ha contraído o que ha rotado sobre sí misma. La mayoría de los observadores elegían la explicación que no implicara cambiar la forma o el tamaño del objeto, prefiriendo añadir una tercera dimensión con tal de no modificarla. Es decir, ante dos explicaciones igualmente válidas, se elige la que mantiene estable el objeto (en la imagen, lo escrito encima del par de formas es la explicación que modifica la forma, y lo escrito debajo la explicación que no), lo que viene a demostrar que tenemos una tendencia innata a estabilizar la realidad. A esto lo llamo Shepard invariante (término tomado de James Gibson). En una sucesión temporal, nuestro cerebro intenta maximizar lo invariante de una realidad siempre cambiante. Pero lo invariante no es, desde luego, ninguna propiedad esencial o forma aristotélica que el sujeto abstrae del objeto, sino todo lo que sea posible percibir que me permita seguir identificando el objeto como el mismo en el momento siguiente.

Unas investigaciones muy relevantes (muy potentes al respecto son las de Hubel y Wiesel, por las que ganaron un Premio Nobel) demostraron como nuestra percepción visual es especialmente buena detectando los bordes de los objetos ¿Por qué? Para mantener la identidad de lo observado, dejando muy clara la frontera entre lo que es y no es el objeto (cuando, realmente, los objetos tienen bordes mucho más borrosos de como los percibimos). Los bordes nos dan información más relevante sobre la estructura invariante del objeto que cualquier otra región visual del mismo. A nivel físico, pueden describirse como un cambio brusco en los niveles de luminancia, que es además resaltada por la inhibición lateral de los fotorreceptores de la retina. La demostración es muy espectacular con las bandas de Mach:

Al observarlas nos da la impresión de que los límites entre las bandas tienen un cierto relieve, pareciendo sobresalir hacia nosotros y creando la ilusión óptica de cierta concavidad en cada banda. La ilusión se produce porque nuestro cerebro clarea u oscurece de más los límites entre cada banda para resaltar el contraste y diferenciar mejor unas de otras. Los bordes son un invariante que nuestra cognición trata de mantener a toda costa, incluso falseando la misma realidad.

 

Desde los albores de la lingüística, el modelo que se utilizaba para explicar el significado de las palabras (la semántica), era la teoría referencialista del lenguaje. Básicamente sostenía que las palabras significaban algo en la medida que existía un referente en la realidad. Así, la palabra “manzana” significaba si cuando hablábamos de ella nos estábamos refiriendo a una manzana del mundo real. De aquí, además surge la teoría de la verdad como correspondencia: La frase “la nieve es blanca” es verdadera si y solo si la nieve es blanca (tal y como desarrolló Alfred Tarski en 1933 y 1944). Estábamos ante una nueva reformulación del realismo clásico representando fundamentalmente por Aristóteles: mediante el lenguaje podemos hablar de la realidad y habría tantas formas lingüísticas de hablar de la realidad como categorías tenga la realidad. Así, si tuviésemos una descripción del mundo que asignara cada palabra a su referente, tendríamos una teoría completa y perfecta del mundo…

Pero los problemas comienzan. En primer lugar, cuando hablamos de seres imaginarios como, por ejemplo, unicornios, ¿dónde está la referencia real? No pasa nada. Nuestra imaginación crea nuevos mundos (habitualmente combinando elementos del mundo real: caballo + cuerno = unicornio). Sencillamente, las referencias se encuentran en ese mundo mental (verdaderamente, no era tan sencillo… ¿qué tipo de existencia tienen los objetos imaginarios? ¿Qué es y dónde está ese mundo mental?). Después había palabras sincategoremáticas como por, para, en, y, entonces… que no tienen ningún referente ni real ni imaginario ¿qué significan entonces? No pasa nada. Son solo palabras auxiliares que cobran significado cuando se combinan con otras que sí lo tienen. Por ejemplo, si digo “Tengo un regalo para ti”, “regalo” y “ti (tú)” tienen plena referencia y “para” la gana al designar la dirección hacia la que va el regalo (de mí hacia ti).

Vale, pero aquí viene un problema gordo: las palabras no solo refieren a un único referente, sino que pueden cambiarlo en función del contexto. Si yo digo “Fuego”, la referencia no tendrá nada que ver si estoy señalando con mi mano un cigarrillo en mi boca,  a si estoy asomándome por la ventana de un edificio en llamas. Esto, que parece trivial, y casi estúpido, representa una ruptura brutal con la teoría referencialista del significado: no existe un lenguaje universal para hablar de toda la realidad, no existe un único modelo lingüístico del mundo, sino que habrá tantos lenguajes como contextos en los que nos encontremos. De hecho, cada comunidad lingüística utilizará unos significados diferentes que no solo se reducirán a nombrar cada objeto con una palabra distinta, sino a diferencias mucho más profundas. Vamos a ver un ejemplo precioso sacado del libro de Jim Jubak La máquina pensante (muy, muy recomendable), en un capítulo que dedica a las ideas del lingüista George Lakoff:

Por ejemplo, el dyirbal, una lengua aborigen de Australia, que Lakoff expone en su libro de 1987 Women, Fire and Dangerous Things, utiliza tan solo cuatro clases para todas las cosas. Cuando un hablante del dyirbal utiliza un nombre, éste debe ir precedido de una de entre las cuatro palabras siguientes: bayi, balan, balam o bala. Robert Dixon, un lingüista antropólogo, registró cuidadosamente los miembros de cada clase del dyirbal. Bayi incluía a hombres, canguros, zarigüeyas, murciélagos, la mayoría de serpientes, la mayoría de peces, algunos pájaros, la mayoría de insectos, la luna, las tormentas, los arco iris, los bumeranes y algunos tipos de lanzas. Balan incluía a las mujeres, las ratas marsupiales, los perros, los ornitorrincos, los equidnas, algunas serpientes, algunos peces, la mayoría de los pájaros, las luciérnagas, los escorpiones, los grillos, el gusano plumado, cualquier cosa relacionada con el agua o el fuego, el sol y las estrellas, los escudos, algunos tipos de lanzas y algunos árboles. Balam incluía todos los frutos comestibles y las plantas que los producen, los tubérculos, los helechos, la miel, los cigarrillos, el vino y los pasteles. Bala incluía partes del cuerpo, la carne, las abejas, el viento, los ñames, algunos tipos de lanzas, la mayoría de los árboles, la hierba, el barro, las piedras, los ruidos y el lenguaje.

Dixon no creía que, simplemente, las clases se agruparan aleatoriamente y que, para aprender a usarlas, había que aprenderse de memoria cada uno de sus miembros. Estudiándolas más profundamente llegó a ciertas directrices de categorización: Bayi estaba compuesto por hombres y animales (lo masculino); balan por mujeres, agua, fuego y lucha; balam  tiene evidente relación con la comida; y bala parecía contener todo lo demás. Pero lo importante es que existían criterios experienciales para categorizar: por ejemplo, los peces eran bayi, por lo que todo lo relacionado con la pesca (lanzas, redes o cualquier aparejo de pesca) era también bayi. De la misma forma, los mitos y las leyendas  también influían en las clasificaciones. Los pájaros, siendo animales, deberían ser bayi, pero eran balan ¿Por qué? Porque según la mitología de los aborígenes australianos del noreste de Queensland, los pájaros son los espíritus de las mujeres muertas. Por el contrario, tres especies de pájaros cantores son hombres míticos, por lo que pasan a la categoría de bayi.

El contexto, las prácticas, costumbres, creencias, etc. de una determinada comunidad lingüística, fijarán (y no para siempre) los significados de un lenguaje. Wittgenstein sostenía que los lenguajes están irreversiblemente ligados a formas de vida.  A mí me gusta decir que tienen historia: cada acontecimiento histórico (no en el sentido político, sino en tanto en que influye significativamente en la vida de los hablantes) creará nuevas narraciones que podrán modificar los significados.

Pero, es más, el lenguaje puede llegar modificar nuestras capacidades cognitivas. En 2006, Diana Deutsch y sus colaboradores realizaron experimentos con hablantes de chino mandarín. El chino mandarín es una lengua tonal, es decir, una lengua en el que las variaciones del tono en que se pronuncian las expresiones cambian mucho su significado. Por ejemplo, la palabra “ma” puede significar palabras tan dispares como “caballo”, “madre”, “cáñamo” o “regañar” solo cambiando la duración o intensidad del tono. Deustch hizo un estudio comparativo entre estudiantes de conservatorio chinos (que hablaban mandarín) y norteamericanos (tondos angloparlantes de nacimiento) para comprobar cuándo conseguían desarrollar lo que se conoce como oído absoluto: capacidad de identificar notas aisladas (capacidad muy compleja incluso para los músicos profesionales. Todos podemos identificar notas en el contexto de una canción, al compararlas con otras, pero, por ejemplo, escuchar un fa aislado y reconocerlo como tal es muy difícil). Los datos fueron muy concluyentes: por ejemplo, de entre los estudiantes que habían empezado el conservatorio entre los 4 a 5 años de edad, tenían oído absoluto el 60% de los chinos, frente a solo un 14% de los estadounidenses. Hablar una lengua tonal favorece el desarrollo de oído absoluto, o dicho de un modo más general, según el lenguaje que hables desarrollaras más o menos ciertas habilidades cognitivas.

Sin embargo, esto no tiene que llevarnos a lo que, lamentablemente, la postmodernidad hace continuamente: dirigirnos a un relativismo radical (basándose en la hipótesis de Sapir y Whorf), afirmando que la realidad es una construcción lingüística, y como hay muchos lenguajes diferentes, habrá tantas realidades como lenguajes… ¡ufffff! Y es que prescindir de la realidad siempre es harto peligroso (es lo que tanto les gusta hacer a nuestros ilustres políticos). Vamos a ver unos ejemplos, de lo que se han llamado tipos naturales, es decir, de formas de significar que no obedecen a ningún tipo de construcción lingüística.

En sus experimentos [los de Brent Berlin y Paul Kay] mostraban 144 trozos de material pintado a hablantes de lenguas diferentes. Cuando les pedían a los sujetos que señalaran las partes del espectro que nombraba su lengua, las respuestas parecían arbitrarias. Pero cuando se les pedía que señalarán el mejor ejemplo de, pongamos “grue” [green + blue] (el nombre de una combinación de azul y verde), todos identificaban el mismo azul central y no el turquesa. Independientemente de los términos que utilizara una lengua para los colores, todos los seres humanos parecían estar de acuerdo en qué colores eran más azules, más verdes o más rojos.

Eleanor Rosch conoció los resultados de Berlin y Kay cuando estaba en pleno apogeo de su propio estudio sobre el dani, una lengua de Nueva Guinea en la que solo había dos términos para colores: mili para colores oscuros y fríos (incluyendo el negro, el verde y el azul), y mola para colores claros y cálidos (incluyendo el blanco, el rojo y el amarillo). Se trataba de una sociedad que planteaba un increíble desafío a los resultados de Berlin y Kay ¿Podría Rosch duplicar aquellos resultados con nativos de una lengua tan radicalmente pobre?

Reproducir la prueba de Berlin y Kay no fue difícil. Al enfrentar a los hablantes del dani con los 144 trozos coloreados y pedirles que escogieran el mejor ejemplo de mola, eligieron colores focales, bien el rojo central, el blanco ventral o el amarillo central. Ninguno eligió una mezcla de los tres.

Es más, Rosch fue más allá y realizó un nuevo experimento. Enseñó a un grupo de danis los nombres de ocho colores centrales (elegidos aleatoriamente) y a otro, otros ocho colores no centrales. Con total claridad, el grupo que aprendió los colores centrales lo hizo más rápidamente y recordaba mejor los nombres. Los resultados son evidentes: no todo es una construcción lingüística ya que hay una realidad preexistente que conocemos antes de, ni siquiera, saber o poder nombrarla. Y, por tanto, la construcción de un lenguaje no es algo totalmente convencional o arbitrario, sino que la realidad (o nuestra estructura o forma cognitiva de conocerla) interviene decisivamente.

Como vemos, la semántica es un tema mucho más complejo de lo que a priori podría imaginarse. En la comprensión de un lenguaje influyen aspectos de, prácticamente, todas las esferas de ámbito humano: la realidad, la situación contextual, las costumbres y las creencias, las prácticas sociales, las experiencias vitales, la biología de nuestros sistemas perceptivos, cognitivos e, incluso, de nuestros aparatos fonadores… todos influyen de diversas maneras en que comprendamos el significado de cualquier expresión de un lenguaje.

Todo apuntaba en la dirección de que si queríamos construir una máquina inteligente, habría que dotarla de una mente que, dada la hipótesis del sistema universal de símbolos físicos de Allen Newell, sería un programa maestro, un centro de mando que diera todas las instrucciones a las demás partes de la máquina. Lo importante era ese programa y lo periférico, básicamente motores y sensores, era lo de menos, lo fácil. Lo importante era el software, la parte “inmaterial” de la máquina. Lo demás, lo físico, era cosa de electricistas.

En los años 90, cuando un robot atravesaba una habitación esquivando obstáculos, primero observaba el entorno con su cámara y luego procesaba la información intentando reconocer los objetos. Problema: con los procesadores de esa época, la computadora tardaba una eternidad en crear ese mapa de su entorno, por lo que sus movimientos eran lentísimos. Entonces, el ingeniero en robótica australiano Rodney Brooks se puso a pensar: ¿cómo es posible que una mosca se mueva con tal velocidad esquivando todo tipo de objetos, incluso en movimiento, si apenas tiene cerebro? ¿Cómo con esa ínfima capacidad de cómputo puede hacer lo que los robots no pueden ni soñar?

Respuesta: es que gran parte del movimiento de la mosca (y de cualquier otro ser natural) no es procesado por una unidad central, sino que responde directamente ante la percepción. Fue el descubrimiento del inconsciente en IA. Tal y como Marvin Minsky nos decía en su Society of mind, la mente puede ser un inmenso conjunto de módulos funcionales, de pequeños programas, subrutinas, homúnculos, o cómo queramos llamarlos. El caso es que muchos de estos pequeños robotitos no tienen por qué procesar nada, o solo procesar muy poquita información, es decir, son simples, automáticos e independientes de la unidad de control. La idea es que del funcionamiento cooperativo de robotitos “estúpidos” pueden emerger conductas muy sofisticadas e inteligentes.

Brooks construyó así, entre otros, a Herbert (nombre en honor a Herbert Simon), un robot que recogía latas de soda y las tiraba a una papelera. Lo interesante es que todos los sencillos dispositivos de cálculo que componían la máquina estaban directamente conectados a los sensores y no se comunicaban ni entre ellos ni con ningún tipo de centro de mando. Herbert no tiene, prácticamente memoria, ni nada que se asemeje a un mapa de la habitación, ni siquiera tiene programado el objetivo que tiene que cumplir ¿Cómo funciona entonces la máquina?

Brooks sostiene que lo que solemos llamar comportamiento inteligente es solo una narración hecha a posteriori, una vez que hemos visto al robot actuar. Es una racionalización que antropomorfiza falsamente al robot (y es que hay que tener en cuenta que es muy, pero que muy distinta la descripción externa del funcionamiento interno, y muchas veces las confundimos).

Herbert funciona, sencillamente, a partir de pequeñas máquinas de estado finito que obedecen instrucciones muy sencillas y que han sido coordinadas ingeniosamente por Brooks. Por ejemplo, el módulo que dirige el movimiento del robot y el brazo mecánico no están intercomunicados, por lo que cuando el robot encuentra la lata no puede decirle a su brazo que tiene la lata delante y que la coja ¿Cómo lo hace? Sencillamente, el brazo mecánico siempre mira hacia las ruedas. Cuando las ruedas llevan un rato paradas, el brazo infiere que será porque están ya en frente de la lata y, entonces, se activa para cogerla.

Además, esta idea encaja muy bien con la evolución biológica. La selección natural opera bajo el único principio de adaptabilidad local, es decir, de, dado lo que hay, optimizo, sin mirar demasiado cuestiones de elegancia ni estética. Pensemos en las plantas. Si tú fueras un organismo que permaneces fijo en un lugar expuesto a ser devorado por múltiples herbívoros (eres el último en la cadena trófica), una buena estrategia sería tener una estructura modular repetitiva sin ningún órgano vital único, de modo que puedas perder gran parte de tu organismo sin morir (algunas plantas pueden perder más del 90% de su organismo y seguir vivas). Si las plantas tuvieran un módulo de control correrían el riesgo de que si es devorado, ya no habría salvación posible. Pero, sin ese control central, ¿cómo se las arreglan para responder al entorno? Porque funcionan igual que Herbert. Por ejemplo, la superficie de las plantas está plagada de estomas, conjuntos de dos células que abren o cierran una apertura (serían, grosso modo, como los poros de nuestra piel). Su función es la de dejar pasar moléculas de dióxido de carbono, esenciales para realizar la fotosíntesis. El problema es que cuando están abiertos, dejan escapar mucha agua por transpiración, por lo que deben mantener un delicado equilibrio entre conseguir suficiente dióxido de carbono y no perder demasiada agua ¿Cómo lo hacen? Captando muy bien la luz, su dirección y su calidad. Las plantas disponen de diferentes tipos de fotorreceptores (fitocromos, criptocromos o fitotropinas) que son capaces de absorber la longitud de onda del rojo, el rojo lejano, el azul y el ultravioleta (las plantas, en un sentido no tan lejano al nuestro, ven), de tal modo que saben con mucha precisión la cantidad de luz solar que hay en cada momento. Lo único que hacen es, en función de esa cantidad, le indican a los estomas cuánto deben de abrirse. Las plantas no tienen sistema nervioso ni ningún órgano encargado de medir a nivel global la cantidad de luz recibida por lo que va a ser cada fotorreceptor el que le indique a cada estoma concreto su abertura. Son un claro ejemplo de la idea de Brooks: percepción-acción sin procesamiento central de la información. Cada conjunto funcional fotorreceptor-estoma sería un módulo simple y automático que, en confluencia con todos los demás, haría emerger un comportamiento muy inteligente.

Dejemos los vegetales y vamos a un ejemplo ya con mamíferos: los experimentos realizados por Collet, Cartwright y Smith en 1986. Una rata tiene que encontrar comida enterrada utilizando como pistas visuales unos cilindros blancos. En uno de los experimentos, se enterraba la comida en un punto equidistante entre dos cilindros. La rata pronto aprendió la posición y acertaba rápidamente. Entonces, los científicos separaron más los cilindros situando la comida de nuevo en el punto equidistante con la esperanza de que ese cambio no despistara al roedor. Sin embargo, la rata no encontraba la comida y se limitaba a dar vueltas a los cilindros ¿Qué había pasado? Que la rata utilizaba un mecanismo mental que valía solo para algunos casos: el cálculo vectorial. Hacía un vector cuyo centro estaba en el cilindro y cuya dirección indicaba hacia el otro cilindro, pero cuya medida era una constante, por lo que si alargan la distancia entre los cilindros, la rata no entendía que la comida seguiría enterrada en el punto equidistante entre ambos. Conclusión: las ratas también utilizan pequeños robotitos estúpidos para actuar que, lamentablemente, se pierden cuando cambian las circunstancias para las que fueron diseñados. Un comportamiento que, de primeras nos parecía inteligente, se nos antoja mucho más estúpido cuando sabemos la simplicidad de las reglas de fondo.

Por eso, a pesar de que a los ingenieros de IA les hubiese encantado que los seres vivos, o la mente humana, fueran programas elegantemente diseñados, que controlaran y gobernaran todos sus sistemas, parece que no es así. No obstante, esto no quiere decir que hay que renunciar a todo software y solo centrarnos en hacer emerger comportamiento complejo de hardware simple, solo que hay que tener mucho más en cuenta el hardware de lo que se pensaba. Entonces, cobraron importancia la embodied cognition (un enfoque casi opuesto a la independencia de substrato de los defensores de la IA simbólica), la IA bioinspirada o, en términos generales, cualquier modelo computacional no basado en la arquitectura de Von Neumann.

Adjunto el famoso paper de Brooks (muy criticado en su momento):

Intelligence without reason – Rodney Brooks

Es cierto que su “Alchemy and Artificial Intelligence” para la RAND Corporation fue demasiado agresivo. Es cierto que, a pesar de haber dicho que los programas de ajedrez jamás podrían superar el nivel amateur, perdió estrepitosamente jugando contra el programa MacHack del MIT (programado por R. Greenblatt); es cierto que muchas de las cosas que dijo que las máquinas no pueden hacer, al final, lo han hecho; y también es cierto que su enfrentamiento con los principales gurús de la IA ha parecido, a veces, obsesivo, casi como si tuviera contra ellos algo personal (Muchos dicen que utilizó un campo emergente como la IA para hacer valer su marca como filósofo). Seguramente, su mordacidad alejó a la gente a la que podía haber iluminado.

Pero también es cierto que el trato por parte de los rivales fue bastante malo. En general, excepto algunas breves reseñas y poco más, sobre todo por parte de Seymour Papert, la comunidad de IA decidió ignorarlo sin llegar a dar respuestas claras contra sus argumentos. Lo demás fueron descalificaciones que, prácticamente, solo argumentaban que Dreyfus no se enteraba de nada o que no era lo suficientemente inteligente para entender los programas que ellos diseñaban.  Allen Newell y Herbert Simon, objetivos primarios de Dreyfus, optaron por una estrategia muy cruel: pensaron que responderle era darle publicidad, por lo que lo mejor era ignorarlo. Y así lo hicieron.

El caso es que Hubert Dreyfus no era ningún charlatán, e independientemente de sus motivaciones, su forma de ser o su conducta, lo importante eran sus ideas y, a día de hoy, junto con Joseph Weizenbaum y John Searle, ha sido el más feroz crítico de la IA que ha existido y sus críticas, siendo intelectualmente honrados, deben ser respondidas adecuadamente y no pueden ser ignoradas sin más.

Vamos a hacer un somero resumen de sus planteamientos. Su crítica pueden dividirse en dos líneas: por un lado están las asunciones o presupuestos que los ingenieros de IA dan como autoevidentes y que, según Dreyfus, son solo hipótesis y, encima, muy discutibles; y por el otro están las cualidades esenciales al ser humano que la IA nunca será capaz de reproducir.

Presupuestos discutibles de la IA:

  1. Asunción biológica: la IA cree que la mente procesa la información en operaciones discretas mediante un equivalente biológico a los switches on-off  de los ordenadores, a saber, las neuronas. Según Dreyfus no hay evidencia científica de ésto y yo, honestamente, he de darle la razón hasta cierto punto. Estoy completamente convencido de que las neuronas realizan funciones mucho más amplias que el mero disparar un potencial de acción por su axón al ser excitadas según un cómputo de pesos sinápticos, siendo dichas funciones fundamentales para generar pensamiento. En general, creo que sabemos extremadamente poco del funcionamiento del sistema nervioso y que los modelos de redes neuronales artificiales son paupérrimos modelos de las auténticas, no solo por su simplicidad sino porque, incluso, creo que no replican adecuadamente su funcionamiento. Las redes neuronales artificiales, dado el estado actual del arte, darán más frutos como herramientas matemáticas para hacer un montón de cosas, que como imitadoras de la mente humana. Sin embargo, y en defensa de la IA, también hay que ser justos: es que por algo había que empezar. En un principio, nuestro modelos serán simples, pero esto no quiere decir que, mientras avance la disciplina, serán más completos y mejores. Dreyfus quizá confunde el estado del arte actual con las posibilidades futuras. Que ahora estemos lejos de conseguir algo no quiere decir que no lo consigamos en el futuro.
  2. Asunción psicológica: la IA cree que la mente es un mecanismo que opera sobre unidades discretas a través de reglas formales (en el fondo estamos hablando de la famosa hipótesis de la mente como sistema universal de símbolos propia de la IA clásica). Dreyfus reformula la famosa paradoja de la mente mecánica: si algo es mente no puede ser mecánico y si es mecánico no puede ser mente.  La mente está, según Dreyfus, muy lejos de ser igual a un ordenador.
  3. Asunción epistemológica: la IA cree que todo conocimiento puede ser formalizado, es decir, que todo lo que es comprensible puede expresarse, sin perder nada, mediante relaciones lógicas. Este es el gran problema que tuvieron los sistemas expertos: ¿cómo formalizar la conducta del experto cuando éste actúa guiado por una corazonada, por su intuición? Y, en el fondo, es un problema filosófico de amplio calado: ¿todo conocimiento es cuantificable o transformable en reglas? ¿Es posible la traducción absoluta de un lenguaje a otro? Dreyfus también recurre a la clásica distinción entre saber qué y saber cómo. El conocimiento de habilidades es, al menos en parte, un saber cómo que no puede ser transcrito a reglas ¿Podríamos aprender a montar en bicicleta, solamente, utilizando un manual de instrucciones?
  4. Asunción ontológica: la IA cree que el mundo es un conjunto de elementos discretos sin más. La IA no es sensible a la ambigüedad o a la continuidad (digamos analógica) que presenta la realidad. Todo lo que ocurre se da en un contexto dado tal que, para entender un objeto, es necesario comprender su situación. Nuestro conocimiento del mundo es, según Dreyfus, holístico.  Era cierto que las máquinas del siglo pasado tenían estos defectos, pero ya no. Por ejemplo, tenemos programas que funcionan con lógica borrosa y que, por tanto, son totalmente sensibles a cualquier tipo de ambigüedad. También, las redes neuronales actuales no tienen problema alguno al respecto e, incluso, hay proyectos de investigación muy interesantes en computación analógica.

Aspectos del ser humano que la IA no puede, ni podrá nunca, simular:

  1. El papel del cuerpo en la unificación y organización de nuestra experiencia de los objetos. Es cierto que la IA, con su tesis de la independencia de substrato, parece despreciar el cuerpo o hardware. Si, como ya decía Hobbes, el pensamiento es cálculo, y la tesis de Church-Turing es cierta (todo lo que puede ser calculable puede calcularlo una máquina de Turing), cualquier sustrato material que reúna las condiciones suficientes para construir con él una máquina universal de Turing, ya puede ser una mente. Como una máquina universal de Turing es algo relativamente sencillo, hay infinitud de sustratos que podrían ser una mente. Estamos diciendo algo tan chocante como que el pequeño procesador que controla tu lavadora, adecuadamente programado, puede hacer exactamente lo mismo que tu mente (aunque, seguramente, en mucho más tiempo). El cuerpo o sustrato en donde se da la mente, prácticamente, parece que no importa cuando, seguramente, sí que tiene mucha importancia (como no se ha cansado de repetir Searle con su chovinismo biológico). No obstante, la propia IA ya ha tenido eso en cuenta y hay muchísimos proyectos de programas que, de diferentes formas, tienen en cuenta su cuerpo. Véase la embodied cognition.
  2. El papel de la situación en la que se ubica el sujeto, a la hora de proporcionarle un horizonte de significado mediante el cual, la conducta puede ser regulada de modo flexible. A ver, para entender bien ésto hay que tener en cuenta la corriente filosófica a la que se adhiere Dreyfus: la fenomenología de Husserl y Heidegger. Para esta corriente, el hombre nace arrojado a la existencia, el individuo se encuentra en el mundo (es un dasein) y tiene que dar sentido a su vida. Esto es muy divertido: ¿cómo puedes hablarles a ingenieros de IA norteamericanos de filosofía alemana (además, de filosofía bastante compleja y oscura de entender) y decirles que sus máquinas no representan eso? Además, Dreyfus está haciendo su critica desde una perspectiva completamente opuesta a la visión materalista-naturalista-mecanicista que cualquier ingeniero que se precie, debe tener. Evidentemente si creemos que la mente no es algo material ni natural ni mecánico… pocas computadoras parecidas a humanos vamos a fabricar. De nuevo, aquí observamos el divorcio entre filosofía analítica y continental.
  3. El papel de los propósitos y las necesidades humanas para organizar la situación, de tal manera que los objetos sean reconocidos como relevantes y accesibles para el sujeto. Una máquina sigue un proceso o algoritmo programado pero, realmente, no está motivado ni desea llegar a su objetivo. En este sentido, se pregunta ¿cómo una máquina diferencia lo relevante de lo accesorio para conseguir su objetivo? Dreyfus ve que un programa solo selecciona como relevante lo que le dice su programación, pero que es incapaz de decidir si algo es relevante por sí mismo. Creo que aquí se equivoca porque hace mucho tiempo ya que tenemos programas capaces de inferir por sí mismos lo relevante para realizar una tarea dada. De nuevo Dreyfus se queda estancado en la IA de su época. No obstante, sí que acierta en subrayar el papel afectivo-consciente a la hora de tomar decisiones. Sabemos muy bien que para decidir algo, las sensaciones, sentimientos y deseos, tienen un papel esencial y, desgraciadamente, a día de hoy esta parte de la IA es la más precaria: nadie sabe cómo hacer consciencia sintética. Sin embargo, ya existen muchos planteamientos al respecto como los de Rosalind Picard o Cynthia Breazeal en lo que se llama computación afectiva, o, en el campo más difícil de intentar crear consciencia artificial tenemos, por ejemplo, a Pentti Haikonen o Igor Aleksander, entre muchísimos otros.

Dreyfus llegó a decir que la IA era un programa de investigación degenerativo y, en cierto sentido, tuvo razón: la IA ha pasado por varios inviernos, por varias épocas en las que no se avanzó prácticamente nada y en las que se perdieron millones de dólares en inversiones (véase el fracaso de la quinta generación de computadores en Japón). No obstante, parece que ahora estamos en un cierto renacimiento con el machine learning y el big data, que ya veremos hasta donde nos llevan aunque parecen bastante prometedores. Dreyfus también criticó que las promesas de la IA nunca se llegaron a cumplir (ni se cumplirán). En esto hemos de darle una buena parte de razón: las promesas de Dartmouth estuvieron lejos de cumplirse y, seguramente, las mismas promesas que hoy nos hacen los líderes del sector, tampoco se cumplirán en los plazos que ellos dan (2045 para la singularidad tecnológica… ni de coña).

Hubert Dreyfus falleció el pasado 22 de abril. Por supuesto, los medios castellanoparlantes no hicieron mención alguna. Descanse en paz.