Hay algo muy siniestro en estas imágenes. Y no es que me quiera poner tecnófobo pero a mí, el hecho de que estas caras no representen a nadie, que sean un retrato hiperrealista de… absolutamente nadie, me da un poco de repelús. El efecto del valle inquietante se me antoja muy fuerte en ellas. Resulta muy difícil hacerle creer a mi cerebro que esas personas no existen, y todo esto me hace plantearme si, en un futuro, nos será cómodo relacionarnos con inteligencias artificiales visualmente indistinguibles de un humano real. No sé, poniéndome muy sci-fi, pienso en estos rostros como los de los nuevos seres que vienen a sustituirnos… ¡Qué miedo!

Bobadas de nerd. Terminaremos por adaptarnos a ellas sin el más mínimo problema, igual que mi hija se ha adaptado muy bien (quizá demasiado) a que el móvil hable o a que seres animados obedezcan a sus dedos en una pantalla táctil. Somos una especie sumamente adaptable a nuevas realidades y relacionarnos con máquinas indistinguibles de humanos no supondrá nada diferente. Al igual que hoy en día no existe demasiado problema en no saber la tendencia sexual de alguien solo con verlo, podría llegar el momento en el que no pase nada por no saber si con quien hablas es una IA o un humano. A lo mejor llegamos a un futuro en el que se estipule el derecho de las IA a no tener que definir su verdadera naturaleza para no ser discriminadas ¿Quién sabe?

Volvamos a la realidad: ¿Cómo las han hecho? Los ingenieros de NVDIA han utilizado las redes generativas adversarias (GAN) de Ian Goodfellow. Tenemos dos redes de-convolucionales (redes convolucionales invertidas), que juegan al ratón y al gato. Una genera rostros y la otra juzga la calidad de éstos, de modo que la primera intenta, a cada iteración, que la segunda no sea capaz de discernir si el rostro es real o no, mientras que la segunda es, a cada iteración, “mejor policía” identificando rostros falsos. Al final de esa competición tenemos rostros sumamente realistas que pasarían, como podemos ver, el Test de Turing de los rostros sin el mayor problema( Aquí nos explican muy bien cómo funcionan).


Somos excepcionalmente buenos reconociendo rostros. Igual que nuestra memoria para recordar los nombres de las personas que acabamos de conocer es muy mala, la de reconocer sus caras es excelente. Así, aunque no sepamos el nombre de alguien sí que solemos decir “su cara me suena”.

Durante mucho tiempo se pensó en la hipótesis de la célula de la abuela (también llamada neurona de Jennifer Aniston tras los estudios de Rodrigo Quiroga), sosteniendo que teníamos una neurona especializada en el reconocimiento de cada rostro que conocíamos. Tendríamos una neurona sólo para reconocer a Justin Bieber a Cristiano Ronaldo, a cada uno de nuestros amigos y, por supuesto, para nuestra abuelita. Pero la solución parecía poco elegante: ¿disponemos de un “almacén” de neuronas “vírgenes” a la espera de cada rostro que, potencialmente, pueda conocer en mi vida? Parece muy poco elegante aunque hay evidencia a favor (véanse los experimentos del equipo de Christof Koch, mentor de Quiroga), pero quizá se pueden ver las cosas de otra forma…

Los biólogos del Caltech Doris Tsao y Steven Le Chang establecieron un espacio de cincuenta dimensiones al que llamaron “espacio facial”. De esas cincuenta, destinaron la mitad a parámetros longitudinales de la cara (distancia entre los ojos, anchura de la nariz, etc.), y la otra a aspectos cualitativos (colores, texturas, etc.). Con ellos se pueden describir potencialmente cualquier nuevo rostro que uno pueda conocer. Por así decirlo, este espacio es una excelente “gramática generativa de rostros”. Para trabajar con un espacio así solo se necesita una red neuronal artificial de poco más de doscientas neuronas (concretamente 205)… y, ¡tachán, tachán! los resultados fueron bastante espectaculares.

Se monitorizó la actividad eléctrica de las áreas faciales de macacos mientras contemplaban imágenes de rostros y a partir de ella y con su “espacio facial”, el equipo de Tsao podía predecir el rostro que veía el mono con una gran precisión; incluso lo podía reconstruir hasta hacerlo indistinguible del original. Así, las neuronas no codificarían cada rostro, ni siquiera un rasgo concreto de cada rostro, sino solo un vector en ese espacio de cincuenta dimensiones. En la imagen vemos la enorme precisión de la predicción. Es, sin duda, un nuevo logro de la IA conexionista y, a nivel más general, de la teoría computacional de la mente. Aunque, poniéndonos en el peor de los casos, estuviésemos ante una caso de infradeterminación de teorías, es decir, que obtenemos los mismos resultados que la realidad utilizando un modelo erróneo, diferente al real, sería muy absurdo pensar que la realidad funciona de un modo radicalmente diferente a nuestro modelo. En el peor de los casos, por ahí deben ir los tiros. A día de hoy, negar que el cerebro procesa información va siendo cada vez más difícil. Nota final: y si generar caras mediante IA parece fascinante, Microsoft ya tiene lista una herramienta que genera imágenes de cualquier tipo a partir de instrucciones de texto:

Anuncios

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

“Si llegas después de las siete estarás llegando tarde”

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

“Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

 

Estimados lectores, en primer lugar disculparme por el tiempo que llevo sin actualizar el blog. Nunca he estado tanto tiempo sin escribir en él pero tengo escusas: el nacimiento (y posterior crianza) de mi segunda criatura y la realización de un máster, muy chulo por cierto, en Ciencias Cognitivas por la Universidad de Málaga. Ambos quehaceres me han quitado el tiempo necesario para escribir aquí lo que debiera. No obstante, no preocuparse porque tengo ya varias entradas por la mitad, que en breve saldrán a la luz.

Y, en segundo lugar, el gran Antonio Orbe me ha invitado a participar en un ciclo de debates del Foro del Futuro Próximo. Hablaremos de ética y Big Data, es decir, de todos la problemas que va a traer (y ya está trayendo) esta nueva y potente tecnología. Yo, os adelanto, hablaré de Cambridge Analytica, del peculiar Christopher Wylie y de cómo  el Big Data puede hacer tambalear los fundamentos de nuestros sistemas democráticos. También me gustaría hablar de qué consecuencias podrían tener las nuevas técnicas de tratamiento de imágenes que el deep learning ha estado pariendo en los últimos meses… ¡dan miedo! ¡Black Mirror está aquí!

Así que os invito a venir. Será el miércoles a las 18:00 horas en el salón de actos de ELZABURU (Calle Miguel Ángel, 21, Madrid). Lo guay de los ciclos de debate que monta Antonio Orbe es que las ponencias son muy cortas (10 minutos) y todo lo demás es debate entre los ponentes y el público, lo que hace que todo sea mucho más dinámico y divertido. Además, los ponentes han sido elegidos para formar un grupo heterogéneo: tenemos a un ingeniero a la última en todo tipo de tecnologías de la información, a un experto en ciberseguridad, a una abogada y a un filósofo… ¿Qué puede salir mal? Desde ópticas tan diferentes, en seguida surgen discusiones apasionadas (y apasionantes). Lo vamos a pasar muy bien.

Os dejo un vídeo muy instructivo como adelanto: ¿Puede Cambridge Analytica ganar elecciones?

Es tan conocidísimo el argumento de Searle conocido como la habitación china (también la caja o la pieza china) que casi no merece la pena soltar el rollo de volverlo a explicar, pero, por si acaso hay algún despistado, lo volveremos hacer. Searle hace una comparación entre un supuesto computador que supera el test de Turing y una curiosa situación: imaginemos a un hombre que se encuentra en una habitación en la que hay una ventana. A través de esa ventana recibe frases escritas en chino. Él no tiene idea de chino, pero dispone de un libro con una serie de instrucciones escritas en inglés (su lengua materna) en las que se indica qué frases hay que decir ante cualquier frase en chino que uno reciba, de tal modo que la persona que se encuentre al otro lado de la ventana no sabría decir si está hablando con una persona que habla chino o no. Lo que Searle pretende argumentar es que el operario de la habitación no comprende chino, solo sabe un tipo de sintaxis, juntar símbolos con otros de una determinada manera y, sin embargo, parece que lo comprende, por lo que el test de Turing no es válido para determinar si un ordenador piensa o no. Para Searle, pensar tiene que ver con comprender, es decir, con conocer una cierta semántica. Las computadoras solo saben de sintaxis, de unir o separar unos símbolos con otros siguiendo unas reglas marcadas, nada más, y eso no es realmente entender nada.

Durante mucho tiempo este argumento me pareció inapelable y lo utilizaba con asiduidad para criticar las pretenciosas afirmaciones de los entusiastas de la Inteligencia Artificial. Sin embargo, hace poco descubrí el error que encierra (y me sorprendí de cómo no lo había descubierto antes. Quizá porque estaba hechizado con la brillante y sencilla prosa de Searle) y también descubrí que, para desgracia de mi descubrimiento, ya se habían escrito toneladas de artículos en esa línea. Y es que el argumento de Searle ya tiene unos cuantos añitos. No obstante, como después explicaré, el error es solo en una de las tesis que Searle deriva del argumento, siendo lo demás correcto, porque sigo pensando que, en términos generales, el argumento de Searle es correcto.

El error está en que no se pueden separar taxativamente sintaxis y semántica, es más, no se pueden separar ni siquiera un milímetro, ya que la una sin la otra no tienen ningún sentido. Supongamos que estamos usando la habitación china y cualquiera de nosotros es su operario. Entonces recibimos este mensaje:

早安

Esto es “Buenos días” en chino tradicional. ¿Qué instrucción pone en nuestro libro que respondamos y por qué? Podría haber muchas respuestas posibles pero una de ellas de puro sentido común sería que devolviéramos el saludo:

早安

¿Por qué devolver el saludo es una buena respuesta que nos llevaría por buen camino para superar el test de Turing? Para devolver el saludo necesitamos una información previa que no puede reducirse a mera sintaxis: necesitamos saber que cuando alguien te saluda es habitual devolver el saludo, es decir, necesitamos comprender el contexto, las circunstancias en donde se da esa frase en chino, y eso es un elemento metalingüístico o metasintáctico que no obedece a una sintaxis determinada.

Por ejemplo, cuando el saludo no se da al principio de la conversación sino al final o en medio, esto suele indicar que la conversación se termina. Quizá nuestro interlocutor se ha sentido ofendido por algo que dijimos y quiere finalizar la conversación de un modo educado pero cortante.  O, quizá, nuestro interlocutor es un desconocido que solo nos quiere saludar por educación pero no quiere comenzar conversación alguna ya que no nos conoce. ¿Cómo saber esto? Sólo comprendiendo el contexto, huelga decir, sabiendo semántica. Entonces, para pasar el test de Turing, necesariamente, tenemos que enseñar semántica a nuestra habitación china. Las reglas que el operador de la habitación maneja deben incorporar semántica para que puedan superar el test de Turing

Para desgracia del argumento de Searle, podríamos enseñar a un computador semántica. No habría ningún problema (a priori) en enseñar a la máquina a saber qué puede significar una proposición dado un contexto dado puesto que podríamos traducir la semántica a sintaxis. Si la semántica puede reducirse a reglas no hay impedimento. En el ejemplo podríamos introducir en el programa las diferentes situaciones en las que puede darse un saludo y establecer nuevas reglas dado el contexto anterior o futuro de la conversación. El problema (ahora sí, a posteriori) es la enorme riqueza de los contextos en donde puede darse una conversación. Llegamos al frame problem, del que pronto hablaremos en otra entrada.

Sin embargo, para lo que el argumento de la habitación china sí que tiene clara validez es en dos sentidos: uno es para hablar de la consciencia o de los qualia. Podríamos tener una máquina que comprendiera muy bien el contexto de las afirmaciones de una conversación y que pudiera pasar el test de Turing, pero eso no indicaría nada sobre su consciencia. La máquina seguiría siendo tan inconsciente de sus acciones como lo es mi tostador sobre el estado de las tostadas. Y en otro acerca de lo que hacen las computadoras actuales con respecto a lo que pasa en mi cerebro cuando pienso: no es lo mismo. Un programa de ajedrez no hace lo mismo que yo cuando decide mover una pieza en el tablero y una calculadora no hace lo mismo que yo cuando realiza una multiplicación. Y con respecto al lenguaje, programas clásicos como la Eliza de Weizenbaum o la Siri de los Iphone no hacen lo mismo que nosotros cuando se comunican con nosotros. Las analogías que puedan encontrarse no son, ni de lejos, suficientes para decir que las máquinas piensan si por pensar nos referimos a cómo lo hacemos los seres humanos.

En palabras de de Jerry Kaplan:

Searle argumenta que, en realidad, éstas deben ser cosas distintas, pero simplemente no entendemos aún lo que está haciendo el cerebro. Es importante entender qué no está diciendo. No está afirmando ninguna propiedad mágica de la mente humana que transcienda el ámbito de la ciencia: sus pies están firmemente plantados en el suelo, con un creencia en el mundo físico como (en su mayor parte) determinista, sujeto a medición y a explicación racional. Sólo está diciendo que en nuestros cerebros ocurre algo que aún no entendemos y que, cuando lo consigamos (lo cual acepta como probable), se aclarará el camino para una explicación satisfactoria de lo que él cree que son fenómenos exclusivamente humanos; no sólo “pensar”, sino también la consciencia, la sensación de experimentar cosas (lo que los filósofos llaman “qualia”), la percepción, etc. Tampoco está afirmando que un programa informático nunca pueda realizar ninguna tarea concreta; ya sea pintar bellos cuadros, descubrir leyes de la naturaleza o consolarnos por la muerte de un ser querido. Pero él cree que el programa está simulando el pensamiento, no duplicando el proceso que tiene lugar en las mentes humanas cuando se implican en estas actividades. Para Searle, un piano informático no está haciendo lo mismo que un maestro de la música, cuando ejecutan un concierto de Rachmaninoff, aunque suene igual. Resumiendo, Searle dice que, en lo relativo a los ordenadores, al menos tal como existen en la actualidad, nadie tiene toda la razón.

Y es que, ya lo he dicho cientos de veces, el problema de la Inteligencia Artificial no es fabricar agentes inteligentes (lo cual ya lo hace con mucho éxito en algunos casos), sino agentes conscientes o sintientes. La AI ya ha fabricado inteligencia, lo que hace falta es que fabrique mentes.

P. D. : Por si aún no lo habéis leído, hace poco me han publicado un artículo mucho más extenso sobre estos temas en Xataka.

En 2015, la psicóloga cognitiva Roberta Sellaro y su equipo de la Universidad de Leyden, sometieron a una serie de sesenta estudiantes a estimulación craneal de corriente directa (tDCS). Concretamente les estimularon sus cortezas prefrontales mediales, una zona del cerebro relacionada con la capacidad para contrarrestar sesgos xenófobos. Cuando está muy activa, el individuo no se deja llevar tan fácilmente por estereotipos o prejuicios hacia personas que no pertenecen a su propio grupo. Y, efectivamente, el experimento demostró que los individuos a los que se les estimulaba demostraban conductas menos racistas que el grupo de control a la hora de relacionar nombres con características positivas o negativas (Aquí el paper. Fuente: el muy recomendable libro Transhumanismo de Antonio Diéguez Lucena).

Conclusiones:

  1. Que nadie tenga ya en la cabeza la idea de que nuestra capacidad de elección moral es una cualidad espiritual, un don divino, independiente de la ruin y despreciable materia. La elección moral es tan abordable científicamente como la digestión o la elasticidad de los metales.
  2. La noción de libertad o libre albedrío es un residuo mítico, mera forma de hablar que no refieren a nada real. Hay que tener clara la idea de que no existe en nosotros ninguna estancia x que elige una opción sin ningún tipo de causa que le obligue necesariamente a ello. Suponerla sería aceptar la existencia de algo así como un “yo metafísico” que se salta a la torera las leyes de la física (y de la lógica, siendo un claro error categorial).
  3. Elementos como la temperatura, el ritmo circadiano, alimentación, deporte, etc. interfieren en la concentración química de neurotransmisores en nuestro cerebro y, en consecuencia, influirán determinantemente en nuestra toma de decisiones. Todos sabemos cómo cambia nuestra conducta cuando estamos enfadados, borrachos o sin dormir lo suficiente. Sería entonces, bastante interesante tener un buen control del momento y el contexto en el que decidimos, saber “automanipularnos” para tomar las mejores decisiones posibles.
  4. Supongamos que descubren un medicamento que produce una mayor activación de la corteza prefrontal medial y que, por tanto, nos vuelve menos xenófobos. Y supongamos también que pudiésemos, por ejemplo, introducir este medicamento en la composición de la Coca-cola, sin que nadie que la ingiriese notase nada extraño. Millones de personas se volverían menos xenófobas sin darse cuenta y, seguramente, habríamos conseguido un mundo mucho mejor ¿Sería ético hacer algo así?
  5. O pensemos en un criminal, un famoso líder del Ku Klux Klan quien, a pesar de ser encarcelado, no se arrepiente de sus crímenes ni renuncia a sus creencias ¿Sería ético administrarle tal medicamento? Estamos ante la siguiente dicotomía: ¿un mundo mejor rescindiendo “libre albedrío” o un mundo peor a base de respetar un concepto mítico?

He aquí lo que han desarrollado el biólogo Detlev Arendt y sus colegas. Tal como ellos lo ven, el sistema nervioso se originó dos veces; pero no quieren decir que se desarrolló por evolución en dos tipos de animales; en lugar de ello, se originó dos veces en los mismos animales, en lugares diferentes del cuerpo del animal. Imagine el lector un animal parecido a una medusa, con forma de cúpula, con una boca debajo. Un sistema nervioso evoluciona en la parte superior y capta la luz, pero no es un guía para la acción. En cambio, utiliza la luz para controlar ritmos corporales y para regular hormonas. Otro sistema nervioso surge por evolución para controlar el movimiento, inicialmente solo de la boca. Y, en algún estadio, los dos sistemas empiezan a moverse dentro del cuerpo y llegan a establecer nuevas relaciones mutuas. Arendt considera que éste es uno de los acontecimientos cruciales que hizo que los bilaterales avanzaran en el Cámbrico. Una parte del sistema de control del cuerpo se desplazó hacia la parte superior del animal, donde residía el sistema sensible a la luz. De nuevo, este sistema sensible a la luz solo guiaba cambios químicos y ciclos, no el comportamiento. Aun así, la unión de los dos sistemas nerviosos les confirió un nuevo papel.

¡Qué imagen más asombrosa!: en un largo proceso evolutivo, un cerebro que controla el movimiento se desplaza hacia la parte superior de la cabeza para encontrarse allí con algunos órganos sensibles a la luz, que se convierten en ojos.

Peter Godfrey-Smith, Otras mentes

Mi impresión es que un suceso así no ocurrió solamente dos veces, sino muchas más. Si nuestro cerebro es como una especie de caja de herramientas con múltiples y variados módulos funcionales, seguramente que muchos de ellos funcionaron con cierta independencia hasta que se encontraron con los demás y hasta que se se fueron coordinando, cada vez mejor, entre ellos mediante módulos de control superiores. El aumento de la complejidad entre la comunicación celular produciría un aumento de las formas de cooperación modulares. Pensemos que las células, sin ningún tipo de sistema nervioso, son muy capaces de comunicarse entre sí, y de trabajar en equipo, de formas bastante intrincadas. La aparición del sistemas nerviosos solo posibilitó la comunicación a larga distancia (y a una mayor velocidad). El progresivo aumento del tejido nervioso, el aumento del “cableado”, tuvo que interconectar un montón de funciones, en principio, independientes.

Más adelante, en el libro de Godfrey-Smith, se nos cuenta cómo entre los tentáculos de los pulpos y su cabeza existe muy poca conexión nerviosa, de modo que durante mucho tiempo se pensó que los tentáculos, prácticamente, operaban con total independencia de cualquier “control central”. Experimentos posteriores mostraron que no, que el pulpo puede coordinar perfectamente su vista con los movimientos tentaculares a la vez, no obstante, que éstos muestran cierta independencia, ciertos “automatismos” propios. Esto nos muestra el equilibrio central-local que se da en la mente de los octópodos y que, seguramente, se dio a lo largo de la evolución de todos los sistemas nerviosos hasta llegar al nuestro.

Otro tema, tal y como lo plantea Arendt, es más complicado: si ambos lados del animal tienen una mente propia en el sentido de poseer una consciencia fenoménica, aquí tendríamos un problema: ¿qué ocurre cuando dos consciencias se encuentran en un único organismo? Si el organismo sigue manteniendo dos consciencias que, aunque se relacionen (pensemos que podrían compartir ciertas sensaciones)  son diferentes, no parece existir problemas: dos individuos en un organismo. Sin embargo, si planteamos que ambas consciencias se fusionan en una, nos encontramos con una contradicción porque, precisamente, la consciencia se define por ser sentida por un único sujeto, siendo imposible el hecho de que dos consciencias se conviertan en una, puesto que una de las dos debería, necesariamente, desaparecer. De nuevo el hard problem.

Parménides empieza su poema siendo raptado por unas doncellas hijas del sol, que lo llevan ante la presencia de una diosa. Ésta le va a transmitir un mensaje, nada más y nada menos, que la verdad sobre el ser. En los albores de la filosofía, cuando mito y logos son todavía inseparables, el acceso a la verdad es una concesión de los dioses. Un hombre por sí solo jamás podría semejante hazaña. La verdad, la aletheia, estaba siempre oculta y para sacarla de su escondrijo era necesaria cierta iluminación divina (como bien prosiguió Agustín de Hipona en el cristianismo).

Y si llegar al conocimiento verdadero era una cuestión divina, no menos va a serlo la creación de narraciones. Los rapsodas griegos siempre pedían ayuda a las musas antes de empezar a cantar. Hesiodo dedica todo el comienzo de la Teogonía a homenajear y pedir ayuda a las musas heliconíadas y olímipicas, y  Homero empieza así la Iliada y la Odisea, pidiendo a las propias musas que canten la historia, como si fueran ellas, y no él, las auténticas autoras del relato.

La creatividad era una cualidad sobrenatural y caprichosa (nadie más caprichoso que un dios griego), que no funcionaba cuando uno quería. De aquí la simpática frase atribuida a Picasso: “Cuando la inspiración me encuentre, que me pille trabajando” ¿Y a quién suele encontrar la inspiración? No a cualquiera, solo a los artistas y a los genios (otra figura mítica que hay que bajar de su trono), solo a unas personas muy concretas capaces de contactar con los dioses. El resto de los mortales estaríamos condenados a la vida monótona y repetitiva de los mediocres.

Curiosamente, a partir del romanticismo, la creatividad se contrapuso a la racionalidad. En la reacción decimonónica contra la Ilustración, se crítico (en parte con razón) los excesos de creer que solo con la razón, solo con la lógica pura, podríamos conseguirlo todo. Los ilustrados habían olvidado una parte esencial del ser humano: las emociones. Y aquí hunde sus raíces el enfrentamiento entre ciencias y letras. El romanticismo puso por encima del científico al artista y la creatividad, cualidad más esencial del primero, se prohibió al segundo. Los de ciencias son similares a las máquinas, están dotados de una fría y precisa lógica matemática, pero carecen de emociones, carecen de creatividad (extrañamente, la creatividad se concibe como más cercana a lo afectivo que a lo racional ¿Por qué?), las musas rara vez les otorgan sus bendiciones.

Es por eso que cuando se critica lo que la IA no puede hacer, se apela muchas veces a la creatividad. Si la IA es pura racionalidad, ¿cómo va a ser creativa? Muchas veces se repite que las máquinas no pueden innovar porque solo pueden hacer para lo que han sido programadas (Es la famosa objeción de Ada Lovelace, bien respondida por Turing a mitad del siglo pasado). Entonces, la capacidad de crear se propone como uno de los grandes reductos del hombre ante la constante amenaza de ser sustituido por un computador.

Sin embargo, nada más lejos de la realidad: la creatividad no es algo mágico ni sobrenatural, es una cualidad de un organismo biológico y, por lo tanto, tan abordable científicamente como cualquier otra. Vamos a intentarlo.

Creatividad suele significar en su forma más trivial, sencillamente, sorpresa para el observador. La ocurrencia de algo inesperado, de una conducta que se sale de lo normal, se convierte automáticamente en un acto creativo.  En este sentido más burdo, creatividad significa incapacidad para predecir la conducta del otro. Si ese suceso que se sale de lo normal, hubiera sido enteramente previsto por el observador, no le parecería novedoso y, por lo tanto, no lo caracterizaría como creativo. Además, la creatividad sería aquí relativa a la capacidad de predicción o a los conocimientos del observador, no una cualidad objetiva de lo observado. Por ejemplo, si yo conozco muy poco a una persona y, de repente, la contemplo haciendo algo que se sale mucho de lo normal, podría interpretar que esa persona es creativa. Sin embargo, para otro que conociera mucho a esa misma persona, ese acto, supuestamente rupturista, podría ser algo, incluso, aburrido, ya que podría haberlo observado en muchas ocasiones anteriores en ese sujeto. Denominaremos a esta idea de creatividad creatividad subjetiva.

Con total certeza, las máquinas poseen este tipo de creatividad. Una sencilla calculadora que realiza una operación matemática lo suficientemente compleja para no ser evidente para un observador, ya sería creativa. Por ejemplo, para el común de los mortales la operación 5.789.345 multiplicado por 453, no es evidente y se necesita un rato, con lápiz y papel, para calcularla. Una calculadora la resuelve en fracciones de segundo, por lo que al mostrar el resultado al, aritméticamente torpe, operador humano, le resultará necesariamente sorprendente al ser incapaz de predecirlo a esa velocidad. Las máquinas son subjetivamente creativas.

Pero vayamos a una idea de creatividad más potente. Definámosla de forma más objetiva: la creatividad es la capacidad de crear algo genuinamente nuevo, no solo nuevo para el observador, sino nuevo para cualquier observador posible. Entonces los problemas filosóficos se disparan: ¿existe, realmente, la novedad? Si partimos de una visión determinista, de un cosmos gobernado por estrictas leyes físicas que concatenan causalmente todos los sucesos, la novedad es imposible. Aceptarla implicaría una ruptura con ese orden y sería algo así como la irrupción de algo sobrenatural que no muchos estarían dispuestos a aceptar. Para eludir este problema vamos a restringir novedoso como la generación de algo que antes no estaba (no que no pudiera predecirse que estuviera dado el determinismo universal). Es decir, algo nuevo no tiene por qué ser sorprendente, solo nuevo ¿Son las máquinas capaces de crear algo genuinamente nuevo?

La científica cognitiva británica Margaret Boden nos expone tres formas de creatividad:

  1. Creatividad combinatoria: elementos conocidos se combinan creando combinaciones novedosas (Si lo pensamos, quizá esta es la única forma posible de creatividad y podemos reducir las otras dos a ésta). Por ejemplo, la idea de pegaso es una novedosa forma de combinar las ideas de caballo y de alas. La creatividad combinatoria es trivial para cualquier programa informático desde hace muchos años. Yo mismo, jugando a programar en Java, hice un sencillo programa que generaba poemas, sencillamente, partiendo de una pequeña base de datos de palabras organizadas según criterios sintácticos (Ej.: sustantivos femeninos en singular) que se agrupaban en frases previamente estructuradas según un motor aleatorio. El resultado era sorprendentemente bueno y mi estúpido programa pasaría, sin demasiados problemas, un test de Turing poético. Problema: los resultados de la creatividad combinatoria han de ser evaluados para juzgar si son valiosos. Pensemos en el clásico ejemplo de un mono pulsando aleatoriamente las teclas de una máquina de escribir durante un tiempo infinito. Al final, conseguiría escribir el Quijote, pero haría falta alguien que evaluara todos los resultados y que identificara al Quijote como resultado valioso. El mono, por sí solo, no sabe evaluar sus resultados, igual que mi programa poeta no sabía si su poema era bueno o no. Es el problema de la relevancia del que ahora hablaremos más.
  2. Creatividad exploratoria: consiste en explorar un determinado modelo, incluso llevándolo al máximo forzando sus límites. Por ejemplo, dentro de un determinado estilo pictórico o literario, se exploran todas sus posibilidades, llegando a bordear sus fronteras. La novedad se reconocerá como una evolución del propio modelo de partida.  La creatividad exploratoria y la combinatoria son, a menudo lo mismo, pues podría entenderse que la exploratoria se agotará al probar todas las combinaciones posibles de unos elementos dados. Igualmente, la creatividad exploratoria ha sido replicada computacionalmente a un nivel, además, sobrehumano. Tenemos programas que hacen música al estilo de Chopin, Vivaldi o de Bach de forma que nadie sabría determinar si son o no obras de los autores originales (véase el programa Emmy de David Cope). También es muy interesante el proyecto Next Rembrandt  en el que se utilizó aprendizaje profundo para pintar un nuevo cuadro absolutamente indistinguible de un original (incluso emularon las pinceladas mediante impresión 3D) ¿Algún humano en la sala sabría hacer algo así?

3. Creatividad transformacional: consiste en dar el siguiente paso de la exploratoria: no solo llegar a la frontera del modelo sino traspasarla. Se trata de romper alguna de las normas propias del canon del modelo explorado (negándola, sustituyéndola, complementándola, añadiéndole otra nueva…), creando así un modelo nuevo. Por ejemplo, las vanguardias artísticas de principios del siglo XX se basaron en gran parte, de romper con cualquier normatividad del estilo clásico, creando así todos los -ismos que se desarrollaron durante el resto del siglo ¿Es la IA capaz de esta creatividad? En principio sí. Tenemos algoritmos genéticos que se modifican a sí mismos y, en base a esa modificación, pueden romper fácilmente con cualquier protocolo de actuación inicial. Al inicio y al final de esta entrada tenemos imágenes de diseños de columnas hechos mediante la arquitectura computacional de Michael Hansmeyer ¿Constituyen un nuevo estilo arquitectónico? El problema, de nuevo, está en el reconocimiento como valioso de ese nuevo resultado ¿Cómo puede saber la computadora si lo que ha creado es un verdadero nuevo estilo o es mero ruido? Otra vez nos encontramos con la relevancia.

¿Y qué es el problema de la relevancia? Es una variante del controvertido y largamente debatido frame problem (problema del marco). Por definirlo de alguna manera (muchos han dicho que el problema es, prácticamente, indefinible), diremos que viene a decir que las máquinas son especialmente torpes para identificar los elementos relevantes para solucionar un determinado problema (en breve escribiré una entrada específicamente de ello). Llevamos décadas discutiendo sobre el tema sin llegar a ninguna solución satisfactoria.

Pero podríamos abordar la cuestión desde otra perspectiva eludiendo el grueso del problema: no hace falta que solucionemos el problema del marco en su totalidad, sino solo para este problema en concreto ¡Acotemos el marco! En nuestras sociedades debe de existir algún tipo de mecanismo o procedimiento que se utilice para determinar si una novedad representa el nacimiento de un valioso nuevo estilo o si tan solo es mal arte. Basándonos en ello, podríamos construir un segundo programa que evaluara la calidad artística de las creaciones de un primero ¿Existe tal procedimiento? ¿Quién decide si algo es arte o no? ¡Ufff! Ahora nos metemos en un problema más complicado si cabe, porque tampoco existe acuerdo entre los expertos acerca de qué es y qué no es arte. Dicho de otro modo, en el estado actual del arte contemporáneo, ¡los propios humanos no han resuelto el problema de la relevancia para sí mismos!

Observemos la fuente de Duchamp, la mierda de artista de Piero Manzoni o el cuadrado negro sobre fondo blanco de Kazimir Malevich… Hoy en día se exhiben en museos y son consideradas obras de arte de pleno derecho… ¿Qué criterio se utilizó para determinar que obras así son arte y otras no?

Lo que sí podemos decir es que a nivel técnico, un computador puede hacer todo lo que un artista humano puede. No creo que exista técnica pictórica (o de cualquier tipo de arte) que no pueda ser copiada (y expandida fruto de la creatividad exploratoria) por las computadoras. Al igual que con el nuevo Rembrandt, pueden generar cualquier obra indistinguible de la original de cualquier artista existente. Por ejemplo, para un experto en arquitectura es muy difícil definir el estilo arquitectónico de las casas de la pradera de Frank Lloyd Wrigth. Sin embargo, un generador computacional emuló la “gramática creativa” de Lloyd Wrigth, diseñando una indefinida cantidad de nuevas casas que recreaban perfectamente su estilo (Koning y Eizenberg, 1981). Una versión más moderna es ArchiDNA.

Y lo que no podemos decir es lo de siempre: a pesar de que los resultados sean impresionantes, a las máquinas creativas les pasa lo mismo que a las máquinas que juegan al ajedrez o al Go:  su funcionamiento no se parece en nada al humano. Las máquinas no crean como nosotros porque la mente humana todavía es un misterio en muchísimas de sus facetas, y todavía carecemos de modelos cognitivos suficientemente potentes como para comprenderlas con claridad. Esto no quiere decir, desde luego, que en el proceso creativo existan elementos sobrenaturales o que exista algo en nuestra mente que se escapará para siempre a la ciencia. Sencillamente, el cerebro humano es, que sepamos, el objeto más complejo del universo conocido y con los nuevos, y prometedores, avances en neurociencias, y en ciencias cognitivas en general, solo hemos tocado su superficie. Queda todavía mucho para comprender el surgir de una simple emoción, cuánto más para explicar un complejo proceso de creación artístico en el que intervienen gran cantidad de procesos cognitivos, afectivos, biográficos, etc.

 

La Robolución y el fin del mundo

Publicado: 26 noviembre 2017 en Economía, Tecnología

 


A partir del minuto 56 del vídeo comienza la mesa redonda sobre empleo y robotización (si bien las otras mesas también son muy interesantes para comprender bien qué nos deparará el futuro próximo).

Las alertas saltaron con el famoso informe de Oxford (Frey y Osborne, 2013) en el que se barajaban unas cifras escalofriantes: el 47% de los puestos de trabajo en EEUU, susceptibles a ser automatizados en las próximas décadas. Una robotización tan rápida llevaría a unos porcentajes de paro estructural insostenibles para cualquier país desarrollado. El CEO de la think tank REX, Jerry  Michalsky llegó a decir que “la automatización es Voldemort”, y el profesor de Harvard Justin Reich hablaba, sin ambages, del hundimiento de la clase media.

Además, constantemente nos llegan noticias en esta línea: Elon Musk pretende que sus fábricas de Tesla sean algo semejante a alien battleships, es decir, escenarios en los que solo hay máquinas sin ningún humano a la vista; ADIDAS está poniendo en marcha su SpeedFactory en Ansbach (en Alemania, ya no en China. Pensemos que con las máquinas la ventaja competitiva de explotar a los trabajadores se pierde) en la que se pretende que solo trabajen 136 personas; o Foxconn (la gigante subcontrata taiwanesa que fabrica los iphone) quiere automatizar todos sus procesos productivos, habiendo anunciado la sustitución de 60.000 empleados humanos por foxbots en una de sus inmensas factorías en China. La clásica figura del operario de cadena de montaje está en inminente peligro de extinción, estando ya el proceso de mecanización total del sector industrial en fase avanzada.

Pero el problema no está ya solo en que los robots van a terminar con los trabajos de las tres d (dull , dirty y dangerous) sino con muchos otros, a priori, menos mecanizables. No solo transporte, construcción o industria, sino logística, contabilidad, administración… La empresa japonesa Fukoku Mutual Life Insurance sustituyó a 34 de sus adminsitrativos por un sistema informático basado en el IBM’s Watson Explorer con la intención de subir la productividad en un 30%, amortizando su inversión de 1,7 millones de dólares en dos años… ¡Ningún trabajo parece estar completamente a salvo!

¿Estamos ante una época de colapso económico, de caos e inestabilidad irrefrenables?

  1. Creo que los plazos de los que se hablan son exagerados. Si uno analiza el estado del arte de la robótica, de la IA y, en general, de la automatización, comprueba que no hay razones tan sólidas que justifiquen la desaparición de tantos puestos de trabajo en tan poco tiempo. Hay que tener en cuenta que que algo funcione muy bien en un laboratorio del MIT no implica, para nada, que vaya a terminar por ser una tecnología de uso común en nuestra vida cotidiana. El proceso de implementación de una tecnología, a pesar de ser rapidísimo en comparación con otras épocas, todavía lleva mucho tiempo. Solo una pequeñísima parte de lo que se sueña en Silicon Valley es lo que llega a nuestros trabajos y hogares y, en general, los expertos como, por ejemplo, el ingeniero de IA del MIT David Clark, sostienen que la automatización no será tan autónoma en las próximas décadas.
  2. Otros estudios posteriores han manejado cifras mucho más conservadoras que las del de Oxford. Por ejemplo, el realizado por el National Bureau of Economic Research (Acemoglu y Rastrepo, 2017), a pesar de manejar datos todavía muy preocupantes (que por cada robot introducido se pierden entre 3 y 5,6 trabajos), da unas previsiones económicas menos drásticas. Otros, como el hecho por el McKinsley Global Institute, hablan de que solo un 5% de los empleos actuales son enteramente automatizables.
  3. Incluso hay visiones muy optimistas. Otro estudio más, esta vez hecho por el Pew Research Institute, nos mostraba que las opiniones entre los expertos están muy divididas. De entre 1.896 investigadores en este campo, un 48% mantiene una perspectiva catastrofista, mientras que el restante 52% la tiene optimista. Un argumento que se repite es que en épocas de alta rentabilidad (Accenture dice que la IA podría duplicar las tasas de crecimiento económico anuales de los países desarrollados para el 2035, con aumentos de la productividad de hasta el 40%), el empleo no suele ni destruirse ni parar de crecer. Desde finales del siglo XIX, la productividad ha crecido de entre 15 a 20 veces por hora trabajada, a la vez que el volumen de empleo ha crecido de entre un 30 a un 50% en economías avanzadas. Parece que, desde una perspectiva histórica a largo plazo, el aumento de productividad provocado por la automatización no ha dado como resultado la pérdida de empleo, sino todo lo contrario. Desde perspectivas liberales, suele utilizarse la expresión “destrucción creativa” para referirse al ciclo continuo de eliminación de puestos de trabajo obsoletos que se sustituyen por nuevos, entendiéndose este proceso como algo enteramente deseable. Las sociedades en las que no quedan obsoletos puestos de trabajo son sociedades económicamente estancadas, por lo que cualquier política proteccionista con algún gremio específico no es, para nada, aceptable. En este sentido, que el avance de la tecnología destruya empleo es una excelente noticia.
  4. Sin embargo, otros economistas hacen hincapié en que está visión es demasiado simple y no tiene en cuenta un factor fundamental: la reducción de la jornada laboral que ha acompañado históricamente a este aumento de la productividad (a lo largo del siglo XX las salvajes jornadas laborales del diecinueve se han reducido aproximadamente a la mitad). Si la automatización no es acompaña de la reducción de jornada, dicen ellos, sí que se destruye empleo ¿Vamos a trabajar menos horas en los próximos años? Desde luego, sería una gran noticia. Marta G. Aller me recordó en la charla que algo así ya había ocurrido en la historia con las sociedades esclavistas. Es cierto, la diferencia estriba en que antes solo una pequeña élite de amos podía vivir sin trabajar mientras que ahora estamos hablado de toda la clase media. En cualquier caso (y salvando la enorme distancia histórica), el ejemplo de sociedades como la Atenas de Pericles, sirve como argumento a favor de que vivir sin trabajar no tiene por qué llevarnos a un mundo de holgazanes y maleantes, sino todo lo contrario: las obras de Sófocles, Platón, Fidias, Mirón, Policleto, Heródoto, etc. quizá no hubieran sido posibles si sus autores hubieran tenido que trabajar para ganarse la vida ¡Una de las épocas culturalmente más gloriosas de la historia de la humanidad fruto de vivir sin trabajar!
  5. Si aceptamos una visión más bien conservadora de la automatización del trabajo, parece que sí nos acercamos a un momento de aceleración de la destrucción de empleo que no va a poder ser reciclado al mismo ritmo. Se aproxima una época de desajuste que llevará a una subida del paro muy peligrosa. Las medidas que se barajan son varias y antiguas (vienen ya desde Keynes): la ya mencionada reducción de jornada laboral (que el propio Keynes preveía de 15 horas semanales en el 2050), que los robots paguen impuestos, que el Estado sea un “empleador de última instancia” para evitar parados de larga duración, la famosa y controvertida renta básica universal (si bien puede hablarse en términos no maximales de ayudas a las rentas mínimas o de diversas formas de ayuda al desempleo), o reformas en el sistema educativo para fomentar las habilidades menos automatizables. El influyente Andrew Ng subraya la necesidad de un nuevo New Deal, destacando la medida de subvencionar en forma de nueva formación a los desplazados por la tecnología.
  6. Y a largo plazo, aunque es muy difícil aventurarse a pronosticar nada, si la automatización del trabajo prosigue tal y como auguran algunos de los acérrimos defensores del avance de la robótica y la IA, la destrucción masiva de empleo será una realidad absolutamente inasumible por cualquier “destrucción creativa”. En la mesa redonda, argumenté que los nuevos empleos que surgen de las revoluciones digitales no podrían hacer frente a esto. De modo un tanto socarrón, dije que “youtubers hay cuatro”, a lo que Rallo me respondió que podrían existir más youtubers debido a que, al aumentar el poder adquisitivo de los espectadores debido al aumento de productividad, un youtuber podrá ganarse la vida con menos público ya que éste se podrá permitir pagar más. Problema: los youtubers también podrán ser robots. De hecho, en Japón ya existen hasta youtubers virtuales o cantantes de música pop holográficos con bastante éxito. En otras revoluciones industriales, siempre nos quedaba el trabajo intelectual. El quid de la cuestión es que en ésta ya no tendremos qué hacer que las máquinas no puedan hacerlo mucho mejor que nosotros. En este escenario (insisto en que todavía muy hipotético), la renta básica universal no parece ser una opción más o menos opinable en función del espectro ideológico en el que uno se mueva, sino que será completamente necesaria.

Block y su argumento Blockhead

Publicado: 13 noviembre 2017 en Sin categoría
Etiquetas:, , ,

En su artículo “Psychologism and behaviourism” (1981), el filósofo norteamericano Ned Block, nos ofrece una versión, a mi juicio más precisa, del celebérrimo argumento de la Caja China de Searle: y que se ha denominado comúnmente como argumento Blockhead. Vamos a verlo:

El número de oraciones sintáctica y gramaticalmente correctas con las que puede comenzarse una conversación es un número finito (que ese número sea muy alto no nos importa). Entonces cabría construir un computador que tuviera dichas oraciones en su memoria. De la misma forma, el número de oraciones correctas con las que puede responderse al comienzo es igualmente finito, por lo que también podríamos almacenarlas en un computador. Y el número de respuestas posibles a estas respuestas es, de exactamente la misma forma, finito, por lo que, de nuevo, podríamos almacenarlas en el mismo computador. Repitiendo una y otra vez el proceso, podríamos almacenar toda respuesta posible a toda conversación posible.

De modo similar a como los ordenadores modernos agotaron juegos como las damas, sencillamente, a base de fuerza bruta (creando enormes árboles de decisión en el que se contenían todas las jugadas posibles), podríamos crear un computador que pudiera agotar todo acto comunicativo verbal posible. Entonces, necesariamente, este programa pasaría el Test de Turing sin el más mínimo problema (y engañaría a todos los interlocutores, y no solo al 30% previsto por el propio Turing). La máquina que nos propone Block sería Turing-perfecta en el sentido que no cabría imaginar una máquina mejor para superar el test (realmente podrían diseñarse máquinas más eficientes que hicieran lo mismo sin recurrir a la pura fuerza bruta computacional, pero para el caso lo que nos interesa es solo el resultado: la máquina cumple su propósito a la perfección).

La cuestión es: ¿Esa máquina piensa? Evidentemente no o, como mínimo, no mucho (por eso la han llamado blockhead). El programa no entiende ni una palabra de lo que dice, no tiene semántica de ningún tipo. Solo es un gigantesco árbol de decisión que conecta unas cadenas de símbolos con otras sin saber lo que significan. Ni siquiera sabe de gramática ni sintaxis, solo sabe de conectar unos símbolos con otros que ya tiene almacenados en su enorme memoria. Podríamos, por el contrario, tener obra máquina que dispusiera de gramática, semántica, sintaxis, etc. muchísimo más sofisticada y, por tanto, mucho más inteligente, que, sin embargo, no fuera capaz de pasar el Test de Turing o, al menos, no con la misma competencia.

Conclusión: el test de Turing no es un buen método para saber si una máquina piensa. Se puede exhibir una conducta muy inteligente sin un pensamiento inteligente detrás y, por el contrario, se puede mostrar conducta menos inteligente con un pensamiento mucho más inteligente detrás.

Nota: de estas cosas hablaremos este jueves a las 18:00 h. en la Escuela Técnica Superior de Ingenieros Industriales de Madrid. Contaremos con figuras de la talla de Julio Cesar Armero, Jesús Vega Encabo o Ricardo Sanz. Habrá una fase de preguntas muy amplia, por lo que podréis preguntar y comentar cualquier cosa que os plazca ¡Animaos!

Ilustración de Mattias Adolfsson.

Desde el Foro de Futuro Próximo hemos planteado una serie de debates acerca de un tema tan apasionante en estos momentos como es la IA. En nuestra primera mesa, mañana a las 18:00 horas en las Escuela Técnica Superior de Ingenieros Industriales, contamos como contertulios a figuras tan interesantes como Juan Andrés Avilés, Pablo Gervás, José Manual García y Álvaro José García Tejedor, primeras espadas en el campo de la IA nacional. Y como no podía ser de otra manera, el moderador será vuestro maquinista preferido, un servidor.

La asistencia es gratuita (podéis registraros en la página por razones de control, pero no es necesario), así que no podéis faltar. Os garantizo un debate de calidad que, con total seguridad, os dará una visión más rica y profunda del fenómeno tecnológico de moda (tened en cuenta que lo modera un filósofo, con su peculiar toque, muy distinto a la habitual visión ingenieril). Después de la mesa redonda habrá una fase de preguntas en las que podréis participar, y discutir y debatir lo que os plazca, con toda la maldad e irreverencia que os de la gana (Incluso después podréis hablar con nosotros y conocernos en persona, hasta tocarnos para comprobar que somos organismos biológicos y no androides… o eso creo).

Os espero. Doy mi palabra de que merecerá la pena venir.

Addendum del 4-11-2017:

 

 

Añado el vídeo de la primera sesión. El montaje es genial (doy las gracias a Alianza Futurista por ese excelente trabajo). Ponentes de altísimo nivel (de verdad), dando opiniones formadas en un debate fluido (creo que no se hizo demasiado aburrido) sobre nuestro tema. No sé los demás, pero yo me lo pasé bastante bien.