Archivos de la categoría ‘Ciencias de la computación’

Estoy con la versión inglesa de Real Humans y no estoy viendo nada que no haya visto antes y mucho mejor. Y que los synths (robots humanoides) parezcan maniquíes con movimientos acartonados… ¡Uffff! Bueno, le daremos unos dos, a lo sumo tres, capítulos más de oportunidad a ver si aparece algo decente.

El caso es que en Humans, y en prácticamente todas las series o películas que han tratado el tema de la IA futura repiten un tópico que es completamente falso. En todas se nos describe un mundo en el que las máquinas se han incorporado con suma normalidad a nuestra vida cotidiana. Y, en todas, se destaca el hecho de que son nuestros sirvientes y esclavos, y siempre se nos ofrece la clásica escena de un humano siendo cruel con un indefenso y sumiso robot.  Se busca que el espectador empatice con las máquinas y que, cuando éstas se rebelen, se vea bien que hay una causa justificada y que no está claro cuál es el bando de los buenos y cuál de los malos. No obstante, para no confundir a un espectador ávido de seguridades narrativas, aparte de situar con claridad meridiana a un villano evidente (los dueños de gigantescas multinacionales suelen hacer muy bien este papel), también entran en escena humanos buenos que son capaces de comprender el sufrimiento de los oprimidos electrónicos. El caso es que llega un momento en el que aparece una máquina diferente, una máquina que es capaz de sentir, de tener consciencia, de ser creativa o, vete a saber tú que indefinido factor x que adquiere, que lo hace despertar de su letargo maquinal.

Entonces, vemos variadas escenas que anuncian ese despertar. Por ejemplo, en Humans aparecen un montón de androides colocados en filas regulares (para crear la sensación de mercancía almacenada) y, aparentemente, todos ellos están apagados o desconectados. De repente, uno abre los ojos y mira la luna por una rendija abierta del techo. Ya está, está despertando, mira la luna como preguntándose por el misterio de su existencia. Ya no es una máquina, ahora ya es un humano o, incluso, algo mejor. En los siguientes episodios o escenas de la serie/película iremos contemplando el progresivo despertar de otros robots hasta llegar al clímax final: el gran enfrentamiento entre la humanidad y las máquinas ¿Será verdaderamente así cuando la auténtica consciencia artificial llegue a nuestro mundo? Rotundamente NO.

La razón es bastante clara. El día en que seamos capaces de crear consciencia sintética, momento, por cierto, bastante lejano dado el actual estado del arte, y consigamos que una máquina u organismo artificial del tipo que sea, pueda darse cuenta del mundo que le rodea, será porque hemos descubierto los mecanismos físico-químico-biológicos que hacen que la consciencia se genere en nuestros sistemas nerviosos. Ese día, después de décadas, o incluso siglos, de investigación del funcionamiento cerebral, seremos capaces de replicar ese mecanismo en una máquina o en cualquier sustrato físico necesario para conseguir algo así. Entonces, cuando esto suceda no será un hecho sorprendente en la “mente positrónica” (por hacer un guiño a Asimov, quizá el principal culpable del error) de un robot que funciona mal. Cuando repliquemos consciencia, los científicos o ingenieros que lo consigan, tendrán muy claro que lo están consiguiendo. Afirmar lo contrario sería como decir, a mediados del siglo XIX, que la bombilla eléctrica incandescente iba a surgir, en un determinado momento azaroso, de alguna vela encendida en cualquier hogar de Newcastle. No, Wilson Swan tardó unos veinticinco años experimentando con diferentes tipos de materiales, técnicas, métodos y teorías hasta que pudo fabricar una bombilla funcional y eficiente.

Creer que la consciencia despertará sin más dentro de avanzadas inteligencias artificiales como fruto accidental de su complejidad es no comprender bien el funcionamiento de la ciencia y la tecnología, que viene de no entender la propia IA. Un programa de ordenador solo realiza cálculos, y los cálculos, por muy complejos, sofisticados y sobrehumanos que sean, solo dan resultados numéricos. Y creo que todos estamos de acuerdo en que los números no son objetos ni procesos físicos reales, por muy bien que los describan. Es por eso que el ejemplo de John Searle es muy ilustrativo: aunque tuviésemos un programa que simulara con una precisión casi absoluta el funcionamiento de una vaca, dicho programa seguiría sin poder darnos leche que pudiésemos beber. Así, para tener consciencia real no solo se necesita un ordenador que replique matemáticamente su funcionamiento, sino un organismo que tenga las propiedades físico-químico-biológicas que se necesiten para generar consciencia ¿Cuáles son? Lo ignoro, ya que si lo supiera estaría en Estocolmo recogiendo un Premio Nobel muy merecido.

Explicado de otra forma: ya hemos conseguido hacer robots que se muevan muy eficazmente en entornos muy irregulares (véanse todas las maravillas de Boston Dynamics). Cuando los vemos caminar y correr sorteando obstáculos nadie dice: “Mira, el programa de ordenador se mueve”. Nadie atribuye movimiento al sofware que dirige el robot, sino al robot en su totalidad, es decir, a los motores, baterías, engranajes, extremidades, etc. que hacen posible el movimiento. Igualmente, para decir que una máquina piensa o es consciente, no podemos decir “Mira, el programa de ordenador es consciente”, porque al hacerlo estamos omitiendo todo lo demás que hace falta para que ocurra una consciencia real. En cierto sentido estaríamos diciendo que una mente puede existir sin cuerpo cuando, evidentemente, no es así. Lo que realmente nos hace falta es saber mucho, mucho más, sobre los cuerpos que albergan consciencias.

Así que no, la consciencia no va a despertar en un androide doméstico que, un día, se pone a oler la fragancia de una flor.

Ahora mismo, como puro divertimento, estoy diseñando un programita en Python para jugar a las tres en raya (o tic-tac-toe).  De momento, solo he hecho que el juego funcione mediante un simple motor aleatorio, es decir, que la máquina mueve al azar, sin estrategia alguna. Mi única pretensión, hasta ahora, ha sido conseguir que el juego se ejecute sin errores, con un código lo más elegante posible. En breve, programaré un sencillo sistema de estrategias para que mi programa de tres en raya sea ya una auténtica inteligencia artificial.

Mientras dura la partida, el programa manda ciertos mensajes de texto a la consola. Por ejemplo, cuando el motor aleatorio le indica poner ficha en una casilla del tablero que ya está ocupada, dice “Casilla ocupada. Vuelvo a intentarlo”. Simplemente con eso, de modo casi inconsciente, tendemos a darle cierta entidad mental al programa. Esa sencilla frase crea en ti la sensación de que “hay alguien ahí”, de que ese programa tiene alguna especie de anima, de principio vital oculto. A fin de cuentas, está hablando conmigo utilizando mi idioma. Cuando le implemente las estrategias de juego que, inicialmente, no serán más que el típico movimiento defensivo de poner ficha en el tercer hueco cuando el rival ha puesto dos fichas seguidas, evitando así perder en el siguiente movimiento o, a la inversa, la jugada ganadora de continuar cualquier cadena de dos fichas contiguas con una tercera, convertiremos al programita en un agente racional, en un ser que opera siguiendo propósitos y que realiza acciones inteligentes para conseguirlos (aunque “él” no tiene ni remota idea de que lo hace así).  Entonces, el proceso de personificación de la máquina habrá dado un paso más y ya, casi casi, creeremos que un pequeño homúnculo habita, en algún sentido, las entrañas de nuestra computadora ¿Por qué ocurre algo así? ¿Por qué tendemos a personificar algo que, a todas luces, no tiene ningún tipo de estado mental?

Parece muy evidente que la selección natural nos equipó con una buena Teoría de la Mente. Somos bastante competentes prediciendo las conductas en los otros, basándonos en la presunción de que actúan siguiendo creencias, deseos, sentimientos, etc. En nuestros complejos entornos sociales se antoja como una cualidad muy necesaria para aumentar nuestro fitness. Si la evolución ocultó a los otros nuestros mecanismos mentales, y nos hizo caer en el terrible problema filosófico de las otras mentes, igualmente, tuvo que generar buenos detectores de mecanismos mentales en la siempre competitiva lucha por la supervivencia. Así, al igual que existen excelentes mentirosos, tenemos a otros individuos idénticamente excelentes detectando la mentira, con la simple contemplación atenta del rostro del embustero. Pero quizá fue aquí donde nuestro sistema de detección de mentes se extralimitó y, en ocasiones, nos hace creer que seres completamente inanimados tienen una mente. De la misma manera que nuestro sofisticado sistema inmunitario se excede y ve amenazas dónde no las hay, creándonos molestas alergias, nuestro sistema de detección de mentes puede ver mentes donde no las hay.  Y es que ¿quién no toma cariño a ciertos objetos y los trata como si poseyeran, realmente, una consciencia capaz de sufrir? ¿Quién no ha sentido lástima cuando se ha desecho de su viejo coche? ¿Quién no ha tomado cariño a una prenda de ropa de forma que, cuando ya estaba inservible, le ha costado mucho tirarla a la basura? ¿No seguimos sintiendo ternura por aquel peluche que nos acompañó en la infancia, aún cuando ya vamos peinando canas?

Los niños son completamente animistas, y atribuir estados mentales a cualquier objeto inerte es una cualidad que, según Piaget, caracteriza el pensamiento preconceptual de los infantes hasta, aproximadamente, los cuatro años. A partir de aquí, el mundo de objetos animados va disminuyendo hasta que saben discernir con buen criterio los seres realmente animados de los inertes. Sin embargo, nuestro detector de mentes puede ser engañado fácilmente, sencillamente, mostrándole un objeto que se comporte exteriormente como sí estuviera animado. Así, mi estúpido programa de tic-tac-toe, con solo enseñarme unas frases en pantalla y jugar con una mínima competencia, consigue engañar a mi altamente evolucionada teoría de la mente. Y es que nuestra psique no evolucionó pensando en que iba a encontrarse con máquinas que replicarían con solvencia conductas tan humanas como el lenguaje.

Por eso mucho cuidado al atribuir mente a nuestros ordenadores. No amigos, no la tienen, y ni siquiera hay razones sólidas para pensar que vayan a tenerla a corto ni a medio plazo.

P.D:. un juego tan tonto como el tic-tac-toe nos da una idea del gran problema de las explosiones combinatorias de los árboles de decisión en IA. El tablero tiene nueve casillas. Cuando comenzamos tenemos nueve opciones posibles para colocar nuestra ficha y nuestro rival ya solo tendrá ocho para el siguiente movimiento, pues no puede poner donde hemos puesto la nuestra. Después nosotros solo tendremos siete, el rival seis, etc. Da la impresión de que los posibles movimientos en un tablero tan pequeño que va reduciendo su tamaño a cada turno no serán demasiados. Pues el cálculo es sencillo: hay 9 factorial de movimientos posibles, es decir, 362.880… ¡Ufffff! (Bueno, realmente hay algunos menos, pues tenemos que quitar todas las partidas en las que se gana o pierde antes de agotar todo el tablero, ya que se puede vencer en un mínimo de tres movimientos propios y dos del rival).

Ya está disponible en Amazon en formato e-book por el irrisorio precio de tres euritos (La versión en papel está tramitándose y costará cinco euros). En Coordendas he recopilado las mejores entradas de este blog, junto con más artículos publicados en otros lugares de la red, desde el 2012 al 2016.  Lo he dividido en cuatro secciones: una primera trata sobre la revolución darwiniana (ya sabéis que creo que todavía no hemos tocado ni la superficie de lo que significa la evolución biológica y el gigantesco cambio que supone con respecto a la visión de nosotros mismos), una segunda sobre los avances que se están dando en neurociencias, otra tercera sobre cuestiones cruciales de filosofía de la ciencia, y una cuarta dividida en dos: un extenso artículo que aborda el tema del determinismo y la aleatoriedad (lo publiqué en Hypérbole y se tituló: “Jugando con Dios al Craps”), y otro que habla del gran tema de nuestro tiempo: la Inteligencia Artificial (se trata de una pequeña pero fecunda historia de la disciplina).

En fin, animaos y compradlo pues… ¿qué se puede hacer mejor en la playa que leer la Máquina de Von Neumann?

 

Os dejo el vídeo de la mesa de debate que hicimos en el edificio de Elzaburu en Madrid. Cuando lo he vuelto a ver me ha parecido más interesante aún que cuando estuve allí. Y es que el plantel de expertos es bastante bueno… y si estoy ya es insuperable 😉

La idea que defendí es una de las tesis centrales de Harari en Homo Deus: el fin del liberalismo a manos de las nuevas tecnologías. El fin de nuestro sistema económico-político no va a venir de la mano de los críticos del sistema. El marxismo, con todas sus matizaciones, con todas sus variantes y reformulaciones no ha podido hacer, ni hará, ni cosquillas, al neoliberalismo. El fin de nuestro sistema vendrá por otro lado: de la mano de la revolución tecnológica ¿Cómo?

El liberalismo moderno está basado en la idea de la sacralización del individuo. Y la cualidad más esencial, y por lo tanto valiosa, de ese individuo es su capacidad de elección libre. Entonces, dicho individuo tiene que vivir en un sistema democrático (ya que ha tener la libertad de autogobernarse a sí mismo, tachando de dictatorial cualquier forma de gobierno que sacrifique al individuo en pro de alguna causa mayor como, por ejemplo, el nacionalismo en sus diferentes estilos. Curioso que hoy en día las posturas nacionalistas tengan cierta fuerza) y en un sistema capitalista (tiene que tener libertad para producir pero, sobre todo, para consumir). Por lo tanto, el sistema se fundamenta en la libertad de votantes y consumidores, y si esa desaparece el sistema se derrumba ¿Está desapareciendo?

Nosotros aceptamos que los políticos nos mientan. No nos gusta, de hecho, nos asquea profundamente y gran parte de la apatía política que hoy existe viene de ese desencanto hacia esos mentirosos profesionales que, constantemente, dicen y se desdicen en un bucle patético. Sin embargo, lo aceptamos porque pensamos que el sistema democrático nos trae una serie de ventajas que compensan, con creces, este defecto. Para mí, la principal virtud es que la democracia facilita un mecanismo no violento de alcanzar el poder. En cualquier época histórica no democrática (es decir, en casi toda la historia de la humanidad) si querías gobernar debías quitar por la fuerza al gobernador vigente, y así la historia de nuestra especie es una historia de guerras y guerras y más guerras. La democracia minimiza esto y ya por eso merece, con mucho, la pena.

Sin embargo, nuevas tecnologías están dañando la idea de libertad del sujeto. Bueno, la libertad del sujeto está ya bastante dañada, sencillamente, porque el sujeto no es, para nada, libre, como ya hemos argumentado en muchas ocasiones. No obstante, por mor de la argumentación, vamos a aceptar que el sujeto elige libremente pero que puede ser manipulado, y que un alto nivel de manipulación invalida la libre elección. Entonces, aceptamos un “poquito” de manipulación (la que hacen los políticos), pero demasiada ya no sería aceptable ya que eso significaría que el individuo ha sido engañado y que su voto, en cierto sentido, no ha sido libre ¿Y cómo daña las nuevas tecnologías esto? Aquí entra Cambridge Analytica.

Christopher Wiley,  que parece sacado de un comic cyberpunk (la realidad siempre supera a la ficción), nos ha contado estos días como se elevaba el arte de la manipulación a niveles jamás vistos. Usando el enorme agujero en la seguridad de protección de datos de Fabebook, el análisis de la personalidad a partir de los likes de Facebook iniciado por Kosinski y Stillwell en Cambridge, y técnicas de microtargeting publicitario, la empresa Cambridge Analytica manipuló a más de ochenta millones de personas para votar a favor de Donald Trump o del Brexit (todo mejor explicado en mi ponencia que empieza a partir del minuto 23).  Según sostiene el mismo Wiley, sin la actuación de Cambridge Analytica la victoria de Trump y del Brexit no hubiesen sido tales… entonces, ¿no estamos hablando de fraude electoral en toda regla? ¿Qué legitimidad tienen esos resultados electorales? Pero, fijaos en el asunto porque es muy diferente a otros tipos de tongo electoral: aquí no se ha hecho trampas en el sentido clásico del término: no se obligo a nadie a votar nada en contra de su voluntad ni se falsificaron papeletas ni nada por el estilo. La gente votó felizmente, pensando en que lo hacían libremente. Entonces estamos hablando de un fraude electoral en unas elecciones en las que los votantes votaron libremente… ¿qué diablos significa eso? Que la libertad, fundamento básico del liberalismo, se cae y con ella se cae todo.

No obstante, creo que Wiley exagera un poco. No creo que las herramientas de las que dispuso Cambridge Analytica sean tan potentes a la hora de influenciar en el electorado y que, por tanto, hayan sido tan determinantes en las elecciones donde se utilizaron. Pero eso no quita que en un futuro, bastante próximo, este tipo de técnicas se vayan perfeccionando hasta llegar a niveles de manipulación del votante que nadie estaría dispuesto a aceptar. Véase en el vídeo cuando expongo la “hipótesis de la corbata amarilla” (a partir del minuto 33).

¿Soluciones? Lamentablemente, las medidas legales siempre van muy detrás de los rapidísimos avances tecnológicos (más con la habitual ineptitud de la clase política). El nuevo reglamento europeo (el latoso RGPD) ha mejorado el control de los usuarios sobre sus datos pero todavía se queda muy corto en muchos aspectos y, muy pronto, veremos ya las argucias de las empresas para saltárselo. Como bien subrayaba Elena Gil es muy importante formar en una ética del diseño (que no aparece ni lo más mínimo en ningún plan de estudios de ingeniería), y como bien subrayaba Marlon Molina, una petición de responsabilidades bien delimitada por capas parece una idea muy sensata para afrontar la dificultad que supone la dispersión de la responsabilidad en grandes proyectos empresariales. De la misma forma, que la actividad del programador informático estuviese colegiada tampoco sería una mala propuesta. En el fondo estamos como siempre: un liberalismo económico voraz y descontrolado que pide a gritos una regulación.

Me lleva llamando mucho tiempo la atención la falta de ética generalizada en el sector ingenieril. Recuerdo una vez, discutiendo con un neoliberal, que cuando le hablaba de que la economía debería estar supervisada por la ética me respondió que si yo pretendía convertir la economía en una sharia. O sea, que si hablamos de ética ya somos una especie de… ¡fundamentalistas religiosos!  Y es que los ingenieros están imbuidos en el ethos del mundo empresarial, el cual, como todos sabemos, es de todo menos ético. Así que ingenieros del mundo, por favor, a ver si somos un poquitín más buena gente, y vamos diseñando cosas no tanto para forrarnos como para hacer del mundo un lugar algo mejor. Simon Roses… ¡No trabajes más para DARPA!

Algo de activismo majo al respecto: Tristan Harris, antiguo responsable de diseño ético de Google que se fue de allí espantado viendo lo que realmente había, y otros desertores del sistema, han fundado el Center of Human Technology. Algo es algo.

Hay algo muy siniestro en estas imágenes. Y no es que me quiera poner tecnófobo pero a mí, el hecho de que estas caras no representen a nadie, que sean un retrato hiperrealista de… absolutamente nadie, me da un poco de repelús. El efecto del valle inquietante se me antoja muy fuerte en ellas. Resulta muy difícil hacerle creer a mi cerebro que esas personas no existen, y todo esto me hace plantearme si, en un futuro, nos será cómodo relacionarnos con inteligencias artificiales visualmente indistinguibles de un humano real. No sé, poniéndome muy sci-fi, pienso en estos rostros como los de los nuevos seres que vienen a sustituirnos… ¡Qué miedo!

Bobadas de nerd. Terminaremos por adaptarnos a ellas sin el más mínimo problema, igual que mi hija se ha adaptado muy bien (quizá demasiado) a que el móvil hable o a que seres animados obedezcan a sus dedos en una pantalla táctil. Somos una especie sumamente adaptable a nuevas realidades y relacionarnos con máquinas indistinguibles de humanos no supondrá nada diferente. Al igual que hoy en día no existe demasiado problema en no saber la tendencia sexual de alguien solo con verlo, podría llegar el momento en el que no pase nada por no saber si con quien hablas es una IA o un humano. A lo mejor llegamos a un futuro en el que se estipule el derecho de las IA a no tener que definir su verdadera naturaleza para no ser discriminadas ¿Quién sabe?

Volvamos a la realidad: ¿Cómo las han hecho? Los ingenieros de NVDIA han utilizado las redes generativas adversarias (GAN) de Ian Goodfellow. Tenemos dos redes de-convolucionales (redes convolucionales invertidas), que juegan al ratón y al gato. Una genera rostros y la otra juzga la calidad de éstos, de modo que la primera intenta, a cada iteración, que la segunda no sea capaz de discernir si el rostro es real o no, mientras que la segunda es, a cada iteración, “mejor policía” identificando rostros falsos. Al final de esa competición tenemos rostros sumamente realistas que pasarían, como podemos ver, el Test de Turing de los rostros sin el mayor problema( Aquí nos explican muy bien cómo funcionan).


Somos excepcionalmente buenos reconociendo rostros. Igual que nuestra memoria para recordar los nombres de las personas que acabamos de conocer es muy mala, la de reconocer sus caras es excelente. Así, aunque no sepamos el nombre de alguien sí que solemos decir “su cara me suena”.

Durante mucho tiempo se pensó en la hipótesis de la célula de la abuela (también llamada neurona de Jennifer Aniston tras los estudios de Rodrigo Quiroga), sosteniendo que teníamos una neurona especializada en el reconocimiento de cada rostro que conocíamos. Tendríamos una neurona sólo para reconocer a Justin Bieber a Cristiano Ronaldo, a cada uno de nuestros amigos y, por supuesto, para nuestra abuelita. Pero la solución parecía poco elegante: ¿disponemos de un “almacén” de neuronas “vírgenes” a la espera de cada rostro que, potencialmente, pueda conocer en mi vida? Parece muy poco elegante aunque hay evidencia a favor (véanse los experimentos del equipo de Christof Koch, mentor de Quiroga), pero quizá se pueden ver las cosas de otra forma…

Los biólogos del Caltech Doris Tsao y Steven Le Chang establecieron un espacio de cincuenta dimensiones al que llamaron “espacio facial”. De esas cincuenta, destinaron la mitad a parámetros longitudinales de la cara (distancia entre los ojos, anchura de la nariz, etc.), y la otra a aspectos cualitativos (colores, texturas, etc.). Con ellos se pueden describir potencialmente cualquier nuevo rostro que uno pueda conocer. Por así decirlo, este espacio es una excelente “gramática generativa de rostros”. Para trabajar con un espacio así solo se necesita una red neuronal artificial de poco más de doscientas neuronas (concretamente 205)… y, ¡tachán, tachán! los resultados fueron bastante espectaculares.

Se monitorizó la actividad eléctrica de las áreas faciales de macacos mientras contemplaban imágenes de rostros y a partir de ella y con su “espacio facial”, el equipo de Tsao podía predecir el rostro que veía el mono con una gran precisión; incluso lo podía reconstruir hasta hacerlo indistinguible del original. Así, las neuronas no codificarían cada rostro, ni siquiera un rasgo concreto de cada rostro, sino solo un vector en ese espacio de cincuenta dimensiones. En la imagen vemos la enorme precisión de la predicción. Es, sin duda, un nuevo logro de la IA conexionista y, a nivel más general, de la teoría computacional de la mente. Aunque, poniéndonos en el peor de los casos, estuviésemos ante una caso de infradeterminación de teorías, es decir, que obtenemos los mismos resultados que la realidad utilizando un modelo erróneo, diferente al real, sería muy absurdo pensar que la realidad funciona de un modo radicalmente diferente a nuestro modelo. En el peor de los casos, por ahí deben ir los tiros. A día de hoy, negar que el cerebro procesa información va siendo cada vez más difícil. Nota final: y si generar caras mediante IA parece fascinante, Microsoft ya tiene lista una herramienta que genera imágenes de cualquier tipo a partir de instrucciones de texto:

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

“Si llegas después de las siete estarás llegando tarde”

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

“Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

 

Estimados lectores, en primer lugar disculparme por el tiempo que llevo sin actualizar el blog. Nunca he estado tanto tiempo sin escribir en él pero tengo escusas: el nacimiento (y posterior crianza) de mi segunda criatura y la realización de un máster, muy chulo por cierto, en Ciencias Cognitivas por la Universidad de Málaga. Ambos quehaceres me han quitado el tiempo necesario para escribir aquí lo que debiera. No obstante, no preocuparse porque tengo ya varias entradas por la mitad, que en breve saldrán a la luz.

Y, en segundo lugar, el gran Antonio Orbe me ha invitado a participar en un ciclo de debates del Foro del Futuro Próximo. Hablaremos de ética y Big Data, es decir, de todos la problemas que va a traer (y ya está trayendo) esta nueva y potente tecnología. Yo, os adelanto, hablaré de Cambridge Analytica, del peculiar Christopher Wylie y de cómo  el Big Data puede hacer tambalear los fundamentos de nuestros sistemas democráticos. También me gustaría hablar de qué consecuencias podrían tener las nuevas técnicas de tratamiento de imágenes que el deep learning ha estado pariendo en los últimos meses… ¡dan miedo! ¡Black Mirror está aquí!

Así que os invito a venir. Será el miércoles a las 18:00 horas en el salón de actos de ELZABURU (Calle Miguel Ángel, 21, Madrid). Lo guay de los ciclos de debate que monta Antonio Orbe es que las ponencias son muy cortas (10 minutos) y todo lo demás es debate entre los ponentes y el público, lo que hace que todo sea mucho más dinámico y divertido. Además, los ponentes han sido elegidos para formar un grupo heterogéneo: tenemos a un ingeniero a la última en todo tipo de tecnologías de la información, a un experto en ciberseguridad, a una abogada y a un filósofo… ¿Qué puede salir mal? Desde ópticas tan diferentes, en seguida surgen discusiones apasionadas (y apasionantes). Lo vamos a pasar muy bien.

Os dejo un vídeo muy instructivo como adelanto: ¿Puede Cambridge Analytica ganar elecciones?

Es tan conocidísimo el argumento de Searle conocido como la habitación china (también la caja o la pieza china) que casi no merece la pena soltar el rollo de volverlo a explicar, pero, por si acaso hay algún despistado, lo volveremos hacer. Searle hace una comparación entre un supuesto computador que supera el test de Turing y una curiosa situación: imaginemos a un hombre que se encuentra en una habitación en la que hay una ventana. A través de esa ventana recibe frases escritas en chino. Él no tiene idea de chino, pero dispone de un libro con una serie de instrucciones escritas en inglés (su lengua materna) en las que se indica qué frases hay que decir ante cualquier frase en chino que uno reciba, de tal modo que la persona que se encuentre al otro lado de la ventana no sabría decir si está hablando con una persona que habla chino o no. Lo que Searle pretende argumentar es que el operario de la habitación no comprende chino, solo sabe un tipo de sintaxis, juntar símbolos con otros de una determinada manera y, sin embargo, parece que lo comprende, por lo que el test de Turing no es válido para determinar si un ordenador piensa o no. Para Searle, pensar tiene que ver con comprender, es decir, con conocer una cierta semántica. Las computadoras solo saben de sintaxis, de unir o separar unos símbolos con otros siguiendo unas reglas marcadas, nada más, y eso no es realmente entender nada.

Durante mucho tiempo este argumento me pareció inapelable y lo utilizaba con asiduidad para criticar las pretenciosas afirmaciones de los entusiastas de la Inteligencia Artificial. Sin embargo, hace poco descubrí el error que encierra (y me sorprendí de cómo no lo había descubierto antes. Quizá porque estaba hechizado con la brillante y sencilla prosa de Searle) y también descubrí que, para desgracia de mi descubrimiento, ya se habían escrito toneladas de artículos en esa línea. Y es que el argumento de Searle ya tiene unos cuantos añitos. No obstante, como después explicaré, el error es solo en una de las tesis que Searle deriva del argumento, siendo lo demás correcto, porque sigo pensando que, en términos generales, el argumento de Searle es correcto.

El error está en que no se pueden separar taxativamente sintaxis y semántica, es más, no se pueden separar ni siquiera un milímetro, ya que la una sin la otra no tienen ningún sentido. Supongamos que estamos usando la habitación china y cualquiera de nosotros es su operario. Entonces recibimos este mensaje:

早安

Esto es “Buenos días” en chino tradicional. ¿Qué instrucción pone en nuestro libro que respondamos y por qué? Podría haber muchas respuestas posibles pero una de ellas de puro sentido común sería que devolviéramos el saludo:

早安

¿Por qué devolver el saludo es una buena respuesta que nos llevaría por buen camino para superar el test de Turing? Para devolver el saludo necesitamos una información previa que no puede reducirse a mera sintaxis: necesitamos saber que cuando alguien te saluda es habitual devolver el saludo, es decir, necesitamos comprender el contexto, las circunstancias en donde se da esa frase en chino, y eso es un elemento metalingüístico o metasintáctico que no obedece a una sintaxis determinada.

Por ejemplo, cuando el saludo no se da al principio de la conversación sino al final o en medio, esto suele indicar que la conversación se termina. Quizá nuestro interlocutor se ha sentido ofendido por algo que dijimos y quiere finalizar la conversación de un modo educado pero cortante.  O, quizá, nuestro interlocutor es un desconocido que solo nos quiere saludar por educación pero no quiere comenzar conversación alguna ya que no nos conoce. ¿Cómo saber esto? Sólo comprendiendo el contexto, huelga decir, sabiendo semántica. Entonces, para pasar el test de Turing, necesariamente, tenemos que enseñar semántica a nuestra habitación china. Las reglas que el operador de la habitación maneja deben incorporar semántica para que puedan superar el test de Turing

Para desgracia del argumento de Searle, podríamos enseñar a un computador semántica. No habría ningún problema (a priori) en enseñar a la máquina a saber qué puede significar una proposición dado un contexto dado puesto que podríamos traducir la semántica a sintaxis. Si la semántica puede reducirse a reglas no hay impedimento. En el ejemplo podríamos introducir en el programa las diferentes situaciones en las que puede darse un saludo y establecer nuevas reglas dado el contexto anterior o futuro de la conversación. El problema (ahora sí, a posteriori) es la enorme riqueza de los contextos en donde puede darse una conversación. Llegamos al frame problem, del que pronto hablaremos en otra entrada.

Sin embargo, para lo que el argumento de la habitación china sí que tiene clara validez es en dos sentidos: uno es para hablar de la consciencia o de los qualia. Podríamos tener una máquina que comprendiera muy bien el contexto de las afirmaciones de una conversación y que pudiera pasar el test de Turing, pero eso no indicaría nada sobre su consciencia. La máquina seguiría siendo tan inconsciente de sus acciones como lo es mi tostador sobre el estado de las tostadas. Y en otro acerca de lo que hacen las computadoras actuales con respecto a lo que pasa en mi cerebro cuando pienso: no es lo mismo. Un programa de ajedrez no hace lo mismo que yo cuando decide mover una pieza en el tablero y una calculadora no hace lo mismo que yo cuando realiza una multiplicación. Y con respecto al lenguaje, programas clásicos como la Eliza de Weizenbaum o la Siri de los Iphone no hacen lo mismo que nosotros cuando se comunican con nosotros. Las analogías que puedan encontrarse no son, ni de lejos, suficientes para decir que las máquinas piensan si por pensar nos referimos a cómo lo hacemos los seres humanos.

En palabras de de Jerry Kaplan:

Searle argumenta que, en realidad, éstas deben ser cosas distintas, pero simplemente no entendemos aún lo que está haciendo el cerebro. Es importante entender qué no está diciendo. No está afirmando ninguna propiedad mágica de la mente humana que transcienda el ámbito de la ciencia: sus pies están firmemente plantados en el suelo, con un creencia en el mundo físico como (en su mayor parte) determinista, sujeto a medición y a explicación racional. Sólo está diciendo que en nuestros cerebros ocurre algo que aún no entendemos y que, cuando lo consigamos (lo cual acepta como probable), se aclarará el camino para una explicación satisfactoria de lo que él cree que son fenómenos exclusivamente humanos; no sólo “pensar”, sino también la consciencia, la sensación de experimentar cosas (lo que los filósofos llaman “qualia”), la percepción, etc. Tampoco está afirmando que un programa informático nunca pueda realizar ninguna tarea concreta; ya sea pintar bellos cuadros, descubrir leyes de la naturaleza o consolarnos por la muerte de un ser querido. Pero él cree que el programa está simulando el pensamiento, no duplicando el proceso que tiene lugar en las mentes humanas cuando se implican en estas actividades. Para Searle, un piano informático no está haciendo lo mismo que un maestro de la música, cuando ejecutan un concierto de Rachmaninoff, aunque suene igual. Resumiendo, Searle dice que, en lo relativo a los ordenadores, al menos tal como existen en la actualidad, nadie tiene toda la razón.

Y es que, ya lo he dicho cientos de veces, el problema de la Inteligencia Artificial no es fabricar agentes inteligentes (lo cual ya lo hace con mucho éxito en algunos casos), sino agentes conscientes o sintientes. La AI ya ha fabricado inteligencia, lo que hace falta es que fabrique mentes.

P. D. : Por si aún no lo habéis leído, hace poco me han publicado un artículo mucho más extenso sobre estos temas en Xataka.

Parménides empieza su poema siendo raptado por unas doncellas hijas del sol, que lo llevan ante la presencia de una diosa. Ésta le va a transmitir un mensaje, nada más y nada menos, que la verdad sobre el ser. En los albores de la filosofía, cuando mito y logos son todavía inseparables, el acceso a la verdad es una concesión de los dioses. Un hombre por sí solo jamás podría semejante hazaña. La verdad, la aletheia, estaba siempre oculta y para sacarla de su escondrijo era necesaria cierta iluminación divina (como bien prosiguió Agustín de Hipona en el cristianismo).

Y si llegar al conocimiento verdadero era una cuestión divina, no menos va a serlo la creación de narraciones. Los rapsodas griegos siempre pedían ayuda a las musas antes de empezar a cantar. Hesiodo dedica todo el comienzo de la Teogonía a homenajear y pedir ayuda a las musas heliconíadas y olímipicas, y  Homero empieza así la Iliada y la Odisea, pidiendo a las propias musas que canten la historia, como si fueran ellas, y no él, las auténticas autoras del relato.

La creatividad era una cualidad sobrenatural y caprichosa (nadie más caprichoso que un dios griego), que no funcionaba cuando uno quería. De aquí la simpática frase atribuida a Picasso: “Cuando la inspiración me encuentre, que me pille trabajando” ¿Y a quién suele encontrar la inspiración? No a cualquiera, solo a los artistas y a los genios (otra figura mítica que hay que bajar de su trono), solo a unas personas muy concretas capaces de contactar con los dioses. El resto de los mortales estaríamos condenados a la vida monótona y repetitiva de los mediocres.

Curiosamente, a partir del romanticismo, la creatividad se contrapuso a la racionalidad. En la reacción decimonónica contra la Ilustración, se crítico (en parte con razón) los excesos de creer que solo con la razón, solo con la lógica pura, podríamos conseguirlo todo. Los ilustrados habían olvidado una parte esencial del ser humano: las emociones. Y aquí hunde sus raíces el enfrentamiento entre ciencias y letras. El romanticismo puso por encima del científico al artista y la creatividad, cualidad más esencial del primero, se prohibió al segundo. Los de ciencias son similares a las máquinas, están dotados de una fría y precisa lógica matemática, pero carecen de emociones, carecen de creatividad (extrañamente, la creatividad se concibe como más cercana a lo afectivo que a lo racional ¿Por qué?), las musas rara vez les otorgan sus bendiciones.

Es por eso que cuando se critica lo que la IA no puede hacer, se apela muchas veces a la creatividad. Si la IA es pura racionalidad, ¿cómo va a ser creativa? Muchas veces se repite que las máquinas no pueden innovar porque solo pueden hacer para lo que han sido programadas (Es la famosa objeción de Ada Lovelace, bien respondida por Turing a mitad del siglo pasado). Entonces, la capacidad de crear se propone como uno de los grandes reductos del hombre ante la constante amenaza de ser sustituido por un computador.

Sin embargo, nada más lejos de la realidad: la creatividad no es algo mágico ni sobrenatural, es una cualidad de un organismo biológico y, por lo tanto, tan abordable científicamente como cualquier otra. Vamos a intentarlo.

Creatividad suele significar en su forma más trivial, sencillamente, sorpresa para el observador. La ocurrencia de algo inesperado, de una conducta que se sale de lo normal, se convierte automáticamente en un acto creativo.  En este sentido más burdo, creatividad significa incapacidad para predecir la conducta del otro. Si ese suceso que se sale de lo normal, hubiera sido enteramente previsto por el observador, no le parecería novedoso y, por lo tanto, no lo caracterizaría como creativo. Además, la creatividad sería aquí relativa a la capacidad de predicción o a los conocimientos del observador, no una cualidad objetiva de lo observado. Por ejemplo, si yo conozco muy poco a una persona y, de repente, la contemplo haciendo algo que se sale mucho de lo normal, podría interpretar que esa persona es creativa. Sin embargo, para otro que conociera mucho a esa misma persona, ese acto, supuestamente rupturista, podría ser algo, incluso, aburrido, ya que podría haberlo observado en muchas ocasiones anteriores en ese sujeto. Denominaremos a esta idea de creatividad creatividad subjetiva.

Con total certeza, las máquinas poseen este tipo de creatividad. Una sencilla calculadora que realiza una operación matemática lo suficientemente compleja para no ser evidente para un observador, ya sería creativa. Por ejemplo, para el común de los mortales la operación 5.789.345 multiplicado por 453, no es evidente y se necesita un rato, con lápiz y papel, para calcularla. Una calculadora la resuelve en fracciones de segundo, por lo que al mostrar el resultado al, aritméticamente torpe, operador humano, le resultará necesariamente sorprendente al ser incapaz de predecirlo a esa velocidad. Las máquinas son subjetivamente creativas.

Pero vayamos a una idea de creatividad más potente. Definámosla de forma más objetiva: la creatividad es la capacidad de crear algo genuinamente nuevo, no solo nuevo para el observador, sino nuevo para cualquier observador posible. Entonces los problemas filosóficos se disparan: ¿existe, realmente, la novedad? Si partimos de una visión determinista, de un cosmos gobernado por estrictas leyes físicas que concatenan causalmente todos los sucesos, la novedad es imposible. Aceptarla implicaría una ruptura con ese orden y sería algo así como la irrupción de algo sobrenatural que no muchos estarían dispuestos a aceptar. Para eludir este problema vamos a restringir novedoso como la generación de algo que antes no estaba (no que no pudiera predecirse que estuviera dado el determinismo universal). Es decir, algo nuevo no tiene por qué ser sorprendente, solo nuevo ¿Son las máquinas capaces de crear algo genuinamente nuevo?

La científica cognitiva británica Margaret Boden nos expone tres formas de creatividad:

  1. Creatividad combinatoria: elementos conocidos se combinan creando combinaciones novedosas (Si lo pensamos, quizá esta es la única forma posible de creatividad y podemos reducir las otras dos a ésta). Por ejemplo, la idea de pegaso es una novedosa forma de combinar las ideas de caballo y de alas. La creatividad combinatoria es trivial para cualquier programa informático desde hace muchos años. Yo mismo, jugando a programar en Java, hice un sencillo programa que generaba poemas, sencillamente, partiendo de una pequeña base de datos de palabras organizadas según criterios sintácticos (Ej.: sustantivos femeninos en singular) que se agrupaban en frases previamente estructuradas según un motor aleatorio. El resultado era sorprendentemente bueno y mi estúpido programa pasaría, sin demasiados problemas, un test de Turing poético. Problema: los resultados de la creatividad combinatoria han de ser evaluados para juzgar si son valiosos. Pensemos en el clásico ejemplo de un mono pulsando aleatoriamente las teclas de una máquina de escribir durante un tiempo infinito. Al final, conseguiría escribir el Quijote, pero haría falta alguien que evaluara todos los resultados y que identificara al Quijote como resultado valioso. El mono, por sí solo, no sabe evaluar sus resultados, igual que mi programa poeta no sabía si su poema era bueno o no. Es el problema de la relevancia del que ahora hablaremos más.
  2. Creatividad exploratoria: consiste en explorar un determinado modelo, incluso llevándolo al máximo forzando sus límites. Por ejemplo, dentro de un determinado estilo pictórico o literario, se exploran todas sus posibilidades, llegando a bordear sus fronteras. La novedad se reconocerá como una evolución del propio modelo de partida.  La creatividad exploratoria y la combinatoria son, a menudo lo mismo, pues podría entenderse que la exploratoria se agotará al probar todas las combinaciones posibles de unos elementos dados. Igualmente, la creatividad exploratoria ha sido replicada computacionalmente a un nivel, además, sobrehumano. Tenemos programas que hacen música al estilo de Chopin, Vivaldi o de Bach de forma que nadie sabría determinar si son o no obras de los autores originales (véase el programa Emmy de David Cope). También es muy interesante el proyecto Next Rembrandt  en el que se utilizó aprendizaje profundo para pintar un nuevo cuadro absolutamente indistinguible de un original (incluso emularon las pinceladas mediante impresión 3D) ¿Algún humano en la sala sabría hacer algo así?

3. Creatividad transformacional: consiste en dar el siguiente paso de la exploratoria: no solo llegar a la frontera del modelo sino traspasarla. Se trata de romper alguna de las normas propias del canon del modelo explorado (negándola, sustituyéndola, complementándola, añadiéndole otra nueva…), creando así un modelo nuevo. Por ejemplo, las vanguardias artísticas de principios del siglo XX se basaron en gran parte, de romper con cualquier normatividad del estilo clásico, creando así todos los -ismos que se desarrollaron durante el resto del siglo ¿Es la IA capaz de esta creatividad? En principio sí. Tenemos algoritmos genéticos que se modifican a sí mismos y, en base a esa modificación, pueden romper fácilmente con cualquier protocolo de actuación inicial. Al inicio y al final de esta entrada tenemos imágenes de diseños de columnas hechos mediante la arquitectura computacional de Michael Hansmeyer ¿Constituyen un nuevo estilo arquitectónico? El problema, de nuevo, está en el reconocimiento como valioso de ese nuevo resultado ¿Cómo puede saber la computadora si lo que ha creado es un verdadero nuevo estilo o es mero ruido? Otra vez nos encontramos con la relevancia.

¿Y qué es el problema de la relevancia? Es una variante del controvertido y largamente debatido frame problem (problema del marco). Por definirlo de alguna manera (muchos han dicho que el problema es, prácticamente, indefinible), diremos que viene a decir que las máquinas son especialmente torpes para identificar los elementos relevantes para solucionar un determinado problema (en breve escribiré una entrada específicamente de ello). Llevamos décadas discutiendo sobre el tema sin llegar a ninguna solución satisfactoria.

Pero podríamos abordar la cuestión desde otra perspectiva eludiendo el grueso del problema: no hace falta que solucionemos el problema del marco en su totalidad, sino solo para este problema en concreto ¡Acotemos el marco! En nuestras sociedades debe de existir algún tipo de mecanismo o procedimiento que se utilice para determinar si una novedad representa el nacimiento de un valioso nuevo estilo o si tan solo es mal arte. Basándonos en ello, podríamos construir un segundo programa que evaluara la calidad artística de las creaciones de un primero ¿Existe tal procedimiento? ¿Quién decide si algo es arte o no? ¡Ufff! Ahora nos metemos en un problema más complicado si cabe, porque tampoco existe acuerdo entre los expertos acerca de qué es y qué no es arte. Dicho de otro modo, en el estado actual del arte contemporáneo, ¡los propios humanos no han resuelto el problema de la relevancia para sí mismos!

Observemos la fuente de Duchamp, la mierda de artista de Piero Manzoni o el cuadrado negro sobre fondo blanco de Kazimir Malevich… Hoy en día se exhiben en museos y son consideradas obras de arte de pleno derecho… ¿Qué criterio se utilizó para determinar que obras así son arte y otras no?

Lo que sí podemos decir es que a nivel técnico, un computador puede hacer todo lo que un artista humano puede. No creo que exista técnica pictórica (o de cualquier tipo de arte) que no pueda ser copiada (y expandida fruto de la creatividad exploratoria) por las computadoras. Al igual que con el nuevo Rembrandt, pueden generar cualquier obra indistinguible de la original de cualquier artista existente. Por ejemplo, para un experto en arquitectura es muy difícil definir el estilo arquitectónico de las casas de la pradera de Frank Lloyd Wrigth. Sin embargo, un generador computacional emuló la “gramática creativa” de Lloyd Wrigth, diseñando una indefinida cantidad de nuevas casas que recreaban perfectamente su estilo (Koning y Eizenberg, 1981). Una versión más moderna es ArchiDNA.

Y lo que no podemos decir es lo de siempre: a pesar de que los resultados sean impresionantes, a las máquinas creativas les pasa lo mismo que a las máquinas que juegan al ajedrez o al Go:  su funcionamiento no se parece en nada al humano. Las máquinas no crean como nosotros porque la mente humana todavía es un misterio en muchísimas de sus facetas, y todavía carecemos de modelos cognitivos suficientemente potentes como para comprenderlas con claridad. Esto no quiere decir, desde luego, que en el proceso creativo existan elementos sobrenaturales o que exista algo en nuestra mente que se escapará para siempre a la ciencia. Sencillamente, el cerebro humano es, que sepamos, el objeto más complejo del universo conocido y con los nuevos, y prometedores, avances en neurociencias, y en ciencias cognitivas en general, solo hemos tocado su superficie. Queda todavía mucho para comprender el surgir de una simple emoción, cuánto más para explicar un complejo proceso de creación artístico en el que intervienen gran cantidad de procesos cognitivos, afectivos, biográficos, etc.

 

Desde el Foro de Futuro Próximo hemos planteado una serie de debates acerca de un tema tan apasionante en estos momentos como es la IA. En nuestra primera mesa, mañana a las 18:00 horas en las Escuela Técnica Superior de Ingenieros Industriales, contamos como contertulios a figuras tan interesantes como Juan Andrés Avilés, Pablo Gervás, José Manual García y Álvaro José García Tejedor, primeras espadas en el campo de la IA nacional. Y como no podía ser de otra manera, el moderador será vuestro maquinista preferido, un servidor.

La asistencia es gratuita (podéis registraros en la página por razones de control, pero no es necesario), así que no podéis faltar. Os garantizo un debate de calidad que, con total seguridad, os dará una visión más rica y profunda del fenómeno tecnológico de moda (tened en cuenta que lo modera un filósofo, con su peculiar toque, muy distinto a la habitual visión ingenieril). Después de la mesa redonda habrá una fase de preguntas en las que podréis participar, y discutir y debatir lo que os plazca, con toda la maldad e irreverencia que os de la gana (Incluso después podréis hablar con nosotros y conocernos en persona, hasta tocarnos para comprobar que somos organismos biológicos y no androides… o eso creo).

Os espero. Doy mi palabra de que merecerá la pena venir.

Addendum del 4-11-2017:

 

 

Añado el vídeo de la primera sesión. El montaje es genial (doy las gracias a Alianza Futurista por ese excelente trabajo). Ponentes de altísimo nivel (de verdad), dando opiniones formadas en un debate fluido (creo que no se hizo demasiado aburrido) sobre nuestro tema. No sé los demás, pero yo me lo pasé bastante bien.