Un pequeño relato de ciencia-ficción para disparar las neuronas:

El famoso antropólogo británico Bronislaw Brown descubrió una tribu que jamás había tenido contacto con el hombre blanco: los inké. No eran más de cien individuos que vivían como cazadores-recolectores en lo más profundo de la región del Mato Grosso, en algún lugar entre la frontera de Bolivia y Brasil. A Brown le costó muchísimo establecer contacto. Si los inké habían sobrevivido hasta ahora era, precisamente, porque habían evitado el contacto con el hombre blanco, y sobre todo, con sus microorganismos. Una gripe o un simple resfriado común podrían acabar con toda la tribu en unos días. Sin embargo, Brown era obstinado y, después de casi cinco años merodeando sus territorios e intentando comunicarse con ellos de las más diversas formas, lo consiguió. Y como a todo buen antropólogo no le bastó con observarlos desde fuera, sino que tenía que hacerlo desde dentro, es decir, debía practicar lo que los etnógrafos llaman observación participante: había que convertirse en un inké más.  Y también lo consiguió: Bronislaw Brown estuvo veinticinco años conviviendo con ellos. Después presentó sus descubrimientos ante la Royal Anthropological Institute of Great Britain and Ireland. Incluimos aquí algunos fragmentos de su discurso del 23 de mayo de 2021:

El aspecto de la aldea inké era completamente diferente a todo lo que yo haya visto jamás en mi dilatada carrera como antropólogo. Las típicas chozas de paja y adobe estaban todas repletas de pintadas de símbolos y grafías de la más diversa índole. Entre ellas reconocí muchas letras latinas propias del guaraní, pero eran pocas en comparación con la gran variedad de símbolos totalmente desconocidos. El suelo estaba lleno, por doquier, de las más diversas configuraciones de piedras, igualmente pintadas de distintos colores y símbolos idénticamente ininteligibles para mí. En un claro en el centro de la aldea había dispuestos más de diez columnas hechas de palos de junco, que, luego descubrí, representaban algunas de las más de cuarenta deidades que tenía el panteón inké.

La vida inké era extraña pero, aparentemente, sencilla. Se pasaban gran parte del tiempo rezando, meditando y hablando sentados en corros. También se pasaban largos ratos escribiendo en cualquier lugar mediante una tinta negra que obtenían del fruto del wituk. A diferencia de todo cuánto yo había estudiado en otras culturas, los inké trataban por igual a mujeres y hombres. Ambos sexos participaban por igual en todos los debates y rituales religiosos. También es llamativa la escasez de relaciones sexuales que mantenían. Mientras que en los pueblos colindantes la sexualidad se llevaba con mucha naturalidad, no existiendo, prácticamente, más tabús que el incesto y el adulterio, los inké sólo mantenían relaciones en fechas muy concretas de su calendario y siempre rodeaban el acto de una gran parafernalia ritual.  Y es que, en general, ni el sexo ni el disfrute de los placeres de la vida eran motivaciones para ellos.

[…] de entre todas estas perplejidades, la que me pareció más notoria y, en un primer momento, incomprensible, era el número de ataques epilépticos que sufrían los inké. En los individuos jóvenes lo habitual era tener dos o tres ataques diarios, mientras que el número subía con la vejez. Como todo, estos ataques se interpretaban de forma religiosa, pensándose que eran formas mediante las que los dioses se comunican con los mortales. Consecuentemente, los individuos que no sufrían ataques eran minusvalorados y considerados inkés de segunda.  Consultando a colegas psiquiatras y neurólogos del King’s College de Londres, me indicaron que, aunque jamás se había observado en un conjunto tan grande de individuos, los inké podrían sufrir un raro tipo de epilepsia del lóbulo temporal denominado síndrome de Gastaut-Geschwind, cuyos síntomas en la conducta coincidían con mucha exactitud con las costumbres inké. En breve lo explicaremos mejor.

[…] El idioma inké derivaba de una antigua versión del tupi, del Ñe’engatú, e incorporaba formas clásicas del guaraní. Sin embargo, tenía una cantidad tal de vocabulario, excepciones, nuevas estructuras y formas gramaticales, que bien podría decirse que estamos ante un idioma nuevo, y diferenciado del resto, de pleno derecho. Es muy reseñable el gran número de palabras abstractas que hacían referencia a aspectos religiosos y espirituales, muchísimas más que cualquier otra lengua de pueblos vecinos.

Su sistema de numeración era mucho más amplio que el típico guaraní, que no suele tener más que palabras para contar hasta cuatro, a partir del cual se utiliza la expresión “heta” para referirse toscamente a “muchos”. El inké disponía de un sistema decimal completo que, sorprendentemente, incluía el cero y, ya contra todo pronóstico posible, incluía seis expresiones diferentes para hablar del infinito. En mis estudios solo llegué a comprender con precisión el significado de tres de ellas: “borai” significa infinito potencial, “borume” hace referencia a la inmensidad del universo y “acai” a la infinitud de Dios; la expresión “omoti” parece tener alguna relación con la infinitud del tiempo aunque no sabría precisar en qué sentido. Las otras dos expresiones son completamente incomprensibles para mí. En conversaciones con ellos descubrí que conocían la existencia de infinitos más grandes que otros o de infinitos que avanzaban a más velocidad que otros, lo cual, dicho sea de paso, no entendí muy bien.

Los inké poseen ciertas matemáticas, siendo un enigma de dónde las han sacado, ya que los demás pueblos indígenas de la región no poseen nada más que las operaciones aritméticas básicas.  Un inké llamado Embael, me habló de ciertas reglas de transformación de formas espaciales mientras dibujaba en el suelo con un palo distintos cuerpos geométricos. Por lo que pude inferir, no utilizaban las matemáticas para nada práctico, ya que llevando un estilo de vida primitivo en la selva amazónica no hay demasiadas cosas que contar, sino de una forma muy parecida a la de los pitagóricos griegos. El concepto de número no se entendía como una abstracción sino que tenía un significado ontológico, como si de un constituyente de la propia realidad se tratara. Embael se maravillaba ante el hecho de que la realidad pudiese obedecer reglas matemáticas y eso, para él, era una prueba de que la realidad “emanaba del número”.

[…] disponían de las cuatro formas tradicionales de pronombres interrogativos pero, y esto es de suma importancia, tenían una quinta: “Mba’rain”. No he acertado a entender qué puede significar a pesar de que los inké la utilizan muchísimo, tanto en sus conversaciones habituales, como en sus largas disertaciones y en sus frecuentes rituales. Pero es que tener un nuevo pronombre interrogativo te permite preguntarte, y por lo tanto descubrir, una nueva sección de la realidad. Los inké tenían acceso a una realidad que el resto de lo humanos no tenemos.

[…] parecía paradójico el hecho de que mientras mostraban un desarrollo religioso y filosófico a años luz de los pueblos vecinos, no ocurría lo mismo con su desarrollo tecnológico. Es más, estaban incluso más atrasados. Únicamente utilizaban arcos y flechas para cazar, actividad que realizaban con muchísima menos asiduidad que la mayoría de los otros pueblos . Su pericia en la caza también era inferior. Los inké son malos cazadores. Su alimentación estaba mucho más basada en la recolección, lo que hacía que el hambre fuera algo bastante común entre ellos, no obstante que no parecía importarles demasiado. El ayuno como ritual religioso estaba a la orden del día. Así, la mayoría de los inké estaba flacucho y famélico. Tampoco disponían de muchos útiles de cocina ni de herramientas de ningún tipo. Parecía como si el hecho de dedicar tanto tiempo y esfuerzo al mundo espiritual les hubiera hecho descuidar el mundo práctico. Parecía que vivían más en otro mundo que en éste.

[…] y es que los síntomas del síndrome de Gastaut-Geschwind encajaban perfectamente con todo lo que estamos contando: hiperreligiosidad, hipergrafía, preocupaciones filosóficas excesivas, e hiposexualidad. Lo extraño es que este síndrome es muy raro y nunca se ha documentado un caso en el que muchos individuos lo posean a la vez. La única explicación posible es la genética. Siento no poderles ofrecer datos genéticos en estos momentos porque el análisis del genoma de los inké está todavía realizándose en laboratorios de la Universidad de Reading.

[…] Costó más de cuatro meses trasladar la enorme máquina de tomografía por emisión de positrones a lo más profundo de la selva amazónica. De hecho, esto triplicó el presupuesto que la universidad me concedió para mi investigación, pero creo que mereció la pena, porque, señoras y señores, gracias a la observación del cerebro de los inké, creo estar ante uno de los acontecimientos científicos más importantes en lo que va de siglo: el descubrimiento de una nueva especie dentro del género homo. Los inké tienen un cerebro tan diferente al nuestro que creo que es lícito hablar de una nueva especie. En primer lugar, la corteza ventromedial postorbital es morfológicamente diferente y más grande que la nuestra. Del mismo modo, el área de Brodmann 25 es prácticamente inexistente, lo que quizá podría explicar el hecho de que los inké siempre se encontraran en un estado de ánimo muy sosegado, prácticamente estoico. Y, lo más importante, tienen una estructura completamente nueva: en el lóbulo frontal del hemisferio izquierdo, pegada a la cisura longitudinal, justo encima de las fibras comisurales del cuerpo calloso, existía una protuberancia de casi dos centímetros de tamaño. Cuando observábamos a los inké mediante la tomografía por emisión de positrones veíamos que esa zona se activaba muchísimo cuando hacían reflexiones metafísicas. Es más, cuanto más incomprensibles eran para mí esas reflexiones, más actividad mostraba esa zona. También se activaba mucho cuando los inké tenían ataques epilépticos, y es que esa zona estaba muy conectada con diversas zonas del lóbulo temporal que eran las que, precisamente, se volvían locas durante los ataques. El mismo cambio genético que había producido el síndrome de Gastaut-Geschwind estaba detrás de la aparición de una nueva región cerebral.

[…] Mi hipótesis, y sé que es muy arriesgada, es que esa nueva zona, a la que he llamado corpus philosophorum, dota a los inké de nuevas habilidades intelectuales. Precisamente, ese quinto pronombre interrogativo “Mba’rain” y toda la teoría que los inké hacían girar en torno a él y que, lógicamente, yo fui incapaz de entender, procede de la activación de ese corpus. El desarrollo de una nueva área cerebral ha permitido a los inké llevar su actividad metafísica a otro nivel diferente al de nuestra especie que, desgraciadamente, estará siempre vetado para nosotros. Por ilustrarlo con un ejemplo: la metafísica de los inké es para nosotros como la resolución de ecuaciones de segundo grado para los chimpancés. Por muchos esfuerzos que hicieras para explicarle a un chimpancé a resolver ecuaciones, jamás lo conseguiría, porque biológicamente no está capacitado para ello.

Los inké habían desarrollado teorías metafísicas y teológicas de la realidad, cuya única explicación es el desarrollo de nuevas áreas cerebrales. Piensen, damas y caballeros, ¿cómo es posible que una minúscula tribu perdida en el Amazonas pueda desarrollar esas teorías en la soledad de la selva, sin influencias culturales del exterior? ¿Cómo es posible que hayan desarrollado ideas que, en Occidente, costaron milenios de progreso cultural? Los inké debatían sobre la posibilidad del libre albedrío en un universo determinista, sobre si era lógicamente posible la omnipotencia divina, o sobre la anterioridad o posterioridad de la causa sobre el efecto. Una noche, un anciano levantó una piedra y nos dijo que la observáramos. Después dijo solemnemente que esa roca era el centro exacto del universo, y nos invitó a que le diéramos todas las razones que se nos ocurrieran en contra de esa idea ¿Cómo es posible si quiera que un indígena amazónico pudiera ubicar la totalidad del universo en un espacio? ¿Cómo es posible que luego pensara en que ese espacio debería tener un centro y se preguntara sobre él? ¿De dónde sacó las herramientas cognitivas para hacerlo?

Y, permítanme unas reflexiones a este respecto porque quizá de tanto tiempo con ellos se me pegó cierta querencia filosófica. Los inké han desarrollado su cerebro y han podido hacerse preguntas que nosotros no podemos imaginar. La cuestión que surge naturalmente después es: ¿Cuántas regiones del cerebro nos quedarían más para comprender la auténtica realidad? ¿Nuestro cerebro está ya cerca de ser lo suficientemente evolucionado para conseguirlo? ¿O estamos tan lejos como podría estar una hormiga de comprender la teoría de supercuerdas? O, ¿sencillamente, la realidad es inagotable y, por mucho que se modificara nuestro cerebro jamás llegaríamos a entenderla? O, y esta es mi reflexión más inquietante: ¿y si tanto las preguntas como las respuestas son solo productos de mi cerebro que, realmente, no tienen ningún sentido? Piensen, por ejemplo, en una cultura completamente opuesta a los inké que, en vez de desarrollar su mente metafísica hubiesen desarrollado su mente práctica pero, a su vez, hubiesen perdido las partes del cerebro propias del pensamiento especulativo. Serían unan cultura de grandísimos ingenieros que habrían construido máquinas de todo tipo, pero serían completamente incapaces de entender la pregunta por el sentido de la existencia. Para ellos no tendría sentido preguntarse por si la vida de cada uno es absurda o no. Pero, profundicemos: ¿Y si tuviesen razón? ¿y si, realmente, es absurdo preguntárselo porque esa pregunta solo viene dada por el capricho evolutivo de un área de nuestro cerebro?

Desgraciadamente, cuatro años después de las conferencias de Brown en Londrés, los inké desaparecieron de una forma, como no podía ser de otra manera, sorprendente. En el verano de 2025 estallaron una serie de guerras tribales en el Mato Grosso. Los inké no tenían demasiados aliados por su habitual conducta solitaria y hostil, además de que su pericia guerrera iba a la par de su escasa habilidad cazadora. Así, sus posibilidades eran a priori pocas, pero es que ni siquiera lo intentaron. Cuando un grupo armado de awás entró en la aldea se produjo la masacre. Los inké ni huyeron ni, prácticamente, ofrecieron resistencia. Se dejaron matar, seguramente, como ofrenda a sus dioses en alguna incomprensible especie de suicidio ritual.

El profesor Brown, ya octogenario, murió siete meses después de la desaparición de los inké. Sin sujetos experimentales, sus valientes hipótesis no pudieron reproducirse, y en unos años, el supuesto descubrimiento de una nueva especie humana quedó olvidado. A día de hoy todo ha quedado como una anécdota, meras fantasías de un excéntrico antropólogo, cuando no mera charlatanería.

Nota: el grupo de Facebook sobre Filosofía de la Inteligencia Artificial tiene casi dos mil miembros, ¡Apúntate!

Ya está disponible en Amazon en formato e-book por el irrisorio precio de tres euritos (La versión en papel está tramitándose y costará cinco euros). En Coordendas he recopilado las mejores entradas de este blog, junto con más artículos publicados en otros lugares de la red, desde el 2012 al 2016.  Lo he dividido en cuatro secciones: una primera trata sobre la revolución darwiniana (ya sabéis que creo que todavía no hemos tocado ni la superficie de lo que significa la evolución biológica y el gigantesco cambio que supone con respecto a la visión de nosotros mismos), una segunda sobre los avances que se están dando en neurociencias, otra tercera sobre cuestiones cruciales de filosofía de la ciencia, y una cuarta dividida en dos: un extenso artículo que aborda el tema del determinismo y la aleatoriedad (lo publiqué en Hypérbole y se tituló: “Jugando con Dios al Craps”), y otro que habla del gran tema de nuestro tiempo: la Inteligencia Artificial (se trata de una pequeña pero fecunda historia de la disciplina).

En fin, animaos y compradlo pues… ¿qué se puede hacer mejor en la playa que leer la Máquina de Von Neumann?

 

Os dejo el vídeo de la mesa de debate que hicimos en el edificio de Elzaburu en Madrid. Cuando lo he vuelto a ver me ha parecido más interesante aún que cuando estuve allí. Y es que el plantel de expertos es bastante bueno… y si estoy ya es insuperable 😉

La idea que defendí es una de las tesis centrales de Harari en Homo Deus: el fin del liberalismo a manos de las nuevas tecnologías. El fin de nuestro sistema económico-político no va a venir de la mano de los críticos del sistema. El marxismo, con todas sus matizaciones, con todas sus variantes y reformulaciones no ha podido hacer, ni hará, ni cosquillas, al neoliberalismo. El fin de nuestro sistema vendrá por otro lado: de la mano de la revolución tecnológica ¿Cómo?

El liberalismo moderno está basado en la idea de la sacralización del individuo. Y la cualidad más esencial, y por lo tanto valiosa, de ese individuo es su capacidad de elección libre. Entonces, dicho individuo tiene que vivir en un sistema democrático (ya que ha tener la libertad de autogobernarse a sí mismo, tachando de dictatorial cualquier forma de gobierno que sacrifique al individuo en pro de alguna causa mayor como, por ejemplo, el nacionalismo en sus diferentes estilos. Curioso que hoy en día las posturas nacionalistas tengan cierta fuerza) y en un sistema capitalista (tiene que tener libertad para producir pero, sobre todo, para consumir). Por lo tanto, el sistema se fundamenta en la libertad de votantes y consumidores, y si esa desaparece el sistema se derrumba ¿Está desapareciendo?

Nosotros aceptamos que los políticos nos mientan. No nos gusta, de hecho, nos asquea profundamente y gran parte de la apatía política que hoy existe viene de ese desencanto hacia esos mentirosos profesionales que, constantemente, dicen y se desdicen en un bucle patético. Sin embargo, lo aceptamos porque pensamos que el sistema democrático nos trae una serie de ventajas que compensan, con creces, este defecto. Para mí, la principal virtud es que la democracia facilita un mecanismo no violento de alcanzar el poder. En cualquier época histórica no democrática (es decir, en casi toda la historia de la humanidad) si querías gobernar debías quitar por la fuerza al gobernador vigente, y así la historia de nuestra especie es una historia de guerras y guerras y más guerras. La democracia minimiza esto y ya por eso merece, con mucho, la pena.

Sin embargo, nuevas tecnologías están dañando la idea de libertad del sujeto. Bueno, la libertad del sujeto está ya bastante dañada, sencillamente, porque el sujeto no es, para nada, libre, como ya hemos argumentado en muchas ocasiones. No obstante, por mor de la argumentación, vamos a aceptar que el sujeto elige libremente pero que puede ser manipulado, y que un alto nivel de manipulación invalida la libre elección. Entonces, aceptamos un “poquito” de manipulación (la que hacen los políticos), pero demasiada ya no sería aceptable ya que eso significaría que el individuo ha sido engañado y que su voto, en cierto sentido, no ha sido libre ¿Y cómo daña las nuevas tecnologías esto? Aquí entra Cambridge Analytica.

Christopher Wiley,  que parece sacado de un comic cyberpunk (la realidad siempre supera a la ficción), nos ha contado estos días como se elevaba el arte de la manipulación a niveles jamás vistos. Usando el enorme agujero en la seguridad de protección de datos de Fabebook, el análisis de la personalidad a partir de los likes de Facebook iniciado por Kosinski y Stillwell en Cambridge, y técnicas de microtargeting publicitario, la empresa Cambridge Analytica manipuló a más de ochenta millones de personas para votar a favor de Donald Trump o del Brexit (todo mejor explicado en mi ponencia que empieza a partir del minuto 23).  Según sostiene el mismo Wiley, sin la actuación de Cambridge Analytica la victoria de Trump y del Brexit no hubiesen sido tales… entonces, ¿no estamos hablando de fraude electoral en toda regla? ¿Qué legitimidad tienen esos resultados electorales? Pero, fijaos en el asunto porque es muy diferente a otros tipos de tongo electoral: aquí no se ha hecho trampas en el sentido clásico del término: no se obligo a nadie a votar nada en contra de su voluntad ni se falsificaron papeletas ni nada por el estilo. La gente votó felizmente, pensando en que lo hacían libremente. Entonces estamos hablando de un fraude electoral en unas elecciones en las que los votantes votaron libremente… ¿qué diablos significa eso? Que la libertad, fundamento básico del liberalismo, se cae y con ella se cae todo.

No obstante, creo que Wiley exagera un poco. No creo que las herramientas de las que dispuso Cambridge Analytica sean tan potentes a la hora de influenciar en el electorado y que, por tanto, hayan sido tan determinantes en las elecciones donde se utilizaron. Pero eso no quita que en un futuro, bastante próximo, este tipo de técnicas se vayan perfeccionando hasta llegar a niveles de manipulación del votante que nadie estaría dispuesto a aceptar. Véase en el vídeo cuando expongo la “hipótesis de la corbata amarilla” (a partir del minuto 33).

¿Soluciones? Lamentablemente, las medidas legales siempre van muy detrás de los rapidísimos avances tecnológicos (más con la habitual ineptitud de la clase política). El nuevo reglamento europeo (el latoso RGPD) ha mejorado el control de los usuarios sobre sus datos pero todavía se queda muy corto en muchos aspectos y, muy pronto, veremos ya las argucias de las empresas para saltárselo. Como bien subrayaba Elena Gil es muy importante formar en una ética del diseño (que no aparece ni lo más mínimo en ningún plan de estudios de ingeniería), y como bien subrayaba Marlon Molina, una petición de responsabilidades bien delimitada por capas parece una idea muy sensata para afrontar la dificultad que supone la dispersión de la responsabilidad en grandes proyectos empresariales. De la misma forma, que la actividad del programador informático estuviese colegiada tampoco sería una mala propuesta. En el fondo estamos como siempre: un liberalismo económico voraz y descontrolado que pide a gritos una regulación.

Me lleva llamando mucho tiempo la atención la falta de ética generalizada en el sector ingenieril. Recuerdo una vez, discutiendo con un neoliberal, que cuando le hablaba de que la economía debería estar supervisada por la ética me respondió que si yo pretendía convertir la economía en una sharia. O sea, que si hablamos de ética ya somos una especie de… ¡fundamentalistas religiosos!  Y es que los ingenieros están imbuidos en el ethos del mundo empresarial, el cual, como todos sabemos, es de todo menos ético. Así que ingenieros del mundo, por favor, a ver si somos un poquitín más buena gente, y vamos diseñando cosas no tanto para forrarnos como para hacer del mundo un lugar algo mejor. Simon Roses… ¡No trabajes más para DARPA!

Algo de activismo majo al respecto: Tristan Harris, antiguo responsable de diseño ético de Google que se fue de allí espantado viendo lo que realmente había, y otros desertores del sistema, han fundado el Center of Human Technology. Algo es algo.

Hay algo muy siniestro en estas imágenes. Y no es que me quiera poner tecnófobo pero a mí, el hecho de que estas caras no representen a nadie, que sean un retrato hiperrealista de… absolutamente nadie, me da un poco de repelús. El efecto del valle inquietante se me antoja muy fuerte en ellas. Resulta muy difícil hacerle creer a mi cerebro que esas personas no existen, y todo esto me hace plantearme si, en un futuro, nos será cómodo relacionarnos con inteligencias artificiales visualmente indistinguibles de un humano real. No sé, poniéndome muy sci-fi, pienso en estos rostros como los de los nuevos seres que vienen a sustituirnos… ¡Qué miedo!

Bobadas de nerd. Terminaremos por adaptarnos a ellas sin el más mínimo problema, igual que mi hija se ha adaptado muy bien (quizá demasiado) a que el móvil hable o a que seres animados obedezcan a sus dedos en una pantalla táctil. Somos una especie sumamente adaptable a nuevas realidades y relacionarnos con máquinas indistinguibles de humanos no supondrá nada diferente. Al igual que hoy en día no existe demasiado problema en no saber la tendencia sexual de alguien solo con verlo, podría llegar el momento en el que no pase nada por no saber si con quien hablas es una IA o un humano. A lo mejor llegamos a un futuro en el que se estipule el derecho de las IA a no tener que definir su verdadera naturaleza para no ser discriminadas ¿Quién sabe?

Volvamos a la realidad: ¿Cómo las han hecho? Los ingenieros de NVDIA han utilizado las redes generativas adversarias (GAN) de Ian Goodfellow. Tenemos dos redes de-convolucionales (redes convolucionales invertidas), que juegan al ratón y al gato. Una genera rostros y la otra juzga la calidad de éstos, de modo que la primera intenta, a cada iteración, que la segunda no sea capaz de discernir si el rostro es real o no, mientras que la segunda es, a cada iteración, “mejor policía” identificando rostros falsos. Al final de esa competición tenemos rostros sumamente realistas que pasarían, como podemos ver, el Test de Turing de los rostros sin el mayor problema( Aquí nos explican muy bien cómo funcionan).


Somos excepcionalmente buenos reconociendo rostros. Igual que nuestra memoria para recordar los nombres de las personas que acabamos de conocer es muy mala, la de reconocer sus caras es excelente. Así, aunque no sepamos el nombre de alguien sí que solemos decir “su cara me suena”.

Durante mucho tiempo se pensó en la hipótesis de la célula de la abuela (también llamada neurona de Jennifer Aniston tras los estudios de Rodrigo Quiroga), sosteniendo que teníamos una neurona especializada en el reconocimiento de cada rostro que conocíamos. Tendríamos una neurona sólo para reconocer a Justin Bieber a Cristiano Ronaldo, a cada uno de nuestros amigos y, por supuesto, para nuestra abuelita. Pero la solución parecía poco elegante: ¿disponemos de un “almacén” de neuronas “vírgenes” a la espera de cada rostro que, potencialmente, pueda conocer en mi vida? Parece muy poco elegante aunque hay evidencia a favor (véanse los experimentos del equipo de Christof Koch, mentor de Quiroga), pero quizá se pueden ver las cosas de otra forma…

Los biólogos del Caltech Doris Tsao y Steven Le Chang establecieron un espacio de cincuenta dimensiones al que llamaron “espacio facial”. De esas cincuenta, destinaron la mitad a parámetros longitudinales de la cara (distancia entre los ojos, anchura de la nariz, etc.), y la otra a aspectos cualitativos (colores, texturas, etc.). Con ellos se pueden describir potencialmente cualquier nuevo rostro que uno pueda conocer. Por así decirlo, este espacio es una excelente “gramática generativa de rostros”. Para trabajar con un espacio así solo se necesita una red neuronal artificial de poco más de doscientas neuronas (concretamente 205)… y, ¡tachán, tachán! los resultados fueron bastante espectaculares.

Se monitorizó la actividad eléctrica de las áreas faciales de macacos mientras contemplaban imágenes de rostros y a partir de ella y con su “espacio facial”, el equipo de Tsao podía predecir el rostro que veía el mono con una gran precisión; incluso lo podía reconstruir hasta hacerlo indistinguible del original. Así, las neuronas no codificarían cada rostro, ni siquiera un rasgo concreto de cada rostro, sino solo un vector en ese espacio de cincuenta dimensiones. En la imagen vemos la enorme precisión de la predicción. Es, sin duda, un nuevo logro de la IA conexionista y, a nivel más general, de la teoría computacional de la mente. Aunque, poniéndonos en el peor de los casos, estuviésemos ante una caso de infradeterminación de teorías, es decir, que obtenemos los mismos resultados que la realidad utilizando un modelo erróneo, diferente al real, sería muy absurdo pensar que la realidad funciona de un modo radicalmente diferente a nuestro modelo. En el peor de los casos, por ahí deben ir los tiros. A día de hoy, negar que el cerebro procesa información va siendo cada vez más difícil. Nota final: y si generar caras mediante IA parece fascinante, Microsoft ya tiene lista una herramienta que genera imágenes de cualquier tipo a partir de instrucciones de texto:

Dan Dennett escribió en 1984 un ensayo titulado “Cognitive wheels: the frame problem of AI”, en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que “todos los cisnes son blancos” y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: “Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia”. Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

“Si llegas después de las siete estarás llegando tarde”

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

“Si y sólo si llegas después de las siete estarás llegando tarde”

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

 

Estimados lectores, en primer lugar disculparme por el tiempo que llevo sin actualizar el blog. Nunca he estado tanto tiempo sin escribir en él pero tengo escusas: el nacimiento (y posterior crianza) de mi segunda criatura y la realización de un máster, muy chulo por cierto, en Ciencias Cognitivas por la Universidad de Málaga. Ambos quehaceres me han quitado el tiempo necesario para escribir aquí lo que debiera. No obstante, no preocuparse porque tengo ya varias entradas por la mitad, que en breve saldrán a la luz.

Y, en segundo lugar, el gran Antonio Orbe me ha invitado a participar en un ciclo de debates del Foro del Futuro Próximo. Hablaremos de ética y Big Data, es decir, de todos la problemas que va a traer (y ya está trayendo) esta nueva y potente tecnología. Yo, os adelanto, hablaré de Cambridge Analytica, del peculiar Christopher Wylie y de cómo  el Big Data puede hacer tambalear los fundamentos de nuestros sistemas democráticos. También me gustaría hablar de qué consecuencias podrían tener las nuevas técnicas de tratamiento de imágenes que el deep learning ha estado pariendo en los últimos meses… ¡dan miedo! ¡Black Mirror está aquí!

Así que os invito a venir. Será el miércoles a las 18:00 horas en el salón de actos de ELZABURU (Calle Miguel Ángel, 21, Madrid). Lo guay de los ciclos de debate que monta Antonio Orbe es que las ponencias son muy cortas (10 minutos) y todo lo demás es debate entre los ponentes y el público, lo que hace que todo sea mucho más dinámico y divertido. Además, los ponentes han sido elegidos para formar un grupo heterogéneo: tenemos a un ingeniero a la última en todo tipo de tecnologías de la información, a un experto en ciberseguridad, a una abogada y a un filósofo… ¿Qué puede salir mal? Desde ópticas tan diferentes, en seguida surgen discusiones apasionadas (y apasionantes). Lo vamos a pasar muy bien.

Os dejo un vídeo muy instructivo como adelanto: ¿Puede Cambridge Analytica ganar elecciones?

Es tan conocidísimo el argumento de Searle conocido como la habitación china (también la caja o la pieza china) que casi no merece la pena soltar el rollo de volverlo a explicar, pero, por si acaso hay algún despistado, lo volveremos hacer. Searle hace una comparación entre un supuesto computador que supera el test de Turing y una curiosa situación: imaginemos a un hombre que se encuentra en una habitación en la que hay una ventana. A través de esa ventana recibe frases escritas en chino. Él no tiene idea de chino, pero dispone de un libro con una serie de instrucciones escritas en inglés (su lengua materna) en las que se indica qué frases hay que decir ante cualquier frase en chino que uno reciba, de tal modo que la persona que se encuentre al otro lado de la ventana no sabría decir si está hablando con una persona que habla chino o no. Lo que Searle pretende argumentar es que el operario de la habitación no comprende chino, solo sabe un tipo de sintaxis, juntar símbolos con otros de una determinada manera y, sin embargo, parece que lo comprende, por lo que el test de Turing no es válido para determinar si un ordenador piensa o no. Para Searle, pensar tiene que ver con comprender, es decir, con conocer una cierta semántica. Las computadoras solo saben de sintaxis, de unir o separar unos símbolos con otros siguiendo unas reglas marcadas, nada más, y eso no es realmente entender nada.

Durante mucho tiempo este argumento me pareció inapelable y lo utilizaba con asiduidad para criticar las pretenciosas afirmaciones de los entusiastas de la Inteligencia Artificial. Sin embargo, hace poco descubrí el error que encierra (y me sorprendí de cómo no lo había descubierto antes. Quizá porque estaba hechizado con la brillante y sencilla prosa de Searle) y también descubrí que, para desgracia de mi descubrimiento, ya se habían escrito toneladas de artículos en esa línea. Y es que el argumento de Searle ya tiene unos cuantos añitos. No obstante, como después explicaré, el error es solo en una de las tesis que Searle deriva del argumento, siendo lo demás correcto, porque sigo pensando que, en términos generales, el argumento de Searle es correcto.

El error está en que no se pueden separar taxativamente sintaxis y semántica, es más, no se pueden separar ni siquiera un milímetro, ya que la una sin la otra no tienen ningún sentido. Supongamos que estamos usando la habitación china y cualquiera de nosotros es su operario. Entonces recibimos este mensaje:

早安

Esto es “Buenos días” en chino tradicional. ¿Qué instrucción pone en nuestro libro que respondamos y por qué? Podría haber muchas respuestas posibles pero una de ellas de puro sentido común sería que devolviéramos el saludo:

早安

¿Por qué devolver el saludo es una buena respuesta que nos llevaría por buen camino para superar el test de Turing? Para devolver el saludo necesitamos una información previa que no puede reducirse a mera sintaxis: necesitamos saber que cuando alguien te saluda es habitual devolver el saludo, es decir, necesitamos comprender el contexto, las circunstancias en donde se da esa frase en chino, y eso es un elemento metalingüístico o metasintáctico que no obedece a una sintaxis determinada.

Por ejemplo, cuando el saludo no se da al principio de la conversación sino al final o en medio, esto suele indicar que la conversación se termina. Quizá nuestro interlocutor se ha sentido ofendido por algo que dijimos y quiere finalizar la conversación de un modo educado pero cortante.  O, quizá, nuestro interlocutor es un desconocido que solo nos quiere saludar por educación pero no quiere comenzar conversación alguna ya que no nos conoce. ¿Cómo saber esto? Sólo comprendiendo el contexto, huelga decir, sabiendo semántica. Entonces, para pasar el test de Turing, necesariamente, tenemos que enseñar semántica a nuestra habitación china. Las reglas que el operador de la habitación maneja deben incorporar semántica para que puedan superar el test de Turing

Para desgracia del argumento de Searle, podríamos enseñar a un computador semántica. No habría ningún problema (a priori) en enseñar a la máquina a saber qué puede significar una proposición dado un contexto dado puesto que podríamos traducir la semántica a sintaxis. Si la semántica puede reducirse a reglas no hay impedimento. En el ejemplo podríamos introducir en el programa las diferentes situaciones en las que puede darse un saludo y establecer nuevas reglas dado el contexto anterior o futuro de la conversación. El problema (ahora sí, a posteriori) es la enorme riqueza de los contextos en donde puede darse una conversación. Llegamos al frame problem, del que pronto hablaremos en otra entrada.

Sin embargo, para lo que el argumento de la habitación china sí que tiene clara validez es en dos sentidos: uno es para hablar de la consciencia o de los qualia. Podríamos tener una máquina que comprendiera muy bien el contexto de las afirmaciones de una conversación y que pudiera pasar el test de Turing, pero eso no indicaría nada sobre su consciencia. La máquina seguiría siendo tan inconsciente de sus acciones como lo es mi tostador sobre el estado de las tostadas. Y en otro acerca de lo que hacen las computadoras actuales con respecto a lo que pasa en mi cerebro cuando pienso: no es lo mismo. Un programa de ajedrez no hace lo mismo que yo cuando decide mover una pieza en el tablero y una calculadora no hace lo mismo que yo cuando realiza una multiplicación. Y con respecto al lenguaje, programas clásicos como la Eliza de Weizenbaum o la Siri de los Iphone no hacen lo mismo que nosotros cuando se comunican con nosotros. Las analogías que puedan encontrarse no son, ni de lejos, suficientes para decir que las máquinas piensan si por pensar nos referimos a cómo lo hacemos los seres humanos.

En palabras de de Jerry Kaplan:

Searle argumenta que, en realidad, éstas deben ser cosas distintas, pero simplemente no entendemos aún lo que está haciendo el cerebro. Es importante entender qué no está diciendo. No está afirmando ninguna propiedad mágica de la mente humana que transcienda el ámbito de la ciencia: sus pies están firmemente plantados en el suelo, con un creencia en el mundo físico como (en su mayor parte) determinista, sujeto a medición y a explicación racional. Sólo está diciendo que en nuestros cerebros ocurre algo que aún no entendemos y que, cuando lo consigamos (lo cual acepta como probable), se aclarará el camino para una explicación satisfactoria de lo que él cree que son fenómenos exclusivamente humanos; no sólo “pensar”, sino también la consciencia, la sensación de experimentar cosas (lo que los filósofos llaman “qualia”), la percepción, etc. Tampoco está afirmando que un programa informático nunca pueda realizar ninguna tarea concreta; ya sea pintar bellos cuadros, descubrir leyes de la naturaleza o consolarnos por la muerte de un ser querido. Pero él cree que el programa está simulando el pensamiento, no duplicando el proceso que tiene lugar en las mentes humanas cuando se implican en estas actividades. Para Searle, un piano informático no está haciendo lo mismo que un maestro de la música, cuando ejecutan un concierto de Rachmaninoff, aunque suene igual. Resumiendo, Searle dice que, en lo relativo a los ordenadores, al menos tal como existen en la actualidad, nadie tiene toda la razón.

Y es que, ya lo he dicho cientos de veces, el problema de la Inteligencia Artificial no es fabricar agentes inteligentes (lo cual ya lo hace con mucho éxito en algunos casos), sino agentes conscientes o sintientes. La AI ya ha fabricado inteligencia, lo que hace falta es que fabrique mentes.

P. D. : Por si aún no lo habéis leído, hace poco me han publicado un artículo mucho más extenso sobre estos temas en Xataka.

En 2015, la psicóloga cognitiva Roberta Sellaro y su equipo de la Universidad de Leyden, sometieron a una serie de sesenta estudiantes a estimulación craneal de corriente directa (tDCS). Concretamente les estimularon sus cortezas prefrontales mediales, una zona del cerebro relacionada con la capacidad para contrarrestar sesgos xenófobos. Cuando está muy activa, el individuo no se deja llevar tan fácilmente por estereotipos o prejuicios hacia personas que no pertenecen a su propio grupo. Y, efectivamente, el experimento demostró que los individuos a los que se les estimulaba demostraban conductas menos racistas que el grupo de control a la hora de relacionar nombres con características positivas o negativas (Aquí el paper. Fuente: el muy recomendable libro Transhumanismo de Antonio Diéguez Lucena).

Conclusiones:

  1. Que nadie tenga ya en la cabeza la idea de que nuestra capacidad de elección moral es una cualidad espiritual, un don divino, independiente de la ruin y despreciable materia. La elección moral es tan abordable científicamente como la digestión o la elasticidad de los metales.
  2. La noción de libertad o libre albedrío es un residuo mítico, mera forma de hablar que no refieren a nada real. Hay que tener clara la idea de que no existe en nosotros ninguna estancia x que elige una opción sin ningún tipo de causa que le obligue necesariamente a ello. Suponerla sería aceptar la existencia de algo así como un “yo metafísico” que se salta a la torera las leyes de la física (y de la lógica, siendo un claro error categorial).
  3. Elementos como la temperatura, el ritmo circadiano, alimentación, deporte, etc. interfieren en la concentración química de neurotransmisores en nuestro cerebro y, en consecuencia, influirán determinantemente en nuestra toma de decisiones. Todos sabemos cómo cambia nuestra conducta cuando estamos enfadados, borrachos o sin dormir lo suficiente. Sería entonces, bastante interesante tener un buen control del momento y el contexto en el que decidimos, saber “automanipularnos” para tomar las mejores decisiones posibles.
  4. Supongamos que descubren un medicamento que produce una mayor activación de la corteza prefrontal medial y que, por tanto, nos vuelve menos xenófobos. Y supongamos también que pudiésemos, por ejemplo, introducir este medicamento en la composición de la Coca-cola, sin que nadie que la ingiriese notase nada extraño. Millones de personas se volverían menos xenófobas sin darse cuenta y, seguramente, habríamos conseguido un mundo mucho mejor ¿Sería ético hacer algo así?
  5. O pensemos en un criminal, un famoso líder del Ku Klux Klan quien, a pesar de ser encarcelado, no se arrepiente de sus crímenes ni renuncia a sus creencias ¿Sería ético administrarle tal medicamento? Estamos ante la siguiente dicotomía: ¿un mundo mejor rescindiendo “libre albedrío” o un mundo peor a base de respetar un concepto mítico?

He aquí lo que han desarrollado el biólogo Detlev Arendt y sus colegas. Tal como ellos lo ven, el sistema nervioso se originó dos veces; pero no quieren decir que se desarrolló por evolución en dos tipos de animales; en lugar de ello, se originó dos veces en los mismos animales, en lugares diferentes del cuerpo del animal. Imagine el lector un animal parecido a una medusa, con forma de cúpula, con una boca debajo. Un sistema nervioso evoluciona en la parte superior y capta la luz, pero no es un guía para la acción. En cambio, utiliza la luz para controlar ritmos corporales y para regular hormonas. Otro sistema nervioso surge por evolución para controlar el movimiento, inicialmente solo de la boca. Y, en algún estadio, los dos sistemas empiezan a moverse dentro del cuerpo y llegan a establecer nuevas relaciones mutuas. Arendt considera que éste es uno de los acontecimientos cruciales que hizo que los bilaterales avanzaran en el Cámbrico. Una parte del sistema de control del cuerpo se desplazó hacia la parte superior del animal, donde residía el sistema sensible a la luz. De nuevo, este sistema sensible a la luz solo guiaba cambios químicos y ciclos, no el comportamiento. Aun así, la unión de los dos sistemas nerviosos les confirió un nuevo papel.

¡Qué imagen más asombrosa!: en un largo proceso evolutivo, un cerebro que controla el movimiento se desplaza hacia la parte superior de la cabeza para encontrarse allí con algunos órganos sensibles a la luz, que se convierten en ojos.

Peter Godfrey-Smith, Otras mentes

Mi impresión es que un suceso así no ocurrió solamente dos veces, sino muchas más. Si nuestro cerebro es como una especie de caja de herramientas con múltiples y variados módulos funcionales, seguramente que muchos de ellos funcionaron con cierta independencia hasta que se encontraron con los demás y hasta que se se fueron coordinando, cada vez mejor, entre ellos mediante módulos de control superiores. El aumento de la complejidad entre la comunicación celular produciría un aumento de las formas de cooperación modulares. Pensemos que las células, sin ningún tipo de sistema nervioso, son muy capaces de comunicarse entre sí, y de trabajar en equipo, de formas bastante intrincadas. La aparición del sistemas nerviosos solo posibilitó la comunicación a larga distancia (y a una mayor velocidad). El progresivo aumento del tejido nervioso, el aumento del “cableado”, tuvo que interconectar un montón de funciones, en principio, independientes.

Más adelante, en el libro de Godfrey-Smith, se nos cuenta cómo entre los tentáculos de los pulpos y su cabeza existe muy poca conexión nerviosa, de modo que durante mucho tiempo se pensó que los tentáculos, prácticamente, operaban con total independencia de cualquier “control central”. Experimentos posteriores mostraron que no, que el pulpo puede coordinar perfectamente su vista con los movimientos tentaculares a la vez, no obstante, que éstos muestran cierta independencia, ciertos “automatismos” propios. Esto nos muestra el equilibrio central-local que se da en la mente de los octópodos y que, seguramente, se dio a lo largo de la evolución de todos los sistemas nerviosos hasta llegar al nuestro.

Otro tema, tal y como lo plantea Arendt, es más complicado: si ambos lados del animal tienen una mente propia en el sentido de poseer una consciencia fenoménica, aquí tendríamos un problema: ¿qué ocurre cuando dos consciencias se encuentran en un único organismo? Si el organismo sigue manteniendo dos consciencias que, aunque se relacionen (pensemos que podrían compartir ciertas sensaciones)  son diferentes, no parece existir problemas: dos individuos en un organismo. Sin embargo, si planteamos que ambas consciencias se fusionan en una, nos encontramos con una contradicción porque, precisamente, la consciencia se define por ser sentida por un único sujeto, siendo imposible el hecho de que dos consciencias se conviertan en una, puesto que una de las dos debería, necesariamente, desaparecer. De nuevo el hard problem.

Parménides empieza su poema siendo raptado por unas doncellas hijas del sol, que lo llevan ante la presencia de una diosa. Ésta le va a transmitir un mensaje, nada más y nada menos, que la verdad sobre el ser. En los albores de la filosofía, cuando mito y logos son todavía inseparables, el acceso a la verdad es una concesión de los dioses. Un hombre por sí solo jamás podría semejante hazaña. La verdad, la aletheia, estaba siempre oculta y para sacarla de su escondrijo era necesaria cierta iluminación divina (como bien prosiguió Agustín de Hipona en el cristianismo).

Y si llegar al conocimiento verdadero era una cuestión divina, no menos va a serlo la creación de narraciones. Los rapsodas griegos siempre pedían ayuda a las musas antes de empezar a cantar. Hesiodo dedica todo el comienzo de la Teogonía a homenajear y pedir ayuda a las musas heliconíadas y olímipicas, y  Homero empieza así la Iliada y la Odisea, pidiendo a las propias musas que canten la historia, como si fueran ellas, y no él, las auténticas autoras del relato.

La creatividad era una cualidad sobrenatural y caprichosa (nadie más caprichoso que un dios griego), que no funcionaba cuando uno quería. De aquí la simpática frase atribuida a Picasso: “Cuando la inspiración me encuentre, que me pille trabajando” ¿Y a quién suele encontrar la inspiración? No a cualquiera, solo a los artistas y a los genios (otra figura mítica que hay que bajar de su trono), solo a unas personas muy concretas capaces de contactar con los dioses. El resto de los mortales estaríamos condenados a la vida monótona y repetitiva de los mediocres.

Curiosamente, a partir del romanticismo, la creatividad se contrapuso a la racionalidad. En la reacción decimonónica contra la Ilustración, se crítico (en parte con razón) los excesos de creer que solo con la razón, solo con la lógica pura, podríamos conseguirlo todo. Los ilustrados habían olvidado una parte esencial del ser humano: las emociones. Y aquí hunde sus raíces el enfrentamiento entre ciencias y letras. El romanticismo puso por encima del científico al artista y la creatividad, cualidad más esencial del primero, se prohibió al segundo. Los de ciencias son similares a las máquinas, están dotados de una fría y precisa lógica matemática, pero carecen de emociones, carecen de creatividad (extrañamente, la creatividad se concibe como más cercana a lo afectivo que a lo racional ¿Por qué?), las musas rara vez les otorgan sus bendiciones.

Es por eso que cuando se critica lo que la IA no puede hacer, se apela muchas veces a la creatividad. Si la IA es pura racionalidad, ¿cómo va a ser creativa? Muchas veces se repite que las máquinas no pueden innovar porque solo pueden hacer para lo que han sido programadas (Es la famosa objeción de Ada Lovelace, bien respondida por Turing a mitad del siglo pasado). Entonces, la capacidad de crear se propone como uno de los grandes reductos del hombre ante la constante amenaza de ser sustituido por un computador.

Sin embargo, nada más lejos de la realidad: la creatividad no es algo mágico ni sobrenatural, es una cualidad de un organismo biológico y, por lo tanto, tan abordable científicamente como cualquier otra. Vamos a intentarlo.

Creatividad suele significar en su forma más trivial, sencillamente, sorpresa para el observador. La ocurrencia de algo inesperado, de una conducta que se sale de lo normal, se convierte automáticamente en un acto creativo.  En este sentido más burdo, creatividad significa incapacidad para predecir la conducta del otro. Si ese suceso que se sale de lo normal, hubiera sido enteramente previsto por el observador, no le parecería novedoso y, por lo tanto, no lo caracterizaría como creativo. Además, la creatividad sería aquí relativa a la capacidad de predicción o a los conocimientos del observador, no una cualidad objetiva de lo observado. Por ejemplo, si yo conozco muy poco a una persona y, de repente, la contemplo haciendo algo que se sale mucho de lo normal, podría interpretar que esa persona es creativa. Sin embargo, para otro que conociera mucho a esa misma persona, ese acto, supuestamente rupturista, podría ser algo, incluso, aburrido, ya que podría haberlo observado en muchas ocasiones anteriores en ese sujeto. Denominaremos a esta idea de creatividad creatividad subjetiva.

Con total certeza, las máquinas poseen este tipo de creatividad. Una sencilla calculadora que realiza una operación matemática lo suficientemente compleja para no ser evidente para un observador, ya sería creativa. Por ejemplo, para el común de los mortales la operación 5.789.345 multiplicado por 453, no es evidente y se necesita un rato, con lápiz y papel, para calcularla. Una calculadora la resuelve en fracciones de segundo, por lo que al mostrar el resultado al, aritméticamente torpe, operador humano, le resultará necesariamente sorprendente al ser incapaz de predecirlo a esa velocidad. Las máquinas son subjetivamente creativas.

Pero vayamos a una idea de creatividad más potente. Definámosla de forma más objetiva: la creatividad es la capacidad de crear algo genuinamente nuevo, no solo nuevo para el observador, sino nuevo para cualquier observador posible. Entonces los problemas filosóficos se disparan: ¿existe, realmente, la novedad? Si partimos de una visión determinista, de un cosmos gobernado por estrictas leyes físicas que concatenan causalmente todos los sucesos, la novedad es imposible. Aceptarla implicaría una ruptura con ese orden y sería algo así como la irrupción de algo sobrenatural que no muchos estarían dispuestos a aceptar. Para eludir este problema vamos a restringir novedoso como la generación de algo que antes no estaba (no que no pudiera predecirse que estuviera dado el determinismo universal). Es decir, algo nuevo no tiene por qué ser sorprendente, solo nuevo ¿Son las máquinas capaces de crear algo genuinamente nuevo?

La científica cognitiva británica Margaret Boden nos expone tres formas de creatividad:

  1. Creatividad combinatoria: elementos conocidos se combinan creando combinaciones novedosas (Si lo pensamos, quizá esta es la única forma posible de creatividad y podemos reducir las otras dos a ésta). Por ejemplo, la idea de pegaso es una novedosa forma de combinar las ideas de caballo y de alas. La creatividad combinatoria es trivial para cualquier programa informático desde hace muchos años. Yo mismo, jugando a programar en Java, hice un sencillo programa que generaba poemas, sencillamente, partiendo de una pequeña base de datos de palabras organizadas según criterios sintácticos (Ej.: sustantivos femeninos en singular) que se agrupaban en frases previamente estructuradas según un motor aleatorio. El resultado era sorprendentemente bueno y mi estúpido programa pasaría, sin demasiados problemas, un test de Turing poético. Problema: los resultados de la creatividad combinatoria han de ser evaluados para juzgar si son valiosos. Pensemos en el clásico ejemplo de un mono pulsando aleatoriamente las teclas de una máquina de escribir durante un tiempo infinito. Al final, conseguiría escribir el Quijote, pero haría falta alguien que evaluara todos los resultados y que identificara al Quijote como resultado valioso. El mono, por sí solo, no sabe evaluar sus resultados, igual que mi programa poeta no sabía si su poema era bueno o no. Es el problema de la relevancia del que ahora hablaremos más.
  2. Creatividad exploratoria: consiste en explorar un determinado modelo, incluso llevándolo al máximo forzando sus límites. Por ejemplo, dentro de un determinado estilo pictórico o literario, se exploran todas sus posibilidades, llegando a bordear sus fronteras. La novedad se reconocerá como una evolución del propio modelo de partida.  La creatividad exploratoria y la combinatoria son, a menudo lo mismo, pues podría entenderse que la exploratoria se agotará al probar todas las combinaciones posibles de unos elementos dados. Igualmente, la creatividad exploratoria ha sido replicada computacionalmente a un nivel, además, sobrehumano. Tenemos programas que hacen música al estilo de Chopin, Vivaldi o de Bach de forma que nadie sabría determinar si son o no obras de los autores originales (véase el programa Emmy de David Cope). También es muy interesante el proyecto Next Rembrandt  en el que se utilizó aprendizaje profundo para pintar un nuevo cuadro absolutamente indistinguible de un original (incluso emularon las pinceladas mediante impresión 3D) ¿Algún humano en la sala sabría hacer algo así?

3. Creatividad transformacional: consiste en dar el siguiente paso de la exploratoria: no solo llegar a la frontera del modelo sino traspasarla. Se trata de romper alguna de las normas propias del canon del modelo explorado (negándola, sustituyéndola, complementándola, añadiéndole otra nueva…), creando así un modelo nuevo. Por ejemplo, las vanguardias artísticas de principios del siglo XX se basaron en gran parte, de romper con cualquier normatividad del estilo clásico, creando así todos los -ismos que se desarrollaron durante el resto del siglo ¿Es la IA capaz de esta creatividad? En principio sí. Tenemos algoritmos genéticos que se modifican a sí mismos y, en base a esa modificación, pueden romper fácilmente con cualquier protocolo de actuación inicial. Al inicio y al final de esta entrada tenemos imágenes de diseños de columnas hechos mediante la arquitectura computacional de Michael Hansmeyer ¿Constituyen un nuevo estilo arquitectónico? El problema, de nuevo, está en el reconocimiento como valioso de ese nuevo resultado ¿Cómo puede saber la computadora si lo que ha creado es un verdadero nuevo estilo o es mero ruido? Otra vez nos encontramos con la relevancia.

¿Y qué es el problema de la relevancia? Es una variante del controvertido y largamente debatido frame problem (problema del marco). Por definirlo de alguna manera (muchos han dicho que el problema es, prácticamente, indefinible), diremos que viene a decir que las máquinas son especialmente torpes para identificar los elementos relevantes para solucionar un determinado problema (en breve escribiré una entrada específicamente de ello). Llevamos décadas discutiendo sobre el tema sin llegar a ninguna solución satisfactoria.

Pero podríamos abordar la cuestión desde otra perspectiva eludiendo el grueso del problema: no hace falta que solucionemos el problema del marco en su totalidad, sino solo para este problema en concreto ¡Acotemos el marco! En nuestras sociedades debe de existir algún tipo de mecanismo o procedimiento que se utilice para determinar si una novedad representa el nacimiento de un valioso nuevo estilo o si tan solo es mal arte. Basándonos en ello, podríamos construir un segundo programa que evaluara la calidad artística de las creaciones de un primero ¿Existe tal procedimiento? ¿Quién decide si algo es arte o no? ¡Ufff! Ahora nos metemos en un problema más complicado si cabe, porque tampoco existe acuerdo entre los expertos acerca de qué es y qué no es arte. Dicho de otro modo, en el estado actual del arte contemporáneo, ¡los propios humanos no han resuelto el problema de la relevancia para sí mismos!

Observemos la fuente de Duchamp, la mierda de artista de Piero Manzoni o el cuadrado negro sobre fondo blanco de Kazimir Malevich… Hoy en día se exhiben en museos y son consideradas obras de arte de pleno derecho… ¿Qué criterio se utilizó para determinar que obras así son arte y otras no?

Lo que sí podemos decir es que a nivel técnico, un computador puede hacer todo lo que un artista humano puede. No creo que exista técnica pictórica (o de cualquier tipo de arte) que no pueda ser copiada (y expandida fruto de la creatividad exploratoria) por las computadoras. Al igual que con el nuevo Rembrandt, pueden generar cualquier obra indistinguible de la original de cualquier artista existente. Por ejemplo, para un experto en arquitectura es muy difícil definir el estilo arquitectónico de las casas de la pradera de Frank Lloyd Wrigth. Sin embargo, un generador computacional emuló la “gramática creativa” de Lloyd Wrigth, diseñando una indefinida cantidad de nuevas casas que recreaban perfectamente su estilo (Koning y Eizenberg, 1981). Una versión más moderna es ArchiDNA.

Y lo que no podemos decir es lo de siempre: a pesar de que los resultados sean impresionantes, a las máquinas creativas les pasa lo mismo que a las máquinas que juegan al ajedrez o al Go:  su funcionamiento no se parece en nada al humano. Las máquinas no crean como nosotros porque la mente humana todavía es un misterio en muchísimas de sus facetas, y todavía carecemos de modelos cognitivos suficientemente potentes como para comprenderlas con claridad. Esto no quiere decir, desde luego, que en el proceso creativo existan elementos sobrenaturales o que exista algo en nuestra mente que se escapará para siempre a la ciencia. Sencillamente, el cerebro humano es, que sepamos, el objeto más complejo del universo conocido y con los nuevos, y prometedores, avances en neurociencias, y en ciencias cognitivas en general, solo hemos tocado su superficie. Queda todavía mucho para comprender el surgir de una simple emoción, cuánto más para explicar un complejo proceso de creación artístico en el que intervienen gran cantidad de procesos cognitivos, afectivos, biográficos, etc.