Podríamos imaginar que el cerebro humano estuviese compuesto de una única red neuronal global no estructurada de forma modular, es decir, sin partes especializadas en realizar tareas concretas. Las plantas tienen un tipo de estructura fractal en la que no existen de forma única órganos, ni ningún tipo de unidades funcionales especializadas: tienen muchas hojas, muchas flores, muchas raíces, etc. De este modo pueden resistir la destrucción de gran parte de su organismo antes de morir. Por el contrario, nuestro cuerpo fallece inexorablemente cuando se dañan órganos de los que sólo disponemos la unidad: corazón, hígado, páncreas, cerebro… Tener partes muy diferenciadas te hace muy sensible al fallo, mientras que si tu organismo es una constante repetición de lo mismo, la tolerancia al error es mucho más alta.

Entonces, pensemos en un cerebro no modular, un cerebro que se basa en la repetición de la misma estructura funcional (la neurona) una y otra vez. La destrucción de una de sus partes solo provocaría un degradado de la función global, pero no su total pérdida. Además, pensemos en un cerebro completamente interconectado, de modo que existen múltiples rutas alternativas de flujo de información. Si quiero mandar un mensaje de la neurona A a la B y algo daña la ruta habitual, la información siempre podría encontrar otros caminos para llegar. Además, esta estructura se parece bastante a nuestros sistemas de redes neuronales artificiales, en las que la información se guarda de un modo distribuido y no en ningún punto en concreto de la red ¡Molaría mucho que nuestro cerebro fuera así!

Eso además, pensaban Karl Lashley y Paul Weiss, dando base neuronal a la vieja tesis del ilustrado John Locke, que sostenía que somos una tabula rasa, que nuestro cerebro es, al nacer, una “hoja en blanco” indefinidamente moldeable por el aprendizaje. Lo cual, como ya escribimos en la Nueva Ilustración Evolucionista, servía como base neurológica al conductismo de Watson. Lashley hizo experimentos extirpando tejido cerebral a ratas y comprobando cómo les afectaba la pérdida a la realización de diferentes tareas. Comprobó que la localización de la pérdida no tenía importancia. Lo que, realmente, afectaba a la conducta de las ratas era únicamente la cantidad de cerebro extirpado. De aquí dedujo dos principios: acción en masa (el rendimiento cognitivo depende del rendimiento global de todo el cerebro) y equipotencialidad (cualquier parte del cerebro es capaz de realizar las tareas de las demás). El cerebro de las ratas tiene la misma estructura que los vegetales.

Las diferencias de inteligencia entre los seres humanos y el resto de los primates se explicaban, únicamente, apelando a la diferencia de volumen cerebral: más tamaño otorgaba más inteligencia. Sin embargo, aquí empezaron los problemas.  Cuando las técnicas de conteo neuronal se hicieron más precisas, se descubrió que el córtex cerebral humano tenía únicamente 1,25 veces más neuronas que el de un chimpancé, mientras que era 2,75 veces más grande. Nuestro cerebro creció de tamaño pero el aumento de neuronas no fue proporcional ¿Por qué? Porque si tu cerebro crece de tamaño, los axones de tus neuronas se hacen más largos, por lo que el impulso nervioso tarda más tiempo en llegar de una neurona a otra, lo que se traduce en lentitud y poca eficiencia. Es por ello que nuestro cerebro tuvo que especializarse localmente y hacerse modular. Un cerebro no modular sólo puede funcionar bien hasta un tamaño crítico a partir del cual se tiene que especializar.

Leamos estas reflexiones del popular cosmólogo Max Tegmark:

[…] una consciencia artificial del tamaño de un cerebro podría tener millones de veces más experiencias que nosotros por segundo, puesto que las señales electromagnéticas viajan a la velocidad de la luz, millones de veces más rápido que las señales neuronales. Sin embargo, cuanto mayor fuese la IA, más lentos tendrán que ser sus pensamientos para que la información tenga tiempo de fluir entre todas sus partes […] Así, cabria esperar que una IA “Gaia” del Tamaño de la Tierra solo tuviese unas diez experiencias conscientes por segundo, como un humano, y que una IA del tamaño de una galaxia solo pudiese tener un pensamiento global aproximadamente cada 100.000 años (por lo tanto, no más de unas cien experiencias durante toda la historia del universo transcurrida hasta ahora).

Max Tegmark, Vida 3.0

Tegmark utiliza este ejemplo para ilustrarnos sobre la lentitud de los procesos conscientes en comparación con los inconscientes. Sin embargo, podemos utilizarlo para defender la idea a la que yo quería llegar: el absurdo de una consciencia o inteligencia cósmica ¿Qué tipo de inteligencia sería aquella que tiene una experiencia consciente cada 100.000 años y que solo ha tenido unas cien en toda su vida? Por mucho que nos diera por fantasear con la posibilidad de algo así para contar relatos de ciencia ficción, la verdad es que una inteligencia con tan pocas experiencias no podría ser demasiado inteligente. Es más ¡sería muy imbécil! Para cuestiones de inteligencia el tamaño sí importa, y lo ideal para tener una inteligencia similar o superior a la nuestra es mantener un diseño optimizado entre tamaño y modularidad. Lo ideal, tal como bien expresa Tegmark, sería un tamaño aproximado al de nuestro cerebro pero con una circuitería similar a la de los computadores de silicio. Por el contrario, un tamaño gigantesco debería ser hipermodularizado para ser eficiente, tanto que no podría tener un módulo de control o mando consciente eficaz. Es más, una inteligencia del tamaño del universo tendría unos módulos tan alejados los unos de los otros que, de nuevo, su coordinación para cualquier actividad seria lentísima. Pensemos que si la información puede viajar a la velocidad de la luz, y tenemos dos módulos, uno en cada extremo del universo (visible), el mensaje tardaría noventa mil millones de años luz en llegar… ¡varias veces la edad del propio universo!

No amigos, no hay ni habrá ninguna consciencia cósmica. Otro mito heredado de mezclar las religiones tradicionales con la ciencia ficción.

Campañas contra los robots asesinos, muchos desarrolladores e investigadores diciendo que la IA puede ser un gran peligro (hace unos días lo hizo Bengio), la famosa carta del Future of Life Institute en la que personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y todo el resto de la flor y nata del stablishment tecnológico norteamericano en la que alertaban sobre el peligro de los desarrollos bélicos de la IA, e incluso el Secretario General de la ONU, Antonio Guterres, hablando de la prohibición de las LAW (Lethal Autonomous Weapons). Raymond Kurzweil escribiendo sobre la singularidad tecnológica y sobre máquinas conscientes para el 2029, Nick Bostrom alertándonos de la gravedad de los problemas a los que llegaremos cuando ocurra la “explosión de inteligencia”: momento en el que surja una IA cuya inteligencia nos supere y se dedique a hacerse más inteligente a sí misma, lo cual llevará a un proceso de crecimiento exponencial… ¡Las máquinas se harán con el mando del mundo y tendrán que decidir si somos una amenaza para ellas o no!

Mucho revuelo, pero ¿hay que tomarse esto en serio? ¿Hay que comenzar a preocuparse por la rebelión de las máquinas asesinas? Ni hablar. Veamos:

  1. No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes. Ni la más mínima. Invito al lector a que lea propuestas como CLARION, OpenCog, LIDA, etc. y que juzgue por sí mismo si son conscientes o no, o sí, al menos, están cerca de conseguirlo.
  2. En lo referente a una Inteligencia Artificial General, el asunto no está mucho mejor. Hay proyectos e ideas (véase CYC, SOAR o el actual IMPALA) pero, igualmente, están lejísimos de que podamos tener una IA capaz de acercarse a la polivalencia de nuestras mentes de primate. El Frame Problem sigue sin resolverse concluyentemente y nuestras más avanzadas arquitecturas de aprendizaje profundo tienen mucho menos sentido común que un niño de tres años.
  3. Entonces, sin base experimental ni teórica alguna… ¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores? Curiosa forma de argumentar: del conjunto vacío de premisas deducimos todo lo que nos da la gana.
  4. Es por ello que es absolutamente imposible realizar ningún tipo de predicción al respecto. Es una solemne estupidez hablar de fechas. Sería algo así como preguntarle a un hombre de la Edad Media por la aparición del vuelo a reacción. Los que se atreven a hacerlo se lo inventan sin ningún criterio, así de claro. Igual da decir 2029, 2087, 2598 o 15345.
  5. Lo que sí tenemos en IA son excelentes hiperespecialistas: inteligencias capaces de hacer a nivel sobrehumano tareas muy concretas como por ejemplo, jugar al ajedrez o al Go (actuar en entornos muy formalizados), analizar y modificar imágenes, o buscar patrones en ingentes cantidades de datos… pero nada más. Si tienes una red convolucional increíblemente buena detectando un tipo de tumor en radiografías de pulmones y quieres que aprenda otra cosa, solo tienes un camino: borrarlo todo y volver a entrenar a la red desde el principio.
  6. El deep learning ha supuesto un gran empujón a un campo que, siendo honestos, ha tenido casi más inviernos que primaveras. Las distintas versiones de Alpha (Go, Zero, Star…) son impresionantes, y el generador de textos recientemente aparecido GPT-2 es lo mejor que nunca he visto… a falta de que hagan público cómo funciona. Sin embargo, a pesar de que estos logros son alucinantes, hay que entender que la ciencia avanza, en la inmensa mayoría de los casos, a base de pequeños pasos.
  7. Se cae en un error muy común a la hora de entender el progreso científico. Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito. Así, si creamos máquinas un poquito inteligentes, en un futuro, seremos capaces de hacerlas superinteligentes… ¿Por qué? En ciencia es muy común encontrar programas de investigación muy prometedores que terminan por volverse degenerativos y abandonarse. Verdaderamente, no sabemos qué pasará con la IA al igual que no sabemos lo que pasará con ninguna otra tecnología ¿Alguien pudo predecir el éxito de Apple, Twitter, Yotube…? Como bien afirma el analista Nassim Taleb, una de las características de nuestra época es nuestra mas que patente incapacidad de predicción: sucesos altamente improbables suceden por doquier.
  8. Pero, dado que nosotros solo somos quarks organizados de una determinada manera y nuestra mente surge de colocar quarks de un determinado modo… ¿no será entonces cuestión de tiempo que descubramos tal colocación y entonces creemos una IA a imagen y semejanza de nosotros y, ya puestos, la haremos mejor que nosotros? Por supuesto, pero esta argumentación es de lo más vacío que puede decirse. No es algo muy alejado de sentenciar: todo lo que sea posible terminará por pasar. Vale, tómate un café ¿Podremos viajar más allá de la Vía Láctea y colonizar el universo? ¿Podremos hacer un zoo de dinosaurios al estilo de Parque Jurásico? ¿Podremos hacer máquinas del tiempo o teletransportarnos? En teoría no vemos que sean imposibles… ¿Centramos entonces todo el debate mediático en torno a estos temas?
  9. Andrew Ng dice que debatir ahora sobre la rebelión de las maquinas es equivalente a debatir sobre el problema de la superpoblación en Marte. Es posible que sea un tema muy interesante y evocador, pero no puede tener la cobertura mediática que se le está dando. Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo.
  10. En el fondo se está jugando con una falacia informal, la ad ignorantiam: sacar conclusiones a favor o en contra de algo por el hecho de que no se ha demostrado lo contrario. Como, en el fondo, nadie puede estar en desacuerdo con el punto 6… pues el punto 6 es cierto. Dos cosas: en primer lugar que algo sea irrefutable no quiere decir ni que sea cierto ni que merezca la pena nuestra atención. El famoso ejemplo de la tetera de Russell viene aquí a pelo: sería posible que ahora mismo en un anillo de Saturno existiera una tetera orbitando alrededor del planeta. Si alguien asegura que es absurdo que allí halla una tetera, no tenemos más que decirle que intente demostrar que no es así. Como no podrá, ya está, nuestra afirmación es verdadera. Como nadie ha demostrado que no sea posible crear una IA de inteligencia sobrehumana, la inteligencia sobrehumana llegará y, es más, se rebelará contra nosotros.
  11. La carga de la prueba la tiene siempre el que afirma: así los defensores de la rebelión de la IA deberían aportar la suficiente evidencia empírica tanto acerca de la fabricación de máquinas sobrehumanas como de la supuestamente necesaria rebelión de éstas. Como hemos afirmado en 1 y en 2, no existe tal evidencia de lo primero, cuánto menos de lo segundo: ¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física? Creo que James Cameron (Terminator) y las hermanas Wachowski (Matrix) han hecho mucho daño.
  12. Pero es que es más: existe evidencia en contra. Hay multitud de argumentos que diferencian la mente humana de un computador y que subrayan la imposible reducción de la primera al segundo. Las críticas a la IA Fuerte han llegado desde todos lados. Por citar los más notorios, tenemos el argumento de la irreductibilidad de los qualia de Nagel, la crítica desde la perspectiva heideggeriana de Dreyfus, la indecibilidad gödeliana de la mente de Roger Penrose o, para mí la más notoria, la caja china de John Searle. Creo que, a pesar de las múltiples matizaciones, no se ha conseguido refutar convincentemente a estos autores (sobre todo a Nagel y a Searle).
  13. Estos argumentos críticos tampoco llegan a imposibilitar la creación de máquinas superinteligentes o conscientes, solo sostienen que las que hay no lo son y que, por el mismo camino, no lo vamos a conseguir. Yo no tengo ni idea de cómo podrán conseguirse (tendría algún que otro premio Nobel si lo supiera), pero desde luego, estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB.
  14. La rebelión de las máquinas es un tema que puede ser evocador e interesante, incluso un magnífico campo para la reflexión filosófica y el experimento mental. No digo que no se pueda tratar. Yo lo he hecho alguna vez en el blog. Lo que sostengo es que es un tema sobredimensionado que, muchas veces, aparece en el foco de atención mediática como si fuese un problema social de primer orden que urge solucionar, cuando lo único que hay es marketing: se ha encontrado un nuevo nicho por explotar, y hay muchos libros que vender y muchas cátedras universitarias que ocupar.

Estimados lectores, ya tenéis en Amazon la tercera recopilación de las mejores entradas de este blog. Así podréis leer lo más florido de la Máquina de Von Neumann cómodamente, en formato físico. Reconozco que aunque tengo mi e-reader y las ventajas de un cacharro así son alucinantes (eso de tener una biblioteca completa metida dentro está muy bien), me sigue gustando más leer en papel, y me sigue encantando el concepto de biblioteca clásica. Me gusta ver un libro, tocarlo, olerlo… Quizá me estoy volviendo obsoleto en una época en la que todo es evanescente, en la que todo está en la nube. A lo mejor es mi querencia cartesiana de, precisamente, que exista algo fijo y estable en un mundo que fluye a una velocidad inalcanzable. O quizá es porque es muy cierto el dicho “En casa del herrero cuchara de palo”, entendiendo que un filósofo que se dedica a pensar sobre lo digital, en su casa sigue anclado a lo material. O quizá es que me he dejado contagiar de la estúpida moda vintage: videojuegos retro, vinilos y libros… El caso es que me apetece que todo lo que aquí escribo exista materialmente (No obstante, también lo podéis conseguir en e-book). Espero que lo disfrutéis. Muchas gracias por todo.

 

Supe hace unos días del oráculo de Aaronson a través de un breve artículo de Microsiervos. Se trata de un experimento sencillísimo: tienes que elegir entre pulsar la tecla “d” o la “f” las veces que quieras. El oráculo consiste en un algoritmo que intentará predecir qué tecla vas a pulsar. Ya está, no hay más ¿Una estupidez? Para nada.

La idea es la siguiente: actuar sin libertad de elección o libre albedrío suele entenderse como actuar de modo determinado por causas anteriores. En tal caso, conociendo las causas anteriores debería ser fácil predecir la futura elección. En caso contrario, no poder predecir la elección puede entenderse como evidencia a favor de que se actúa con libre albedrío. Podría objetarse que no tiene por qué: si yo me echo a la siesta todos los días a las tres de la tarde, mi conducta puede ser muy predecible pero eso no quita que yo elija libremente siempre hacer lo mismo. De acuerdo, pero de lo que trata el oráculo de Aaronson es de intentar, a propósito, no ser predecible. Si, verdaderamente, somos libres no deberíamos tener demasiados problemas en ser impredecibles, deberíamos ser buenos generando cadenas aleatorias.

Sin embargo, el oráculo parece demostrarnos lo contrario. Cuando probé la versión web de Aaronson me pareció curioso lo que me costaba generar secuencias impredecibles. La mayor parte de las veces que he jugado el oráculo me ganaba y, muchas veces, incluso con porcentajes superiores al sesenta por ciento. Bien, ¿y cómo funciona el algoritmo? Analiza las 32 posibles secuencias diferentes de cinco letras. Entonces, cuando el jugador sigue una de ellas, el algoritmo memoriza cuál ha sido la elección para, cuando vuelva a repetirse la secuencia, apostar por ella.

Casi por puro divertimento, me puse a programar en Phyton una versión con diferentes algoritmos. Y los resultados me han dejado, cuanto menos, inquieto. Mi programa está formado por cuatro algoritmos. El primero, funciona, simplemente por azar, y está implementado de modo simbólico para establecer la comparación entre los resultados del mero azar (que, evidentemente, se acercarán siempre al cincuenta por ciento) y los resultados de los demás algoritmos. La idea básica es que cualquier algoritmo que no mejore los resultados del azar no predice absolutamente nada. El segundo algoritmo (llamado Glob), sencillamente calcula cuántas veces se ha pulsado “d” y cuántas “f”, y apuesta por la letra que más veces se ha repetido. El tercero (3U) cuenta las veces que han pulsado “d” o “f” en las últimas tres jugadas, y apuesta por la que más veces se ha iterado. Y el cuarto (5U) hace lo mismo que el anterior pero contando a partir de las cinco últimas jugadas.

Os pego aquí los resultados de mi mujer:

Jugó 383 veces. El algoritmo azaroso solo acertó en torno al 51%, pero ya  Glob acertó un 56%, 5U un 64% y, lo más llamativo, 3U acertó un 70%. Todas las veces que yo he jugado los resultados han sido muy parecidos (aunque, evidentemente, para que esto tenga validez científica habría que hacer el experimento como Dios manda).

Los algoritmos de este oráculo son más simples que el de Aaronson (que tampoco es que sea muy complicado). De forma elemental, cuentan las veces que se repite un determinado resultado y apuestan por él sin más estrategia. Lo único que hacen es detectar rachas, apostar por tendencias a la repetición.  Ya es llamativo que algoritmos tan estúpidos tengan mejores resultados que el azar, pero lo tremendamente interesante es que algo tan estúpido como 3U sea tan bueno. He comparado muchas veces sus resultados con los del algoritmo de Aaronson, y 3U es muchísimo mejor. De hecho, he visto muy pocas veces a 3U bajar del 60% ¿Cómo puede ganarme una cosa tan tonta? O dicho de otro modo ¿Cómo puedo ser tan sumamente predecible?

He pensado seguir ampliando el oráculo. El mismo Aaronson nos dice que podríamos cambiar su algoritmo para secuencias de tres en vez de cinco letras, o que podríamos utilizar la cadena creada por un jugador como modelo predictivo con la esperanza de que los demás jugadores hicieran lo mismo. Sería muy interesante, y lo haremos, ir probando diferentes algoritmos y comparar los resultados (sería, cuanto menos, divertido probar uno basado en la sucesión de Fibonacci o en el triángulo de Tartaglia). Otra opción es modificar el propio juego. Lo primero que he hecho ha sido añadir una tercera letra a elegir por el jugador, para hacer más compleja la predicción. He aquí los resultados:

763 jugadas. El azar, como era de esperar, está en torno al 33% con un 31%; Glob funciona a un 38% (un 7% mejor que el azar); 5U ya empieza a ser competitivo con un 49%; y, espectacularmente, 3U sigue ganándome con más de un 55%. Si, a ojo, calculo cómo ha bajado su rendimiento del juego anterior (con solo “d” y “f”), podría rondar un 10% (de 65 a 55). Ante tres opciones, 3U me sigue ganando (aunque reconozco que yo no valdría como sujeto experimental ya que conozco su algoritmo. El esfuerzo por jugar como si no lo conociera no hace que no contamine el resultado).

Estos días ha corrido como la pólvora por la red, el vídeo de una mujer que sufría una amnesia global transitoria. Según cuenta su hija, con la que habla, mantuvo esta misma conversación en bucle durante unas nueve horas y media. Afortunadamente, tras unas veintiséis horas, la amnesia cesó y Mary Sue se ha recuperado sin secuelas apreciables.

 

Este caso, el cual no es para nada una excepción ya que los casos de amnesia anterógrada de este tipo son bastante frecuentes y están bien documentados, es muy significativo para tratar el tema que nos ocupa. El gran problema que impide resolver la cuestión de si una decisión se tomó libremente o estaba determinada de antemano, es que no podemos retroceder en el tiempo para comprobar si, verdaderamente, pudo darse otra elección diferente a la que realmente ocurrió. Sin embargo, Mary Sue, entra en una especie de bucle temporal. Al sufrir amnesia anterógrada no puede generar nuevos recuerdos, por lo que, continuamente resetea, es decir, vuelve al principio. En la excelente película de Christopher Nolan, Memento, el protagonista sufre de una dolencia parecida (si bien mucho más trágica, la suya es incurable y no desaparece a las pocas horas) y se enfrenta a una situación terrible: perdió la memoria justo en el momento en que su mujer era asesinada, por lo que continuamente vuelve al momento del asesinato. En una inconmensurable escena de la película dice “No me acuerdo de olvidarte”, haciendo referencia al hecho de que, para un enfermo de amnesia anterógrada, el tiempo no pasa y, por tanto, el tiempo no cura las heridas por lo que Leonard, el protagonista, nunca podrá superar la muerte de su esposa.

Entonces, con esta repetición temporal, tanto Mary Sue como Leonard  nos sirven para estudiar el libre albedrío. Su vuelta hacia atrás se asemeja a un viaje en el tiempo y, por ello, podemos comprobar si, ante la misma situación (la misma cadena causal desencadenante), hacen algo diferente cada vez. Y el resultado, tal y como comprobamos viendo el vídeo, es que no es así. Mary Sue repite la mismas palabras una y otra vez. Las mismas causas conectan con los mismos efectos: determinismo clásico. El oráculo de Aaronson o 3U acertarían en un 100% de los casos. No somos libres.

Y por si quedaba alguna duda, un nuevo artículo en Nature vuelve a aportar más evidencia. Utilizando resonancia magnética funcional, el equipo de Joel Pearson predecía la decisión de los sujetos experimentales, con hasta once segundos de antelación de que éstos fueran conscientes de su propia elección.

PD.: mientras no me canse, seguiré haciendo pruebas con el oráculo. Cuando refine más el programa lo subiré para que podáis jugar vosotros también.

Un titular: “Redes neuronales logran traducir pensamientos directamente en palabras”.  La noticia es de Europa Press y tiene incluido el artículo de Scientific Reports, por lo que se le presupone cierto crédito. Parece alucinante ¡Hemos sido capaces de descodificar el pensamiento humano! Jerry Fodor nos contaba que debajo del lenguaje cotidiano que utilizamos para pensar (nuestro idioma), existía una estructura más profunda (ya que existe pensamiento sin lenguaje). Hay, por así decirlo, un lenguaje en el que está programado el cerebro (Fodor lo llamó mentalés) y la tarea de todo científico cognitivo que se precie será descubrirlo. Entonces, ¿lo hemos hecho ya?

De ninguna manera. Aunque en esta noticia no veo una mala intención amarillista, una lectura descuidada puede llevar a cierto engaño.

Examinemos lo que verdaderamente nos dice la investigación. Cuando realizamos cualquier actividad cerebral ocurren procesos bio-físico-químicos variados que pueden ser registrados por diferentes técnicas de monitorización. Algunas como, por ejemplo, la resonancia magnética funcional, observan el aumento de flujo sanguíneo en una determinada región cerebral. Entonces, presuponemos que si cuando yo estoy escuchando música, esa determinada área aumenta su flujo, será porque esa zona tiene que ver con mi capacidad para escuchar música. Otros sistemas de monitorización, como el electroencefalograma, detectan las distintas ondas cerebrales que surgen de la actividad eléctrica: ondas delta, theta, alfa, beta y gamma. En el caso del estudio en cuestión se basaron en datos obtenidos por la medición de frecuencias, en concreto de bajas y altas de tipo gamma. Y lo que han hecho Nima Mesgarani y su equipo, es utilizar un cierto tipo de red natural artificial para que encuentre relaciones entre las frecuencias obtenidas y las palabras que un sujeto estaba escuchando en un determinado momento, de modo que mediante un sintetizador de voz o vocoder, la red traducía los patrones cerebrales a palabras sonoras.

El caso es que la traducción de patrones de ondas a voz puede darnos la impresión de que estamos traduciendo pensamientos (mentalés), de modo que desciframos el código secreto de nuestra mente. No, lo único que estamos haciendo es transformar huellassombras, residuos que nuestro cerebro deja cuando piensa, en palabras. Y es que hay una clara confusión. Lo que los métodos de monitorización actuales captan no son los pensamientos mismos sino, por usar una metáfora fácil, el ruido que hacen. Y ese “ruido” podría, incluso, no ser información importante para comprender lo que es el pensamiento. El patrón de ondas detectado cuando se piensa en tal o cual palabra, podría no tener ningún papel causal en todo el procedimiento cerebral mediante en el que se piensa dicha palabra, podría ser un simple epifenómeno. De hecho, el gran problema para los métodos de monitorización cerebral es que es tremendamente complejo observar en directo el funcionamiento del cerebro de alguien sin dañarlo. Por eso se buscan lo que se llaman técnicas no invasivas, pero el problema, aún sin solucionar, es que estas técnicas son todavía muy imprecisas y no nos permiten el nivel de detalle que necesitamos. A día de hoy solo escuchamos ecos, sombras de la mente, y sobre ellos solo cabe la especulación.

Lo explicaremos con una metáfora. Supongamos que tenemos un coche. No sabemos nada de cómo funciona el motor pero podemos escuchar el ruido que hace. Entonces, a partir de ese ruido entrenamos a un algoritmo matemático para que nos diga en qué marcha va el coche en un determinado momento. El algoritmo es muy preciso y no falla nunca a la hora de decir en qué marcha está.  Ipso facto, la prensa saca el titular: “Hemos descubierto el código secreto del motor de explosión y una inteligencia artificial nos permite traducir su funcionamiento”. Si lo pensamos, realmente este descubrimiento sólo nos informaría de una pequeñísima parte  del funcionamiento real de un motor (en este caso que el motor tiene marchas), pero nada de lo verdaderamente significativo: el funcionamiento del cilindro, la explosión de combustible, etc.

Para que, realmente, hubiésemos descubierto el auténtico código del cerebro, deberíamos tener una equivalencia razonable entre un proceso mental y lo que monitorizamos y, con total evidencia, aún no lo tenemos, principalmente, porque no sabemos bien qué ocurre dentro de nuestros cráneos cuando pensamos. Noticias de este tipo pueden dar la impresión de que nuestro conocimiento del cerebro es muchísimo más alto de lo que, realmente, es. Y hay que dejarlo muy, muy claro: estamos todavía, únicamente, tocando la superficie de su funcionamiento y no sabemos, prácticamente, nada.

Eso sí, esto no quita nada a la importancia del descubrimiento de Mesgarani y de su gran utilidad clínica. Será maravilloso que un paciente con síndrome de enclaustramiento pudiera comunicarse con los demás, además de que abrimos las puertas a formas de comunicación “telepáticas”, y a un enorme abanico de posibilidades en el campo de la interfaz hombre-máquina.

En el programa electoral de VOX no encontramos mucho más que una serie de soluciones simplistas, propias de una tertulia de bar después de un par de copas. Simplismos como eliminar el estado de las autonomías, poner un “muro infranqueable” en nuestras fronteras africanas, eliminar toda la ley LGTBI, etc. son clásicos eslóganes “todo o nada” que ignoran burdamente la enorme complejidad que representan los problemas de este país. Lo grave no es que sean soluciones de extrema derecha, sino que cuelen y reciban votos.

Cada partido político sabe muy bien las debilidades de sus contrincantes y los temas que hay que tocar. Así, el tema de la inmigración es un clásico de la derecha. Es muy fácil recurrir a unos sistemas límbicos diseñados para defender al igual y sospechar del diferente, para echar la culpa de todos nuestros males a los inmigrantes. Entonces se crea un muñeco de paja: la izquierda abre las fronteras de par en par creando un gran efecto llamada… Los inmigrantes nos quitan los puestos de trabajo, reciben más ayudas que nosotros, traen terrorismo y delincuencia, vienen aquí a hacer turismo sanitario, etc. Esa misma táctica la ha utilizado el independentismo y, en general, es usado por cualquier partido nacionalista o regionalista. Y lo triste es que funcione ¿Alguien cree, realmente, que los principales problemas sociales y económicos de este país se deban a la inmigración? De la misma forma, ¿algún catalán se cree que los principales problemas sociales y económicos de Cataluña se deban a su unión con el resto de España? Pues, lamentablemente, muchos parecen creérselo o, al menos, eso parecen decir las urnas. Y, quizá, lo más grave es que los mismos políticos que impulsan estas ideas se las crean. Yo prefiero que los de arriba me engañen a que sean imbéciles, pues temo más a estos últimos que a los mentirosos de toda la vida.

Son las Políticas de la Tribu: discursos que eluden nuestro neocórtex racional para ir, directamente, a nuestras entrañas paleomamíferas y reptilianas. A todos nos gusta sentirnos miembros de un grupo, hermanados con nuestros semejantes, nuestro pueblo, nuestra nación, los nuestros. Y también llevamos muy mal responsabilizarnos de nuestros fracasos si tenemos a nuestra disposición un chivo expiatorio: los otros (inmigrantes, golpistas, rojos, fachas, empresarios, mercados…). También tenemos una cierta tendencia innata a seguir a líderes carismáticos (es lo que Erich Fromm llamó miedo a la libertad), a la seguridad que nos da su fuerza, a preferir perder derechos a cambio de la supuesta  seguridad que prometen… Somos miedosos, se nos asusta fácilmente y cuando hay miedo nos agarramos a un clavo ardiendo, al primero, sea el que sea, que nos promete una solución fácil y rápida a ese sentimiento tan desagradable. Pensar es costoso y nos da pereza, por lo que preferimos que nos hablen en cristiano, de forma clara y sencilla (Solemos confundir simplicidad con franqueza y honestidad. Esa, quizá, es una de las claves del éxito de Trump) y sospechamos del lenguaje oscuro de los intelectuales (quizá por eso John Kerry perdió contra George W. Bush). Así, a nuestras entrañas les encantan políticos como Santiago Abascal o Vladimir Putin, les encantan estos machos alfa, guardianes de la manada, adalides de lo nuestro.

Es por eso muy importante el impulso de una vieja idea ya defendida hace unos años por Tony Blair: la Política Basada en Evidencias.  Muy sencillo: las políticas públicas han de estar basadas en estudios empíricos, o más técnico: hay que incorporar mucho más conocimiento a cada una de las fases de la decisión política. De este modo se quita peso a la ideología (es muy necesario matar las ideologías) y se intenta combatir esta epidemia de desinformación propia de opinólogos y tertulianos, de intelectuales orgánicos (véase el concepto de Gramsci) que defenderán contra viento y marea las decisiones del partido al que sirvan, de fake news, de eslóganes, de postverdades, y de amarillismo periodístico que asola nuestros medios.  Me encantaría que cada vez que alguien defiende tal o cual cosa, tuviera, necesariamente, que avalarlo con multitud de datos. Y es que, no entiendo muy bien por qué razón, damos valor a la mera opinión de alguien. No entiendo por qué alguien puede decir algo y avalarlo sólo con la justificación de que es su opinión. Además, y solo por eso, ¡debemos respetarla! Es decir, yo, sólo por el hecho de ser yo, tengo derecho a decir la estupidez que se me ocurra y todo el mundo tiene que respetar lo que digo. No, el derecho a la libertad de expresión y pensamiento conlleva la responsabilidad de no decir la primera ocurrencia que me venga a la cabeza, sino intentar que mi opinión se asemeje lo más posible a la verdad, es decir, que, al menos, esté bien informada.

Por poner un sencillo ejemplo, VOX habla de eliminar las autonomías no solo por contrarrestrar el independentismo, sino por la clásica tesis liberal de que hay que adelgazar al máximo el Estado: funcionarios, los mínimos posibles. Entonces se lanzan las típicas y tópicas soflamas: funcionarios vagos, ineficientes, enchufados, puestos a dedo… dibujando un país que sufre la costosa superinflación del sector público. Pues bien, si uno va a los datos ve que esto no se sostiene por ningún lado. Fuentes de la OECD nos dicen que el porcentaje de funcionarios con respecto a toda la población empleada en España es del 15,7%, en la misma línea de países tan liberales como Estados Unidos (un 15,3%) o Gran Bretaña (16,4%), y muy por debajo de las siempre ejemplares socialdemocracias nórdicas (Suecia 28,6%, Dinamarca 29,1% o Noruega 30%). Según los datos en España no hay un superávit de funcionarios.

Y también hay que tomar clara consciencia de que no hay soluciones fáciles ni simples para ningún problema ¿O es que si fuera así no se habrían solucionado ya? Hay que tener en cuenta que cualquier decisión política genera una cascada de consecuencias que son, muchas veces, muy difíciles de predecir. De la misma forma, problemas como el desempleo, el fracaso escolar, la precariedad laboral, etc. no tienen una clara y única causa, sino que son problemas multicausales que, consecuentemente, necesitan soluciones a muy diversos niveles. A mí me hace gracia como en mi entorno laboral, el educativo, se intentan solucionar todos los problemas solo a golpe de reforma educativa, solo mediante una nueva y, supuestamente milagrosa, ley. No, el problema de la educación solo puede solucionarse desde muchos niveles pues es un problema que supera, con mucho, el poder de maestros y profesores. El problema de la educación es un problema social, económico, cultural, etc. que tiene que afrontarse conjuntamente desde todos esos niveles a la vez. Tendemos a caer en un cierto solucionismo político, creyendo que los políticos son omnipotentes y que pueden solucionarlo todo por si solos (y que cuando no lo hacen es porque no quieren, ya que siguen otros intereses ocultos). No, los políticos solo pueden hacer leyes y las leyes tienen su poder, pero no pueden resolverlo todo. De hecho, de nada vale una ley si no hay una voluntad clara de cumplirse ni unas autoridades con las herramientas necesarias para hacer que se cumpla, sancionando su incumplimiento, que es lo que ocurre en España cuando el poder judicial trabaja con medios precarios.

La izquierda, desgraciadamente, ha dejado completamente estas directrices, alejándose de lo empírico para situarse casi en su opuesto dialéctico: la débil posmodernidad incapaz de cualquier respuesta firme a, prácticamente, todo, lo cual lleva, necesariamente, al neoconservadurismo que ya denunció hace tiempo Habermas. Y es que si los referentes intelectuales de la izquierda son gente como Zizek o Biung-Chul Han, mal andamos ¿De verdad que no se cansan siempre de la misma historia? No puedo entender como a estas alturas pueden defenderse planteamientos como los de Lacan, Deleuze, Althusser… retornar a postulados freudianos… y, por supuesto, renunciar a toda validación científica ya que la tecno-ciencia se considera como instrumento y parte del alienador sistema capitalista.

Por eso hace falta que la izquierda (y la derecha también) vuelva a los antiguos valores de la Ilustración de donde, supuestamente, nació el Estado Liberal de Derecho que todos disfrutamos. Coincido completamente con el espíritu de Steven Pinker en su última obra (con todos los matices a su interpretación histórica que quieran hacerse). Una buena noticia sería ver a nuestros políticos dar pasos en esa dirección y no al contrario. En el tema de Cataluña estaría muy claro: la Ilustración defendió un ideal cosmopolita alejado de los ideales nacionalistas que llegarán en el XIX y que nos llevarán a Auschwitz. Ante el independentismo no nacionalismo sino universalismo. La izquierda debería combatir con firmeza el nacionalismo ya que, precisamente, éste nació del Romanticismo, es decir, del movimiento contrailustrado por excelencia.

La derecha, en vez de radicalizarse hacia el ultrapatriotismo, debería volver a sus orígenes: el liberalismo clásico, es decir, a la defensa de la libertad del mercado y de las libertades individuales. UPyD fue un partido interesante en esa línea y, desgraciadamente, Ciudadanos podría haber sido un partido auténticamente liberal si no se hubiera escorado hacia ese nacionalismo que, paradójicamente, es idéntico al que pretende combatir. Sería muy positivo que la derecha ensayara lo que Anthony Giddens denominó la Tercera Vía, en vez de coquetear con el extremismo con tal de arañar votos.

 

Uno de los mitos de la modernidad fue la búsqueda de un punto cero, un pilar sólido, irrefutable, libre de sesgos y prejuicios, de presupuestos y de ideas infundadas. Eso fue lo que intentaron Descartes y Bacon: encontrar esa nuda veritas, certeza absoluta a partir de la cual, si utilizabas el método adecuado, el recto pensar, podrías construir la totalidad del edificio del saber. Los positivistas actuales caen de nuevo en ese mito cuando hablan de los hechos, como si éstos representaran la realidad pura (si bien lo que a mí me molesta más es caer en el otro extremo: que, a partir de aquí, se concluya con estupideces como que la verdad no existe, o que la propia ciencia es literatura). Es imposible enfrentarse a la realidad metafísicamente desnuda, pero eso no quita que existan caminos mejores que otros para acercarse a ella.

Este debate, punto central de la historia de la filosofía, me ha venido a la cabeza cuando de nuevo oigo hablar del impresionante Alpha Zero (ahora que los de Deepmind han publicado un nuevo artículo en Science), la IA de Google que, partiendo del único conocimiento básico de las reglas del ajedrez, no teniendo ni un solo dato sobre táctica, estrategia, ni alguna base de datos de partidas clásicas, machacó a uno de los mejores programas de ajedrez de la actualidad: Stockfish 8 ¿Cómo ha sido posible algo así?  Alpha Zero comienza como un niño pequeño que acaba de aprender a jugar y no sabe nada más del juego (parte de una tabula rasa). Entonces, empieza a jugar contra sí mismo, con movimientos en principio aleatorios, pero siguiendo un clásico aprendizaje reforzado: las jugadas que llevan a la victoria en una partida serán más probables en las siguientes, y las que llevan a la derrota menos.

El programa decide la jugada mediante un árbol de búsqueda de Monte Carlo (no usa la poda alfa-beta de Stockfish). Ante la insuperable explosión combinatoria que supone predecir todos los movimientos posibles desde una posición hasta el final de la partida, Alpha Zero simula y elige, aleatoriamente, solo algunas y, de entre ellas, escoge la más prometedora. Nótese que eso no le hace tomar una decisión óptima, pudiendo, perfectamente, perder muchísimas jugadas mejores e, incluso, si tuviese la mala suerte de escoger un grupo de jugadas mediocres, hacer una mala jugada. Sin embargo, para que eso no ocurra (o, al menos, no ocurra demasiadas veces), es aquí donde la red neuronal artificial profunda orienta al árbol de decisión sobre qué caminos son los mejores y cuáles son rápidamente desechables en virtud del conocimiento previo atesorado tras todas las partidas anteriores (Alpha Zero, al contrario que versiones previas que funcionaban con aprendizaje supervisado, utilizaba solo una red y no dos).

Tras solo 4 horas de auto-entrenamiento, Alpha Zero derrotó a Stockfish 8, programa con un Elo ponderado de 3.400 (El mejor jugador humano, Magnus Carlsen, tiene un Elo de 2.835 a diciembre de 2018), lo cual no deja de ser absolutamente impresionante, simplemente, como logro dentro de la creación de programas de ajedrez. En el reciente artículo se publican nuevas partidas entre ambos y los resultados no dejan lugar a dudas sobre el poder de Alpha Zero: ganaba a Stockfish incluso cuando solo contaba con una décima parte del tiempo del otro. Incluso ganó también a la nueva versión de Stockfish, la 9.

Pero lo realmente espeluznante es que Alpha Zero comenzó, valga la redundancia, de cero, solo sabiendo las reglas y nada más… Es muy instructivo el gráfico de aperturas que nos ofrecieron en el primer artículo publicado (Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm, de diciembre del 2017), en el que se ve cómo el programa va utilizando unas y rechazando otras según avanza en el juego.

Vemos como la apertura española o la defensa siciliana, tan populares entre los profesionales del ajedrez, son desechadas rápidamente, mostrando una clara predilección por la apertura inglesa y por las de peón de dama. Alpha Zero va aprendiendo en soledad las jugadas que la humanidad ha entendido tras siglos (o quizá milenios) de estudiar el ajedrez, y las desecha para jugar a su manera. Demis Hassabis dijo que Alpha Zero no juega ni como un humano ni como una máquina, sino casi como un alienígena. Y es cierto, esa forma de jugar no ha sido vista hasta la fecha y los analistas están perplejos comprobando alguna de las extrañas y, aparentemente ininteligibles, jugadas de esta singular IA. Lo cual, además, saca a la palestra el tema de las diferentes formas de inteligencia o estilos cognitivos posibles. Hasta ahora, cuando hablábamos de diferentes estructuras cognitivas, teníamos que irnos a los animales, a los que, tradicionalmente, se considera con muchos menos recursos cognitivos que nosotros. Ahora tenemos una máquina endiabladamente superior, que hace las cosas de una forma muy diferente a todo organismo conocido.

Pero es más, la interpretación más evocadora de su increíble aprendizaje es que el conocimiento humano le estorba.  Stockfish es muy bueno, pero es demasiado humano: su forma de jugar está muy lastrada por su conocimiento de partidas entre humanos. Pero, ¿y qué tiene de malo el conocimiento humano? Que su comprensión del juego está limitada por las capacidades humanas, por nuestra débil memoria y por nuestra escasa capacidad de razonamiento para componer jugadas. Alpha Zero tiene una perspectiva mucho más amplia sobre el ajedrez (se está viendo ya que parece que no valora las piezas del modo tradicional, haciendo continuos sacrificios en pos de ventajas posicionales a largo plazo).

Bien, pues preguntémosle a Alpha Zero cómo juega y mejoremos nuestro juego. No podemos, la red neuronal de Alpha Zero es una caja negra total: su conocimiento se encuentra distribuido entre los valores numéricos de los pesos de sus nodos neuronales… Abriendo su interior no podemos entender nada, pues el deep learning tiene este grave defecto: no podemos pasar su conocimiento a fórmulas lineales tal que podamos entenderlo y traducirlo en estrategias de juego. O sea, hemos creado el ente que mejor juega al ajedrez de todos los tiempos y no sabemos cómo lo hace. Solo nos queda verlo jugar y, externamente, intentar comprender por qué hace lo que hace como si observáramos a un jugador que no quisiera desvelar los secretos de su juego.

Algunos han destacado el dato de que Alpha Zero analiza solamente unas 60.000 posiciones por segundo en comparación con los 60 millones de Stockfish, anunciando, a mi juicio muy apresuradamente, el fin de la fuerza bruta. En primer lugar a mí 60.000 jugadas por segundo me sigue pareciendo fuerza bruta. No sé al lector, pero a mí en un segundo casi no me da ni para darme cuenta de que estoy jugando al ajedrez. Y en segundo, el funcionamiento de Alpha Zero es engañoso en cuanto a la potencia de cómputo que necesita. Si bien, una vez entrenado, necesita bastante menos que cualquier módulo competente de ajedrez, para su entrenamiento previo necesita muchísima. De hecho, necesita jugar muchas más partidas que cualquier gran maestro humano para llegar a su nivel.

Y es que, a nivel teórico, Alpha Zero no es demasiado novedoso. De modo muy general, no es más que un árbol de decisión que Monte Carlo (inventado desde mediados del siglo pasado) más una red neuronal convolucional que no parece tener nada fuera de lo que ya sabemos desde hace tiempo. Entonces, ¿por qué no se ha hecho antes? Precisamente porque hacía falta una potencia de cómputo de la que no se disponía. Las redes neuronales artificiales siguen teniendo el mismo defecto de siempre: su lentitud de entrenamiento, hacen falta millones de ejemplos para que vayan aprendiendo. Entonces, la fuerza bruta que no necesitan para funcionar, sí que la necesitan para entrenarse. No obstante, el avance es, a nivel práctico, muy significativo: una vez entrenado ya no necesita más de dicha potencia.

Otro aspecto, seguramente el más importante, es la polivalencia que prometen y que nos hace soñar con la añorada IAG (Inteligencia Artificial General). Alpha Zero no solo es invencible al ajedrez, sino al Go y al Shogi ¿En cuántas tareas podrán desenvolverse a nivel sobrehumano esta nueva generación de máquinas? Prudencia: las máquinas ya nos machacaban desde hace tiempo en muchas ocupaciones, siempre y cuando éstas fueran fácilmente formalizables. El ajedrez, el Go o el shogi, aunque sean juegos muy complejos, son trivialmente formalizables: tablero de juego delimitado con precisión y solo unas pocas reglas de juego, igualmente, muy precisas. En entornos más complejos y confusos  tienen problemas. A pesar de que, precisamente, la IA conexionista se mueve mejor que la simbólica en ellos, todavía tiene muchas dificultades. Pensemos que un coche autónomo, aunque sepa desenvolverse en ambientes muy cambiantes, lo único que hace es moverse por vías, habitualmente, bien delimitadas (su “micromundo” es casi  de dos dimensiones). Moverse competentemente en un determinado nicho ecológico es de lo primero que saben hacer los organismos vivos más sencillos. Aunque estamos hablando de excelentes avances, todavía queda mucho por hacer.

Desde el Círculo de Ajedrez José Raúl Capablanca, se nos presenta un problema que los módulos tradicionales no son capaces de solucionar, precisamente, porque no son capaces de planes generales a muy largo plazo ¿Sería capaz Alpha Zero de solucionarlo? Juegan blancas y ganan.

La solución en este vídeo.

 

Estoy con la versión inglesa de Real Humans y no estoy viendo nada que no haya visto antes y mucho mejor. Y que los synths (robots humanoides) parezcan maniquíes con movimientos acartonados… ¡Uffff! Bueno, le daremos unos dos, a lo sumo tres, capítulos más de oportunidad a ver si aparece algo decente.

El caso es que en Humans, y en prácticamente todas las series o películas que han tratado el tema de la IA futura repiten un tópico que es completamente falso. En todas se nos describe un mundo en el que las máquinas se han incorporado con suma normalidad a nuestra vida cotidiana. Y, en todas, se destaca el hecho de que son nuestros sirvientes y esclavos, y siempre se nos ofrece la clásica escena de un humano siendo cruel con un indefenso y sumiso robot.  Se busca que el espectador empatice con las máquinas y que, cuando éstas se rebelen, se vea bien que hay una causa justificada y que no está claro cuál es el bando de los buenos y cuál de los malos. No obstante, para no confundir a un espectador ávido de seguridades narrativas, aparte de situar con claridad meridiana a un villano evidente (los dueños de gigantescas multinacionales suelen hacer muy bien este papel), también entran en escena humanos buenos que son capaces de comprender el sufrimiento de los oprimidos electrónicos. El caso es que llega un momento en el que aparece una máquina diferente, una máquina que es capaz de sentir, de tener consciencia, de ser creativa o, vete a saber tú que indefinido factor x que adquiere, que lo hace despertar de su letargo maquinal.

Entonces, vemos variadas escenas que anuncian ese despertar. Por ejemplo, en Humans aparecen un montón de androides colocados en filas regulares (para crear la sensación de mercancía almacenada) y, aparentemente, todos ellos están apagados o desconectados. De repente, uno abre los ojos y mira la luna por una rendija abierta del techo. Ya está, está despertando, mira la luna como preguntándose por el misterio de su existencia. Ya no es una máquina, ahora ya es un humano o, incluso, algo mejor. En los siguientes episodios o escenas de la serie/película iremos contemplando el progresivo despertar de otros robots hasta llegar al clímax final: el gran enfrentamiento entre la humanidad y las máquinas ¿Será verdaderamente así cuando la auténtica consciencia artificial llegue a nuestro mundo? Rotundamente NO.

La razón es bastante clara. El día en que seamos capaces de crear consciencia sintética, momento, por cierto, bastante lejano dado el actual estado del arte, y consigamos que una máquina u organismo artificial del tipo que sea, pueda darse cuenta del mundo que le rodea, será porque hemos descubierto los mecanismos físico-químico-biológicos que hacen que la consciencia se genere en nuestros sistemas nerviosos. Ese día, después de décadas, o incluso siglos, de investigación del funcionamiento cerebral, seremos capaces de replicar ese mecanismo en una máquina o en cualquier sustrato físico necesario para conseguir algo así. Entonces, cuando esto suceda no será un hecho sorprendente en la “mente positrónica” (por hacer un guiño a Asimov, quizá el principal culpable del error) de un robot que funciona mal. Cuando repliquemos consciencia, los científicos o ingenieros que lo consigan, tendrán muy claro que lo están consiguiendo. Afirmar lo contrario sería como decir, a mediados del siglo XIX, que la bombilla eléctrica incandescente iba a surgir, en un determinado momento azaroso, de alguna vela encendida en cualquier hogar de Newcastle. No, Wilson Swan tardó unos veinticinco años experimentando con diferentes tipos de materiales, técnicas, métodos y teorías hasta que pudo fabricar una bombilla funcional y eficiente.

Creer que la consciencia despertará sin más dentro de avanzadas inteligencias artificiales como fruto accidental de su complejidad es no comprender bien el funcionamiento de la ciencia y la tecnología, que viene de no entender la propia IA. Un programa de ordenador solo realiza cálculos, y los cálculos, por muy complejos, sofisticados y sobrehumanos que sean, solo dan resultados numéricos. Y creo que todos estamos de acuerdo en que los números no son objetos ni procesos físicos reales, por muy bien que los describan. Es por eso que el ejemplo de John Searle es muy ilustrativo: aunque tuviésemos un programa que simulara con una precisión casi absoluta el funcionamiento de una vaca, dicho programa seguiría sin poder darnos leche que pudiésemos beber. Así, para tener consciencia real no solo se necesita un ordenador que replique matemáticamente su funcionamiento, sino un organismo que tenga las propiedades físico-químico-biológicas que se necesiten para generar consciencia ¿Cuáles son? Lo ignoro, ya que si lo supiera estaría en Estocolmo recogiendo un Premio Nobel muy merecido.

Explicado de otra forma: ya hemos conseguido hacer robots que se muevan muy eficazmente en entornos muy irregulares (véanse todas las maravillas de Boston Dynamics). Cuando los vemos caminar y correr sorteando obstáculos nadie dice: “Mira, el programa de ordenador se mueve”. Nadie atribuye movimiento al sofware que dirige el robot, sino al robot en su totalidad, es decir, a los motores, baterías, engranajes, extremidades, etc. que hacen posible el movimiento. Igualmente, para decir que una máquina piensa o es consciente, no podemos decir “Mira, el programa de ordenador es consciente”, porque al hacerlo estamos omitiendo todo lo demás que hace falta para que ocurra una consciencia real. En cierto sentido estaríamos diciendo que una mente puede existir sin cuerpo cuando, evidentemente, no es así. Lo que realmente nos hace falta es saber mucho, mucho más, sobre los cuerpos que albergan consciencias.

Así que no, la consciencia no va a despertar en un androide doméstico que, un día, se pone a oler la fragancia de una flor.

Ahora mismo, como puro divertimento, estoy diseñando un programita en Python para jugar a las tres en raya (o tic-tac-toe).  De momento, solo he hecho que el juego funcione mediante un simple motor aleatorio, es decir, que la máquina mueve al azar, sin estrategia alguna. Mi única pretensión, hasta ahora, ha sido conseguir que el juego se ejecute sin errores, con un código lo más elegante posible. En breve, programaré un sencillo sistema de estrategias para que mi programa de tres en raya sea ya una auténtica inteligencia artificial.

Mientras dura la partida, el programa manda ciertos mensajes de texto a la consola. Por ejemplo, cuando el motor aleatorio le indica poner ficha en una casilla del tablero que ya está ocupada, dice “Casilla ocupada. Vuelvo a intentarlo”. Simplemente con eso, de modo casi inconsciente, tendemos a darle cierta entidad mental al programa. Esa sencilla frase crea en ti la sensación de que “hay alguien ahí”, de que ese programa tiene alguna especie de anima, de principio vital oculto. A fin de cuentas, está hablando conmigo utilizando mi idioma. Cuando le implemente las estrategias de juego que, inicialmente, no serán más que el típico movimiento defensivo de poner ficha en el tercer hueco cuando el rival ha puesto dos fichas seguidas, evitando así perder en el siguiente movimiento o, a la inversa, la jugada ganadora de continuar cualquier cadena de dos fichas contiguas con una tercera, convertiremos al programita en un agente racional, en un ser que opera siguiendo propósitos y que realiza acciones inteligentes para conseguirlos (aunque “él” no tiene ni remota idea de que lo hace así).  Entonces, el proceso de personificación de la máquina habrá dado un paso más y ya, casi casi, creeremos que un pequeño homúnculo habita, en algún sentido, las entrañas de nuestra computadora ¿Por qué ocurre algo así? ¿Por qué tendemos a personificar algo que, a todas luces, no tiene ningún tipo de estado mental?

Parece muy evidente que la selección natural nos equipó con una buena Teoría de la Mente. Somos bastante competentes prediciendo las conductas en los otros, basándonos en la presunción de que actúan siguiendo creencias, deseos, sentimientos, etc. En nuestros complejos entornos sociales se antoja como una cualidad muy necesaria para aumentar nuestro fitness. Si la evolución ocultó a los otros nuestros mecanismos mentales, y nos hizo caer en el terrible problema filosófico de las otras mentes, igualmente, tuvo que generar buenos detectores de mecanismos mentales en la siempre competitiva lucha por la supervivencia. Así, al igual que existen excelentes mentirosos, tenemos a otros individuos idénticamente excelentes detectando la mentira, con la simple contemplación atenta del rostro del embustero. Pero quizá fue aquí donde nuestro sistema de detección de mentes se extralimitó y, en ocasiones, nos hace creer que seres completamente inanimados tienen una mente. De la misma manera que nuestro sofisticado sistema inmunitario se excede y ve amenazas dónde no las hay, creándonos molestas alergias, nuestro sistema de detección de mentes puede ver mentes donde no las hay.  Y es que ¿quién no toma cariño a ciertos objetos y los trata como si poseyeran, realmente, una consciencia capaz de sufrir? ¿Quién no ha sentido lástima cuando se ha desecho de su viejo coche? ¿Quién no ha tomado cariño a una prenda de ropa de forma que, cuando ya estaba inservible, le ha costado mucho tirarla a la basura? ¿No seguimos sintiendo ternura por aquel peluche que nos acompañó en la infancia, aún cuando ya vamos peinando canas?

Los niños son completamente animistas, y atribuir estados mentales a cualquier objeto inerte es una cualidad que, según Piaget, caracteriza el pensamiento preconceptual de los infantes hasta, aproximadamente, los cuatro años. A partir de aquí, el mundo de objetos animados va disminuyendo hasta que saben discernir con buen criterio los seres realmente animados de los inertes. Sin embargo, nuestro detector de mentes puede ser engañado fácilmente, sencillamente, mostrándole un objeto que se comporte exteriormente como sí estuviera animado. Así, mi estúpido programa de tic-tac-toe, con solo enseñarme unas frases en pantalla y jugar con una mínima competencia, consigue engañar a mi altamente evolucionada teoría de la mente. Y es que nuestra psique no evolucionó pensando en que iba a encontrarse con máquinas que replicarían con solvencia conductas tan humanas como el lenguaje.

Por eso mucho cuidado al atribuir mente a nuestros ordenadores. No amigos, no la tienen, y ni siquiera hay razones sólidas para pensar que vayan a tenerla a corto ni a medio plazo.

P.D:. un juego tan tonto como el tic-tac-toe nos da una idea del gran problema de las explosiones combinatorias de los árboles de decisión en IA. El tablero tiene nueve casillas. Cuando comenzamos tenemos nueve opciones posibles para colocar nuestra ficha y nuestro rival ya solo tendrá ocho para el siguiente movimiento, pues no puede poner donde hemos puesto la nuestra. Después nosotros solo tendremos siete, el rival seis, etc. Da la impresión de que los posibles movimientos en un tablero tan pequeño que va reduciendo su tamaño a cada turno no serán demasiados. Pues el cálculo es sencillo: hay 9 factorial de movimientos posibles, es decir, 362.880… ¡Ufffff! (Bueno, realmente hay algunos menos, pues tenemos que quitar todas las partidas en las que se gana o pierde antes de agotar todo el tablero, ya que se puede vencer en un mínimo de tres movimientos propios y dos del rival).

Una de los dogmas más típicos del ethos cognitivo del científico es el realismo. La mayoría de los científicos con quienes debatas tendrán una concepción realista del conocimiento. Será común que sostengan, con más o menos matices, que el mundo objetivo es real y que, nosotros, mediante el método científico, tenemos acceso a esa realidad. Es posible un conocimiento objetivo del mundo y la ciencia es el camino adecuado para conseguirlo.

De la misma forma, cualquier científico que se precie aceptara, sin lugar a dudas, la teoría de la evolución darwiniana. Aplicándola a la percepción de la realidad, es bastante lógico pensar que la selección natural premiaría el realismo, ya que un organismo incapaz de percibir dónde está, realmente, el alimento, la pareja o un posible depredador, tendría pocas probabilidades de sobrevivir. Siguiendo el recto gradualismo darwiano, sistemas perceptivos tan sofisticados como el de un ave rapaz, serían fruto de pequeñas variaciones que irían progresivamente dando al pájaro una visión cada vez más aproximada a la auténtica realidad.

Entonces llega el psicólogo cognitivo de la Universidad de California, Irvine, Donald Hoffman y lo pone todo patas arriba. Hoffman va a llevar a sus máximas consecuencias una determinada idea que parece innegable para cualquier darwinista: un organismo no necesita percibir toda la realidad tal cuál es, solo la que necesite para aumentar sus posibilidades de supervivencia y reproducción (se usa el término fitness). Si la selección natural premia mucho la economía de medios, percibirlo todo es un derroche absurdo. Pero es más, no hace falta siquiera percibir una sección de realidad, sino solo un esquema, un indicador, una señal que nos sirva para tomar la decisión que aumente nuestro fitness. Pongamos un ejemplo (que no es de Hoffman pero creo que es más ilustrativo). Vamos conduciendo y tenemos que pasar por un cruce muy peligroso. La carretera que tenemos que cruzar tiene cinco carriles repletos de coches pasando a toda velocidad. Ver cuando no viene ningún coche, y calcular que nos dé tiempo a cruzar antes de que aparezca el siguiente, es una tarea compleja. No obstante, para eso se inventó el semáforo. Cuando llego al cruce no tengo que percibir todo el tráfico, solo con fijarme en una sola señal, un solo estímulo, la luz del semáforo, ya puedo cruzar sin peligro alguno. En cierto sentido, la luz del semáforo está resumiendo, simplificando toda la complejidad del tráfico a una combinación binaria: verde no pasan coches, rojo sí pasan.  Pensemos el ahorro de recursos perceptivos que supone el semáforo que, sin duda, sería elegido por la selección natural si tuviese que “diseñar” un organismo cruzador de carreteras.

Pero es más, contra toda intuición, nuestro organismo bi-perceptor no percibiría absolutamente nada que tuviese que ver con la realidad. En la carretera no hay nada como luces rojas o verdes, y una luz roja o verde no se parece en nada a un denso flujo de automóviles. Nuestro organismo estaría utilizando lo que Hoffman denomina interfaz, que es algo muy parecido al escritorio de tu ordenador. Cuando hacemos clic en el icono del reproductor de vídeo para ver una película, el icono no tiene ningún parecido al complejo sistema de circuitos, voltajes y magnetismos que se activa para que veamos la película. Lo realmente inquietante es que esto implica que, lo más probable, es que vivamos completamente ciegos a la auténtica realidad y que la “pantalla de nuestra consciencia” nos ofrezca un juego de símbolos que nada tienen que ver con lo que exista allí fuera.

Y más aún, no es que no percibamos cualidades objetivas, sino que la función de fitness es una relación entre el mundo, las cualidades del organismo en cuestión y su estado actual; por lo que la información que recibimos no es del estado del mundo, sino del estado de dicha relación. Por ejemplo, si nuestro organismo necesitara un determinado nutriente con mucha urgencia, es posible que mostrara una interfaz diferente a si lo necesita con menos premura. O, podría ser que nuestra interfaz mostrara con especial intensidad “situaciones” en las que las posibilidades de aumentar el fitness son muy altas o muy bajas, pero ignorara todas las demás.

Para fundamentar su tesis con más fuerza, Hoffman se basa en una serie de simulaciones informáticas en las que se ponen a competir diferentes estrategias perceptivas para conseguir optimizar su función de fitness. En las simulaciones realizadas por el discípulo de Hoffman, J.T. Mark, las estrategias de interfaz eran muy superiores a las realistas, más cuando se aumentaba la complejidad de las simulaciones, ya que esto producía que las estrategias realistas tuviesen que almacenar cada vez más información irrelevante. Basándose en ello, Hoffman llega a la controvertida afirmación de que el realismo es, evolutivamente, tan malo que.. ¡con total seguridad, la selección natural jamás lo eligió!

Pero, ¿no caeríamos de nuevo en la falacia del homúnculo? ¿Para que querría la evolución una “pantalla de la consciencia” en donde la información se transmitiera de forma simplificada o esquematizada? ¿Quién es el que está viendo este escritorio de ordenador lleno de iconos útiles para sobrevivir? La teoría de Hoffman no soluciona el problema del por qué de la consciencia pero sí que sortea el problema del homúnculo. La información no se repite de nuevo en una “pantalla de cine”, sino que se modifica para hacerse operativa. Si pensamos en nuestra mente como un conjunto de módulos funcionales, podemos pensar que tenemos módulos encargados de tomar decisiones de alto nivel a los que les viene muy bien recibir la información cocinada  para ser operativa. Nuestro módulo-consciente estaría encargado de tomar ciertas decisiones basándose en la información recibida por los sentidos. Lo que recibiría en su interfaz sería un conjunto de esquemas, resúmenes, iconos, desarrollados específicamente para ser utilizados de la forma más eficiente posible. Es como si fueran los instrumentos de vuelo de la cabina de un avión, ergonómicamente diseñados para ser utilizados lo más eficazmente por el piloto. Por ejemplo, la palanca que da potencia a los motores está perfectamente diseñada para ser agarrada con fuerza por una mano humana; igualmente, los iconos de nuestro “escritorio-consciencia” estarían diseñados para ser “agarrables” por nuestro sistema de toma de decisiones.

Objeciones: muchas, pero una especialmente hiriente. A todas las teorías que dicen que no podemos percibir la auténtica realidad se les puede aplicar la vieja paradoja de Epiménides. Se cuenta que Epiménides, un cretense, decía que todos los cretenses eran unos mentirosos, lo cual, evidentemente, nos lleva a una insalvable paradoja. Análogamente, si Hoffman dice que todo lo que percibimos es una interfaz que no representa la auténtica realidad, la propia teoría de la interfaz sería también una nueva interfaz que no describe el auténtico funcionamiento de la cognición. Hoffman debería explicarnos por qué él no es un cretense.

Otra, que a mí se me antoja más interesante, es que Hoffman presupone que percibir la auténtica realidad es costoso, por lo que hace falta hacer esquemas. Esto puede ser cierto en muchas ocasiones, pero en otras no. Podría darse el caso de que percibir ciertos elementos de la realidad tal como es fuera, incluso, menos costoso que tener que crear un icono en el escritorio de la consciencia. Es más, podríamos objetar que la hipótesis de que siempre fuese así no está refutada: ¿Y si, siempre, construir iconos en la mente fuera más caro que percibir la realidad tal y como es? A fin de cuentas, crear un icono es realizar un paso más que percibir la “realidad pura”, a saber, transformarla en icono ¿Y si esa transformación fuese muy cara? Hoffman debería idear un sistema de costos para evaluar lo que cuesta el realismo en comparación con la creación de su interfaz.

A esta multimodal user interface (MUI), Hoffman va a añadir una teoría aún más controversial si cabe: el Realismo Consciente, que viene a decir que lo único ontológicamente existente son los agentes conscientes, siendo la materia una mera creación de la consciencia. El argumento fundamental en el que se basa es sostener que todos los intentos de explicar la consciencia a partir de la materia han sido, hasta la fecha, baldíos (lo cual es completamente cierto), mientras que el camino inverso, explicar cómo la mente construye sus percepciones de la materia, ha sido más exitoso (lo cual no veo yo tan claro). De esta forma, siendo estrictamente científicos, parecería más lógico defender este idealismo que no el materialismo tradicional de la ciencia. Para Hoffman no habría problema alguno en invertir el orden causal de toda la neurociencia moderna, solo habría que cambiar el orden de las palabras: en vez de decir que clusters de neuronas causan estados mentales, tendríamos que decir que estados mentales causan clusters de neuronas, sin cambiar nada más.

En cualquier caso, aceptemos todo o nada de lo que dicen, las ideas de Hoffman suponen una fuerte apuesta por llevar a sus máximas consecuencias una epistemología radicalmente evolucionista que pone en la palestra un montón de cuestiones filosóficas que parecen, muchas veces, en la periferia del debate científico cuando, realmente, deberían estar en el centro. Os dejo su famosa Ted Talk (tenéis subtítulos en castellano):