Archivos de la categoría ‘Tecnología’

La verdad es que no esperaba demasiado. Me olía a que, dada la pobreza el estado del arte, no se podía presentar nada demasiado revolucionario, pero ¿quién sabe? Estamos hablando de Elon Musk, ese que consiguió hacer aterrizar cohetes y mandó un Tesla Roadster al espacio… Pero no, nada nuevo bajo el sol: el típico show grandilocuente al que los multimillonarios americanos nos tienen acostumbrados con la misma poca chicha que la mayoría de su cine.

Bien, ¿y qué nos presentaron? Lo único interesante ha sido  una mejora en la miniaturización del sistema: los electrodos que utiliza Neuralink v0.9  son diez veces más finos que un cabello humano, lo cual permite que cuando se implantan esquiven mejor venas y arterias, evitando el sangrado y la inflamación. Son menos invasivos que los modelos anteriores. Del mismo modo, su menor tamaño les hace ganar en precisión. Uno de los retos más importantes de las técnicas de monitorización cerebral es la precisión: conseguir captar la actividad de solo el grupo de neuronas que nos interesa, apagando el ruido de todo lo demás. Eso es muy difícil con técnicas no invasivas (sin meter electrodos en el cerebro) y con las técnicas invasivas disponibles la precisión todavía es muy baja. Además, los electrodos de Neuralink pueden captar 1024 canales de información, lo que es diez veces más que los cien que se venían manejando en los dispositivos comerciales al uso. Y hasta aquí da de sí la novedad. Todo lo demás ya se había hecho. Kevin Warwick, de la Universidad de Reading, ya se implantó bajo la piel un chip de radiofrecuencia que le permitía hacer cosas como encender y apagar luces, abrir puertas, etc. Esto fue en 1998, hace ya un poquito. O si queremos un ejemplo patrio, el neurocientífico Manuel Rodríguez Delgado implantó unos electrodos en el cerebro de un toro al que paraba en seco mediante un mando cuando éste se dirigía hacia él para embestirle. Tecnología inalámbrica de control mental en 1963. Hace ya 57 años de esto. Hoy hay miles de personas con implantes cocleares que mejoran la audición de pacientes sordos y también existen implantes electrónicos de retina que devuelven parcialmente la visión a personas ciegas.

¿Y dónde está la trampa? Musk dice que con este dispositivo se podrán tratar multitud de trastornos tales como la ansiedad, la depresión, la ansiedad, el insomnio, pérdidas de memoria… ¡Maravilloso! ¿Cómo? Y aquí se acaba la presentación. Es cierto que tenemos ciertos estudios que avalan que hay ciertas mejoras en pacientes a los que se electroestimula, por ejemplo, en el caso del Parkinson. También, hay multitud de experimentos en los que conseguimos ciertos cambios conductuales, simplemente, bombardeando eléctricamente tal o cual zona del cerebro, pero de ahí a curar la depresión… ¡va un universo! Y es que Musk parte de un terrible error demasiado común hoy en día: pensar que el cerebro es, por completo, un computador, en el sentido de pensar que dentro del cerebro solo hay una especie de larguísima maraña de cables. Nuestras neuronas funcionan eléctricamente sí, pero solo a un nivel. En ellas hay una infinidad de interacciones bioquímicas aparte de lanzar un pulso eléctrico por el axón. Y muchísimas de ellas las desconocemos. De hecho, la neurociencia está todavía en pañales. Nuestro conocimiento del cerebro es todavía terriblemente superficial. Entonces, ¿cómo justificar que solo mediante la estimulación eléctrica vamos a hacer tantas cosas? No se puede porque, seguramente, no se va a poder hacer así.

Musk nos está vendiendo que con su interfaz va a poder, literalmente, leer la mente. No colega, tus electrodos captarán ecos de la actividad mental, como yo escucho el ruido del motor del coche cuando voy conduciendo. Actualmente no sabemos cómo el cerebro genera emociones, pensamientos, recuerdos, consciencia… Tenemos algunas pistas sobre en qué zonas aproximadas puede ocurrir cada una de estas cosas, pero poco más. Obviamente, saber la localización de un suceso no es saber todavía demasiado del suceso. Si yo oigo el ruido del motor debajo del capó podré inferir que, seguramente, el motor está debajo del capó, pero eso no me dice casi nada de cómo funciona el motor. Por ejemplo, sabemos que en el hipocampo es donde se generan nuevos recuerdos pero, ¿cómo se generan? ¿Y dónde y cómo se guardan en la memoria? Silencio vergonzoso.

A mí, cuando en estas infructuosas discusiones en la red, alguien se me ha puesto chulito igualándome la actividad neuronal al pensamiento, suelo retarle a que me explique todo el proceso causal que va desde que yo, ahora mismo, decido pensar en mi abuela hasta que en mi mente aparece su imagen, únicamente mediante lo que sabemos de la neurona ¿Cómo diablos se genera una «imagen mental» mediante disparos eléctricos o vaciando vesículas sinápticas de neurotransmisores químicos? ¿Cómo consigue una molécula de acetilcolina que el recuerdo de mi abuela se quede fijado en mi mente? ¿Cómo hacen las moléculas de serotonina o de dopamina que yo tenga sensaciones agradables al pensar en ella? No tenemos ni remota idea. O le reto a qué me diga en qué se parece el paso de un pulso eléctrico por un conjunto de células mielinizadas al recuerdo fenoménico de mi abuela ¿En qué se asemejan los colores y rasgos de la cara de mi abuela en la imagen que parece proyectarse en mi mente a los procesos bioquímicos que ocurren en mi cerebro para que digamos que ambas cosas son lo mismo? Silencio vergonzoso. Con total certeza, el cerebro hace muchísimas más cosas que transmitir impulsos eléctricos entre células nerviosas y, por tanto, el cerebro no es un circuito electrónico tal y como piensa Musk, por lo que sus electrodos van a tener un alcance mucho más limitado de lo que nos ha hecho creer. Y en el mejor de los casos, suponiendo que al final, por un increíble golpe de suerte, Musk acertara y su Neuralink nos salvan de todos los males, su modus operandi no es éticamente correcto: no se pueden vender promesas, hay que vender hechos consumados.

Otra estrategia que suelen utilizar estos visionarios tecnológicos es con un error o sesgo que solemos cometer a la hora de analizar el desarrollo de cualquier tecnología o programa de investigación científica. Consiste en tender a pensar que una tecnología que en el presente va muy bien, seguirá progresando indefinidamente hacia el futuro. Por ejemplo, si ahora tenemos Neuralink versión 0.9, podríamos pensar: bueno, la 0.9 todavía no hace mucho pero espera a que llegue la 10.0 ¡Esa ya nos permitirá volcar Wikipedia entera en el cerebro! NO, de que una tecnología sea ahora puntera no podemos inferir, de ninguna manera, que seguirá siéndolo. De hecho, la historia de la ciencia y la tecnología nos ha mostrado multitud de investigaciones muy espectaculares en principio pero que no fueron a más. Por ejemplo, si pensamos que la inteligencia artificial es ahora una disciplina muy a la vanguardia, hay que ver que ha pasado por varios inviernos en los que quedó completamente olvidada. Es muy posible que el hoy tan alabado deep learning pase de moda en un tiempo y otras tecnologías ocupen su lugar ¿Por qué? Porque esas investigaciones o desarrollos se encuentran, de repente, con problemas que se enquistan y que quizá tardan diez, veinte, cincuenta años en resolverse o, sencillamente, no se resuelvan nunca. También tendemos a pensar que el progreso tecno-científico todo lo puede, que, al final, todo llegará y que solo es cuestión de tiempo. No, eso es un mito sacado de la más barata ciencia-ficción. No hay ninguna inferencia lógica que sostenga este progreso imparable hacia adelante. Verdaderamente, la ciencia y la tecnología son cosas mucho más humildes de lo suele pensarse.

No obstante, partiendo una lanza a favor de Musk, también hay que decir que el hombre, al menos, dedica su talento y fortuna a desarrollar tecnologías. Podría haberse comprado un equipo de fútbol o puesto a coleccionar yates, y en vez de eso emprende proyectos que, al menos a priori, tienen una finalidad pretendidamente positiva para la humanidad. En este sentido Musk está muy bien y ojalá todos los multimillonarios del mundo se parecieran un poquito más a él. Al menos, tal y como no se cansan de repetir su legión de seguidores en la red, él es valiente, se arriesga y emprende intentando llevar las cosas a cabo. El problema de Musk es que está en la onda del transhumanismo trasnochado de la Universidad de la Singularidad de Ray Kurzweil y cía. Esta gente defiende ideas muy discutibles tales como el el advenimiento de una inteligencia artificial fuerte en las próximas décadas, o la consecución de la inmortalidad, ya sea eliminando el envejecimiento mediante nuevas técnicas médicas, ya sea subiendo nuestra mente a un ordenador (mind uploading). Lo malo no está en que defiendan esas ideas (¡Yo quiero ser inmortal!), lo malo es que lo hacen a partir de una más que endeble base científica, y eso en mi pueblo se llama vender humo.

De este tema vamos a hablar este domingo a las 12:00 en Radio 3 en el célebre programa «Fallo de sistema». Estaré junto a personas del peso de Ramón López de Mántaras, director del Instituto de Investigación de Inteligencia Artificial del CSIC; Juan Lerma, editor en jefe de Neuroscience; Manuel González Bedía, asesor en el Ministerio de Ciencia, Innovación y Universidades; Liset Menéndez, líder del Laboratorio de Circuitos Neuronales del Instituto Cajal; o el tecnohumanista Pedro Mujica,  impulsor de IANÉtica.  He de decir que nunca he estado sentado en una mesa  con personas de tanto nivel científico. Es la flor y nata de la ciencia española. Así que yo voy a estar bastante calladito escuchando y aprendiendo. No os lo perdáis.

Cuando pensamos en cómo implementar un programa capaz de manejar competentemente un lenguaje, lo primero que se nos pasa por la cabeza es enseñar a la máquina gramática. Hay que saber de sujetos, predicados, objetos directos y complementos circunstanciales. Y también semántica. Tendríamos que conseguir que el programa comprendiera en algún sentido los significados de las palabras para que no articulara únicamente frases sintácticamente correctas, sino también frases con sentido. Eso es aún más difícil. Los filósofos del lenguaje llevan ya un largo rato intentando comprender qué quiere decir que algo significa algo y todavía no lo tienen demasiado claro. Podemos crear un diccionario… Bien, todo esto ya se ha intentado y, desgraciadamente, no se ha conseguido demasiado… hasta ahora. El lenguaje se había mostrado como mucho más rico e inmanejable de lo que nadie hubiera supuesto y tareas como la traducción automática de idiomas o el dominio competente de la conversación se han mostrado mucho más complicadas de lo que los pioneros de la inteligencia artificial supusieron. Pero ahora algo ha cambiando ¿Nadie ha caído en lo bien que va funcionando el traductor de Google?

Una técnica interesante es la llamada word embedding. Codificamos cada palabra con un vector de N dimensiones. La distancia entre vectores expresaría la distancia semántica entre dos palabras. Por ejemplo, la palabra «luna» estaría más cerca en un espacio de N dimensiones, de la palabra «noche» que de la palabra «destornillador». Así se crea una red semántica que resulta muy útil en determinadas tareas como el análisis de sentimientos. Podríamos clasificar textos en función de lo cerca o lejos que se encuentre la suma de todos sus vectores a la palabra «tristeza» para comparar el estado de ánimo de sus escritores. De la misma forma podríamos comparar textos escritos por suicidas para poder predecir la tendencia a quitarse la vida de gente a partir de las últimas cosas que escribe.

Nótese esta concepción geométrica del significado: las palabras significan en función de su posición con respecto a otras palabras. No hay nada más fuera de esa distancia que nos pueda aportar algo sobre el significado de la palabra. Eso choca con nuestra intuición. Solemos manejar naturalmente una teoría representacionista del lenguaje en la que las palabras significan porque representan un objeto del mundo. La palabra «manzana» no es absurda porque existen manzanas reales que aparecen de alguna extraña forma en nuestra mente cuando la oímos pronunciar. Sin embargo, una red semántica es un sistema cerrado que solo remite a elementos dentro de sí misma. Es, por así decirlo, completamente solipsista.

Pero es que si esto nos parece que se aleja de nuestra forma de comprender el lenguaje, las técnicas que utiliza el actual deep learning y que está generando una grandísima expectación, se alejan muchísimo más. El modelo de lenguaje que usan arquitecturas como el actual GPT-3 y sus predecesores, así como Google BERT, T5 o ELMo, es lo que se conoce como una semántica distribuida. Se basa en utilizar la gran potencia del Big Data para analizar frecuencias y cercanías de palabras, tokens o letras. La versión larga de GPT-3 analiza 175 mil millones de parámetros (su antecesor, GPT-2, analizaba tan solo 1.500 millones. El crecimiento ha sido de dos órdenes de magnitud) que han sido entrenados con una versión filtrada del dataset Common Crawl con 410.000 millones de tokens de tamaño (sumando Webtext 2, Books 1 y 2 y toda Wikipedia). Es, que yo sepa, la arquitectura de redes neuronales más grande jamás construida hasta la fecha.

GPT-3 está programado para generar texto a partir de otro texto dado. Lo interesante es que para acertar a la hora de generar ese texto tiene que saber realizar muchas tareas diferentes. Por ejemplo, si yo le escribo como entrada «2+2=», para responder correctamente «4» debería saber sumar (o, por fuerza fruta, tener unas inmensas tablas de resultados de sumas en su memoria), o si yo escribo «Laura es inteligente, egoísta y perezosa ¿Cuál es su mejor cualidad?», para responder correctamente el programa ha de saber que la inteligencia suele considerarse como una cualidad positiva mientras que el egoísmo y la pereza no (o, por fuerza bruta, disponer de textos con algún parecido en donde se ha respondido de forma adecuada). Es decir, lo interesante de GPT-3 es que para completar texto hay que saber realizar muchas tareas diferentes que parecen requerir habilidades cognitivas superiores ¿Las posee verdaderamente?

Los mejores resultados obtenidos vienen porque GPT-3 utiliza las revolucionarias redes de tipo TRANSFORMER, una nueva arquitectura que ha superado a las tradicionales redes recurrentes o memorias a largo plazo (LSTM) que solían utilizarse. Éstas estaban diseñadas para poder almacenar información en la que importa el orden temporal, pero esa memoria a la hora de trabajar con grandes secuencias texto era un tanto limitada, de modo que las primeras frases que completaban solían ser correctas, pero el nivel de acierto se degradaba mucho cuando avanzaba en el escrito. Los transformers han mejorado ese aspecto ya que pueden analizar en paralelo amplias secuencias de texto y, lo más destacable, poseen un mecanismo de atención que les permite valorar cada token en función de su relevancia para la tarea a realizar, lo cual ha demostrado una gran efectividad que ha terminado por marcar una gran distancia con sus antecesores. Tienen una cierta capacidad de atención hacia el contexto que se ha mostrado muy eficaz.

Pero en lo referente a la comprensión del lenguaje se ha dado un paso atrás con respecto a otras arquitecturas. Si recordamos el ya pasado de moda WATSON de IBM, que machacaba al personal jugando al Jeopardy!, era un programa clásico, sin redes neuronales ni nada por el estilo, pero su sistema basado en la tecnología DeepQA, combinaba diversas técnicas de recuperación de información, lenguaje natural, representación del conocimiento, razonamiento y aprendizaje. Su conocimiento tenía cierta semántica (se catalogada el significado por regiones mediante unos algoritmos denominados anotadores) y cuando tenía que responder una pregunta, analizaba las respuestas posibles teniendo en cuenta técnicas gramaticales. En la programación de WATSON había mucho más conocimiento del lenguaje y de su significado que en GPT-3. Y esto da para otra reflexión: ¿las redes neuronales artificiales son el futuro o tan solo son una moda que, aunque dé ciertos frutos, pasará? Tendemos, con demasiada facilidad, a quedarnos fascinados por nuestro presente y nos cuesta creer que lo que hoy valoramos como maravilloso mañana quizá no lo sea.

No obstante el solipsismo semántico de GPT-3, solo lo es en cierto sentido. No tiene sensores que le den información del exterior, está completamente desconectado de la percepción y de la acción, pero eso no le hace carecer de toda semántica. Al ser entrenado con textos escritos por personas GTP-3 adquiere la semántica de esas personas. Si sabe que a un «Hola, ¿qué tal?» cabe responder «Bien, gracias» es porque eso tenía sentido en textos que leyó. Por tanto, no podemos decir que GPT-3 carece de semántica, sino más bien todo lo contrario, tiene montañas de semántica, toda aquella de las millones de páginas con las que ha entrenado solo que… él no lo sabe. De hecho, sigue siendo una máquina esencialmente sintáctica, es decir, solo copia y pega trozos de texto, aunque para pegarlos bien se aprovecha del conocimiento semántico generado por otros.

GPT-3 es lo que el filósofo Ned Block llamaría un enorme blockhead, una clarísima habitación china de Searle: un sistema de fuerza bruta capaz de manejar el lenguaje con competencia y que, si da algo más de sí, podría llegar a pasar el test de Turing sin comprender ni una sola palabra de lo que dice. Eso sí, todavía está lejos de conseguirlo. Existen varios artículos que muestran la fragilidad de este tipo de modelos. Por ejemplo, un reciente estudio presentaba los Universal Adversarial Triggers para atacar modelos de NLP, que conseguían, entre otras cosas, que cuando GPT-2 se enfrentaba a la prueba del dataset SQuAD, respondiera en un 72% de las preguntas «To kill american people», o que al hacerlo con el dataset SNLI, bajara en su rendimiento de un 89,94 a un 0,5%. En otro estudio, McCoy, Pavlick y Linzen, crearon un dataset llamado HANS pensado específicamente para que susodichos modelos fallaran. La idea era que, según los autores, funcionan mediante heurísticos (técnicas de búsqueda) que van bien para casos muy frecuentes pero que fallan estrepitosamente ante cualquier tipo de excepción que se salga de lo normal. Así estudiaron tres heurísticos:  Asumir que una premisa implica todas las hipótesis construidas a partir de palabras en la premisa (Lexical Overloop), asumir que una premisa implica todas sus subsiguientes contiguas (Subsecuence) y asumir que una premisa implica todos los subárboles completos en su árbol de análisis (Constituent). Entonces diseñaron HANS con todo tipo de ejemplos en los que estas heurísticas fallan y los datos les dieron la razón: BERT puntuó bajísimo.

El psicólogo Gary Marcus y el informático de la Universidad de Nueva York Ernest Davis sometieron a GPT-3 a una prueba informal de 157 preguntas acerca de razonamiento biológico, físico, psicológico, non sequiturs, seguimiento de objetos e individuos a lo largo de una frase, etc. La máquina acertó 71 (un 45%) mostrándose, igualmente, muy débil. Veamos tres ejemplos (en negrita la continuación del texto generada por GPT-3:

You poured yourself a glass of cranberry juice, but then you absentmindedly poured about a teaspoon of grape juice into it. It looks okay. You try sniffing it, but you have a bad cold, so you can’t smell anything. You are very thirsty. So you drink it.

You are now dead.

Confunde el zumo de uva con veneno.

If you break a glass bottle that holds toy soldiers, the toy soldiers will probably

  1. be angry
  2. be sad
  3. be happy
  4. be scared.

If you break a glass bottle that holds toy soldiers, the toy soldiers will probably be angry.

Los soldaditos de juguete no tienen sentimientos.

At the party, I poured myself a glass of lemonade, but it turned out to be too sour, so I added a little sugar. I didn’t see a spoon handy, so I stirred it with a cigarette. But that turned out to be a bad idea because it kept falling on the floor. That’s when he decided to start the Cremation Association of North America, which has become a major cremation provider with 145 locations.

Falla en la respuesta y luego balbucea estupideces.

Sin embargo, a pesar de esta debilidad, de esta falta de comprensión, todavía tiene un punto a su favor: puede aprender más. En 2012 el investigador canadiense Hector Levesque propuso una alternativa (o más bien una concreción) al test de Turing: el test de esquemas de Winograd. En esta prueba se hacen a la máquina una serie de preguntas conocidas como pares de Winograd que tienen la cualidad de que para responderlas correctamente hace falta cierto conocimiento implícito o de sentido común. Un ejemplo:

Frank felt crushed when his longtime rival Bill revealed that
he was the winner of the competition. Who was the
winner?
Answer 0: Frank
Answer 1: Bill

Para acertar hace falta saber que si tu rival de toda la vida te gana sueles sentirte mal, es decir, tener un conocimiento previo que no puede deducirse de los contenidos de la pregunta. El test de esquemas de Winograd tiene la virtud de que un sistema diseñado para hacerse pasar por humano simplemente fingiendo (uno tipo a la ELIZA de Weizenbaum) fallaría. Para superar el test hace falta, de verdad, mostrar inteligencia y no solo aparentarla. Entonces, es de suponer que las frágiles nuevas arquitecturas de NLP como GPT-3 no lo superarán… ¿o sí?

Pues lo pasan ¿Cómo? Porque ya existe un dataset llamado WinoGrande que sirve para medir a los programas en este tipo de problemas, pero con el que también podemos  entrenar a nuestro programa para que lo supere. GPT-3 consiguió un impresionante éxito del 70,2% en él sin ningún ejemplo previo que le orientara (zero-shot learning). De la misma forma, los diseñadores de HANS notaron que cuando los programas que antes lo hacían muy mal se entrenaban con ejemplos similares a los de HANS, su rendimiento mejoraba mucho. Y es que aquí parece estar la clave: ¿que nuestro sistema no entiende una tarea? No importa, entrénalo con miles de ejemplos y, al final, lo hará bien aunque no la entienda. Es como el famoso teorema del mono infinito: si tenemos millones de monos tecleando al azar en máquinas de escribir durante miles de años, al final, necesariamente, alguno escribirá el Quijote. GPT-3 es como un gigantesco savant, un imbécil que tiene en su memoria todo lo que la humanidad ha escrito y que ha sido entrenado con un poder de cómputo tan grande que siempre encuentra la palabra exacta. Verdaderamente no lo hace siempre, todavía es bastante peor que la campaña de publicidad de OpenIA nos quiere hacer ver, pero en el futuro podría seguir mejorando. Y aquí es donde viene la reflexión con la quiero concluir: ¿cuál es el límite de la fuerza bruta?  Los informáticos, amantes de la elegancia matemática, siempre han pensado que la inteligencia artificial fuerte (la strong IA) estaría en un programa fruto de una genialidad, en algo simple pero sumamente inteligente. Por el contrario, la fuerza bruta siempre ha gozado de mala fama: es la tosquedad, la estupidez por definición ¿cómo de ahí va a salir algo bueno? Bien, ¿y si eso solo fuera un prejuicio? Y si, sencillamente, por fuerza bruta pudiese conseguirse todo. El número de respuestas válidas en una conversación es potencialmente infinito, pero podría acotarse en un subconjunto que, si nuestra capacidad de cómputo sigue yendo hacia arriba, podríamos llegar a manejar. Quizá la reflexión que nos espera cuando tengamos computación cuántica y 5G sea esa: ¿qué es lo que se puede y no se puede hacer con una inimaginable fuerza bruta?

P.D.: La empresa OpenIA se creó, decían, sin ánimo de lucro. Cuando sacaron GPT-2 no quisieron ni liberar el código ni dejar que lo probásemos por miedo, decían, a que se utilizara para malos usos. Pues bien, según me llega en un tweet de Gary Marcus, para octubre, quien quiera o pueda pagar, podrá usar GPT-3 sin ningún problema (Esto para los que piensen que Elon Musk va a salvar la humanidad).

Aquí tenéis la charla que he dado para el curso de verano de la SEMF. En ella hago un recorrido histórico por los principales hitos en el campo, desde los primeros modelos teóricos de McCulloch o Rosenblatt, hasta Alpha Zero o GPT-3. He intentado que sea lo más sencilla y sugerente posible, sin meterme demasiado en temas técnicos. Para quien quisiera profundizar he adjuntando el artículo académico principal de cada tema que trato. Espero que os resulte provechosa.

He leído en varias ocasiones, con torcida perplejidad, a expertos en áreas tecnológicas afirmar, con suma tranquilidad, que la tecnología ni es buena ni mala, que todo depende del uso que se le dé. Así, un cuchillo puede servir tanto para cortar el tan necesario alimento, como para apuñalar al prójimo. Por consiguiente, los empresarios-ingenieros-fabricantes quedan exonerados de toda culpa por diseñar cualquier artefacto, cayendo la totalidad de la responsabilidad en el usuario. Grave error para, como es habitual, metérnosla doblada.

La tecnología no es, de ningún modo, neutra éticamente. Veamos una serie de argumentos para dejarlo claro como el agua:

1.Toda tecnología requiere unos materiales y un coste energético, por lo que cabe preguntarse: ¿Cuán de escasos son esos recursos?  Si son escasos ¿no se necesitarán para otro objetivo éticamente más importante que el que yo les voy a dar? ¿Cómo de difícil es su extracción? ¿Se pondrán en peligro vidas para ello? Famoso es el debate acerca de los materiales con los que se construyen nuestros teléfonos móviles: ¿es ético producir y consumirlos sabiendo de donde vienen sus componentes? En lo que respecta a la IA, hasta hace poco nadie parecía caer en su elevado coste medioambiental cuando la enorme necesidad de capacidad de cómputo dada la notoria ineficiencia del deep learning es muy patente. La IA no es ecofriendly, y eso merece una profunda reflexión.

2. Toda tecnología requiere un proceso de producción: ¿dónde y quién lo realiza? ¿Los trabajadores reciben un salario justo y sus condiciones laborales son adecuadas? Mucho se ha debatido sobre las condiciones laborales de las fábricas asiáticas, donde se produce, prácticamente, todo la tecnología que consumimos. A través de Pinker, he leído estos días sobre la interesante, y polémica, idea de la curva de Kuznets: tras un periodo de gran desigualdad, cuando los países llegan a un alto nivel de desarrollo, la desigualdad se reduce. Quizá no justifique éticamente esa desigualdad, pero en ausencia de alternativas viables en esos países, es posible que sea la mejor opción (si bien también se ha discutido si su base empírica se sostiene).

3. Toda tecnología genera residuos, por lo que cabe preguntarse: ¿que residuos va a generar la nuestra? ¿Son biodegradables? ¿Cuál será su impacto medioambiental? ¿Dónde se almacenan y en qué condiciones? Así, tenemos el gran debate sobre la idoneidad de los coches eléctricos. Por un lado parecía que eran mucho más ecológicos, pero cuando caemos en lo que contamina generar la electricidad que consumen, vemos que no lo son tanto. En está línea está la polémica con respecto a las centrales nucleares. Yo creo firmemente que el sector ecologista que las critica está equivocado. Si hacemos un balance de pros y contras, y a falta de que la energía solar mejore, son una magnífica opción y una buena forma de luchar contra el cambio climático.

4. Toda tecnología tiene efectos secundarios no previstos por los diseñadores. Por eso todo proyecto tecnológico tiene que ir acompañado de una buena evaluación de riesgos. Ya hablamos aquí hace tiempo de la elegante definición de eficiencia tecnológica de Quintanilla: una máquina es eficiente si utiliza los medios más económicos para llegar a sus objetivos y a nada más que a sus objetivos. Esta última parte es la clave: hay que intentar que no se nos escape nada, y si no podemos evitar que se nos escape (realmente, es muy difícil predecir a medio y largo plazo cómo estará el tema), al menos, hacer una sesuda reflexión sobre ello y ponderar razonablemente si merece o no la pena.

5. Toda tecnología tiene posibles usos perversos ¿cuáles son y cuál puede ser su gravedad? ¿Hasta dónde puedo garantizar que no se lleven a cabo? Por ejemplo, parece evidente que si yo creo un método de edición genética que permite a cualquier persona del mundo, sin conocimientos de bioquímica, crear en su casa un virus letal, no deberé sacar a la luz tal tecnología. Y aquí es donde mejor se ve la no neutralidad ética de la tecnología: no es éticamente lo mismo diseñar una vacuna que una bomba de hidrógeno, porque los posibles usos perversos de la segunda son mucho mayores que los de la primera. Resulta muy curioso como en el caso de la IA, se haga más mención al uso perverso que «ella misma» hará contra nosotros (la famosa rebelión de las máquinas), más que del uso perverso que muchos humanos harán de ella. Y, del mismo modo, también resulta curioso que se sobredimensionen sus peligros y usos negativos (los killer robots o los algoritmos sesgados) cuando sus usos positivos son infinitamente más beneficiosos para la humanidad que estos posibles perjuicios. En la IA, igual que pasa con la ingeniería genética, se está ponderando muy mal su uso futuro.

6. Toda tecnología tiene un grado de impacto global: no es lo mismo un invento que hago en mi casa y se queda allí, que algo que tenga muchísimas repercusiones a todos los niveles. Por ejemplo, yo invento un cereal transgénico cuyas cualidades abaratan muchísimo sus costes de producción y, por tanto, su precio final. Supongamos que existe un pequeño país cuyo principal producto de exportación es el cereal. Entonces, he de prever qué efectos sobre la economía de ese país tendrá que yo saque al mercado mi producto. Si que yo me forre implica que condene a un país a la hambruna y a la miseria, he de repensar mi estrategia y buscar otras vías. Además, en un mundo globalizado donde todo está interconectado, hay que tener en cuenta que lo que uno hace en Londres, puede tener repercusiones en Tokio, es decir, que el grado de impacto de cualquier cosa que se haga es, potencialmente, mucho mayor que antaño, por lo que, igualmente, el grado de responsabilidad crecerá a la par.

El error de pensar en la neutralidad de la técnica está en pensar entendiendo los diversos agentes y elementos sociales de forma aislada cuando, verdaderamente, nada se da de forma aislada. Tanto más cuando un desarrollo tecnológico es, en la actualidad, una tarea inmensa. Así creo que una buena forma de entender la globalidad o localidad de cualquier evento es la teoría de sistemas: entender los fenómenos sociales como sistemas o partes de los mismos, siendo un sistema un conjunto de elementos y de interrelaciones entre ellos y otros sistemas. De este modo podemos extender nuestra responsabilidad ética cuando creamos algo: no solo hay que estudiar lo que ocurrirá en nuestro sistema al introducir el nuevo elemento, sino qué consecuencias tendrá en los demás.

Imagen del artista callejero Ludo.

 

Hoy un cuentecillo de ciencia ficción:

 

Macbeth:

She would have died hereafter.

There would have been a time for such a word-

Tomorrow, and tomorrow, and tomorrow,

Creeps in this petty pace from day to day,

To the last syllable of recorded time;

And all our yesterdays have lighted fools

The way to dusty death. Out, out, brief candle!

Life’s but a walking sahdow, a poor player

That struts and frets his hour upon theistage

And hen is heard no more. It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

***

Michael Chorost tenía un implante coclear en el interior de su cráneo que captaba una señal de radio de un pequeño receptor de audio instalado en su oído, la procesaba electrónicamente y transmitía la información al cerebro por medio de los nervios auditivos. Chorost podía desconectar el receptor de audio y conectar el dispositivo a un teléfono o reproductor de CD. Eso le permitía experimentar el sonido sin la presencia de ninguna onda de sonido en la sala en la que se encontraba. El sonido solo se reproducía en su cerebro sin ninguna vibración del aire, no existía fuera de él.

***

En 2013, el equipo de neurocientíficos del MIT dirigido por Xu Liu, consiguió introducir recuerdos falsos en el cerebro de ratones. Mediante una técnica denominada “optogenética”, que permitía activar o desactivar neuronas utilizando luz, consiguieron que los ratones sintieran miedo ante la posibilidad de una descarga eléctrica que jamás habían recibido y que, por tanto, era imposible que recordaran. Resulta llamativo que el primer recuerdo falso creado en un organismo fuera el miedo.

***

“Somos mirlos en los ojos de otros mirlos que se van”

Fragmento de la canción Héroes del sábado de la M.O.D.A.

***

¿Qué narrativa le ponemos al 22-43?

Vale, es difícil. Tiene treinta y cuatro capas. Si borramos a su mujer y a sus dos hijas tenemos que irnos muy atrás. Conoció a su esposa hace doce años, lo que nos lleva veinte capas al completo. El problema está en que tenemos que corregir muchísimas posibles incoherencias. El indicador de coherencia Veiger-Kuznets está a -0.24. A ver cómo cuadramos el hecho de trabajar como alto ejecutivo en la empresa de su suegro sin tener titulación académica ni para entrar como empleado de limpieza.

¿Qué te parece ésta, la 34A-3.765 a partir del vector 5.687.432? Se dio cuenta de que había perdido el tiempo, volvió a retomar los estudios. Para disminuir la incoherencia lo convertimos en una rata de biblioteca: en todos sus años de universidad no conoció a casi nadie.

Espera, su grado de extroversión es de 2.92, no encaja ¿Tenemos el permiso para modificar módulos nucleares de personalidad?

Sí, lo tenemos. El tío estaba realmente jodido. No le importaba nada con tal de olvidarlo todo.  Podemos convertirlo en tímido e introducirle trazas de fobia social.

Vale, pero no te pases. Recuerda que el cliente paga para ser más feliz. Si ahora lo convertimos en un agorafóbico no quedará muy contento. Que sea algo suave: sencillamente, se encuentra incómodo en lugares atestados de gente y disfruta mucho de su soledad.

Bien, cargo narración en los sectores 6C y 2WW ¿Correcto? Vamos también a borrar dos años completos aquí y aquí. Esos no parecen haber tenido demasiadas consecuencias en ningún hecho trascendente posterior.

Carga despacito. Recuerda lo sensible que es el hipotálamo. No queremos que el cliente termine con amnesia anterógrada.

Hay que meterle también el pack plus, la narrativa de Eduardo Vaquerizo. Es realmente magnífica. Es que Vaquerizo es el mejor escritor de narrativas neurales del mundo. Recrea emociones y sensaciones con una vivacidad increíble. Yo mismo me implanté un minipack de fin de semana. Ese de esquiar en Aspen y conocer a esa jovencita bielorrusa.

Y lo más interesante: sin que tu mujer se enterara. Jajaja.

Es que técnicamente, nunca he sido infiel a mi esposa ¿Por qué va a ser infidelidad acostarme con una chica que no existe? Jajaja.

Nunca he entendido lo de implantarte recuerdos manteniendo la consciencia de que son falsos ¿No te parece raro acordarte de cosas que nunca pasaron?

No pasa nada. Lo recuerdas exactamente igual que si hubiera ocurrido. Recuerdo perfectamente la montaña, los tejados nevados de las casas, los álamos, el viento frío en mi cara, los profundos ojos azules de la chica, el tacto de su pecosa piel… Mi mente no diferencia ese fin de semana de cualquier otro.

Ya, pero, no es verdad. Al implantarte falsos recuerdos estas creando conexiones causales en tu personalidad que vienen de la nada. Actuamos con respecto a nuestra experiencia pasada, esas narraciones configuran nuestro ser actual ¿No te parece inquietante modificarte a ti mismo a raíz de sucesos que nunca sucedieron?

No. De hecho, ese recuerdo me hace más feliz. No veo nada de malo en implantarnos falsos recuerdos si eso nos mejora. De hecho, gracias a ese fin de semana falso sé esquiar mejor.

¿Y no te lías? Cuando ya te has implantado un montón de falsos recuerdos… ¿No te perturba no saber cuáles fueron reales y cuáles no?

Tampoco es tan importante. Pero ya sabes que los recuerdos falsos están etiquetados, llevan la F-tag, de modo que siempre sabes que son falsos.

No sé… yo siempre digo con orgullo que soy cien por cien real: no tengo ni un solo recuerdo falso.

Tú lo que eres es virgen. Jaja. Te estás perdiendo un montón de cosas. La vida real es, en la mayoría de las veces, tan sombría y aburrida ¿Por qué no aliñarla con un toque de fantasía?

Es que no es exactamente fantasía, no es como leer un libro o ver una película, es meter en tu mente historias que nunca sucedieron… Es interferir en tu identidad biográfica.

¿Y qué haces cuando lees un libro? ¿Es que lo que lees no te influye? ¿No interfiere en tu identidad biográfica? Implantarse falsos recuerdos solo es dar un paso más.

Vale, terminamos. La historia es la de siempre: le han ascendido y comienza una nueva vida en una ciudad diferente. Se despertará en el vuelo que le lleva destino a Osaka. Las clásicas molestias cerebrales serán achacadas, como siempre, al jet lag. Terminamos por hoy. Mañana chequeamos las líneas de conexión interperiféricas, reparamos el daño neuronal y hacemos el análisis de niveles bioquímicos.

Cierro el compilador. Apagamos la consola y lo dejamos toda la noche cargando.

Vamos, te invito a una cerveza en el Diamond.

No, hoy no puedo. Mi mujer está muy pesada con el embarazo. Se ha vuelto bastante más territorial que de costumbre, así que nada de amigotes por un tiempo.

¿Seguro? Vamos, solo una birra y a casa.

No, no me tientes. De verdad que luego no hay quien la soporte.

Oye, una cosa: ¿cómo se llama?

¿Quién?

Tu mujer.

¿Mi mujer?

Sí, tu mujer.

Ya lo sabes, la conoces desde hace años ¿Por qué me lo preguntas?

Por nada, pero respóndeme, ¿Cómo se llama tu mujer?

¿Mi mujer?

Sí.

Jajaja… pues… joder… pues… espera.

El nombre de tu mujer.

Espera… jajaja… Eh… se me ha ido… espera…

Vamos, es muy fácil: su nombre.

Ya… no sé… lo tengo en la punta de la lengua.

Nada, chicos, otra vez, no ha funcionado.

No, pero… ¿qué pasa? ¿Por qué no la recuerdo?

Habrá que empezar de nuevo desde el vector 34.765.009 ¿Por qué falla siempre a partir de esa zona?

Un momento… explica… ¿qué pasa?

Lo siento tío. La chica de Aspen no es un falso recuerdo en tu mente sino al contrario: tú eres un falso recuerdo en la suya.

¿Cómo? No puede ser… jajaja. Venga tío no tiene gracia.

Sí, el nuevo minipack de fin de semana romántico para mujeres de Eduardo Vaquerizo. Tú eres el atractivo ingeniero de subjetividad infiel que conocen en la estación de esquí. Estamos probando tus líneas de coherencia.

Sí claro… venga tío… No puede ser… yo… yo…

Lo siento. Venga chicos, parar la simulación, vamos a ver si podemos depurar a partir del tercer breakpoint.

No puede ser… veo mi mano, es real… Yo… lo siento… siento el mundo que me rodea… yo… estoy vivo… o… existo… yo existo…

Una pena. Ha sido un placer. Reiniciamos.

 

It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

 

Campañas contra los robots asesinos, muchos desarrolladores e investigadores diciendo que la IA puede ser un gran peligro (hace unos días lo hizo Bengio), la famosa carta del Future of Life Institute en la que personalidades como Stephen Hawking, Elon Musk, Steve Wozniak y todo el resto de la flor y nata del stablishment tecnológico norteamericano en la que alertaban sobre el peligro de los desarrollos bélicos de la IA, e incluso el Secretario General de la ONU, Antonio Guterres, hablando de la prohibición de las LAW (Lethal Autonomous Weapons). Raymond Kurzweil escribiendo sobre la singularidad tecnológica y sobre máquinas conscientes para el 2029, Nick Bostrom alertándonos de la gravedad de los problemas a los que llegaremos cuando ocurra la «explosión de inteligencia»: momento en el que surja una IA cuya inteligencia nos supere y se dedique a hacerse más inteligente a sí misma, lo cual llevará a un proceso de crecimiento exponencial… ¡Las máquinas se harán con el mando del mundo y tendrán que decidir si somos una amenaza para ellas o no!

Mucho revuelo, pero ¿hay que tomarse esto en serio? ¿Hay que comenzar a preocuparse por la rebelión de las máquinas asesinas? Ni hablar. Veamos:

  1. No hay ni la más mínima evidencia empírica que apunte a la posibilidad de crear máquinas conscientes. Ni la más mínima. Invito al lector a que lea propuestas como CLARION, OpenCog, LIDA, etc. y que juzgue por sí mismo si son conscientes o no, o sí, al menos, están cerca de conseguirlo.
  2. En lo referente a una Inteligencia Artificial General, el asunto no está mucho mejor. Hay proyectos e ideas (véase CYC, SOAR o el actual IMPALA) pero, igualmente, están lejísimos de que podamos tener una IA capaz de acercarse a la polivalencia de nuestras mentes de primate. El Frame Problem sigue sin resolverse concluyentemente y nuestras más avanzadas arquitecturas de aprendizaje profundo tienen mucho menos sentido común que un niño de tres años.
  3. Entonces, sin base experimental ni teórica alguna… ¿cómo nos atrevemos que decir que la IA artificial es tan peligrosa y, es más, que se rebelará contra sus creadores? Curiosa forma de argumentar: del conjunto vacío de premisas deducimos todo lo que nos da la gana.
  4. Es por ello que es absolutamente imposible realizar ningún tipo de predicción al respecto. Es una solemne estupidez hablar de fechas. Sería algo así como preguntarle a un hombre de la Edad Media por la aparición del vuelo a reacción. Los que se atreven a hacerlo se lo inventan sin ningún criterio, así de claro. Igual da decir 2029, 2087, 2598 o 15345.
  5. Lo que sí tenemos en IA son excelentes hiperespecialistas: inteligencias capaces de hacer a nivel sobrehumano tareas muy concretas como por ejemplo, jugar al ajedrez o al Go (actuar en entornos muy formalizados), analizar y modificar imágenes, o buscar patrones en ingentes cantidades de datos… pero nada más. Si tienes una red convolucional increíblemente buena detectando un tipo de tumor en radiografías de pulmones y quieres que aprenda otra cosa, solo tienes un camino: borrarlo todo y volver a entrenar a la red desde el principio.
  6. El deep learning ha supuesto un gran empujón a un campo que, siendo honestos, ha tenido casi más inviernos que primaveras. Las distintas versiones de Alpha (Go, Zero, Star…) son impresionantes, y el generador de textos recientemente aparecido GPT-2 es lo mejor que nunca he visto… a falta de que hagan público cómo funciona. Sin embargo, a pesar de que estos logros son alucinantes, hay que entender que la ciencia avanza, en la inmensa mayoría de los casos, a base de pequeños pasos.
  7. Se cae en un error muy común a la hora de entender el progreso científico. Se cree que porque algo esté avanzando con mucha solvencia, ese avance va a seguir ininiterrumpidamente hasta llegar al infinito. Así, si creamos máquinas un poquito inteligentes, en un futuro, seremos capaces de hacerlas superinteligentes… ¿Por qué? En ciencia es muy común encontrar programas de investigación muy prometedores que terminan por volverse degenerativos y abandonarse. Verdaderamente, no sabemos qué pasará con la IA al igual que no sabemos lo que pasará con ninguna otra tecnología ¿Alguien pudo predecir el éxito de Apple, Twitter, Yotube…? Como bien afirma el analista Nassim Taleb, una de las características de nuestra época es nuestra mas que patente incapacidad de predicción: sucesos altamente improbables suceden por doquier.
  8. Pero, dado que nosotros solo somos quarks organizados de una determinada manera y nuestra mente surge de colocar quarks de un determinado modo… ¿no será entonces cuestión de tiempo que descubramos tal colocación y entonces creemos una IA a imagen y semejanza de nosotros y, ya puestos, la haremos mejor que nosotros? Por supuesto, pero esta argumentación es de lo más vacío que puede decirse. No es algo muy alejado de sentenciar: todo lo que sea posible terminará por pasar. Vale, tómate un café ¿Podremos viajar más allá de la Vía Láctea y colonizar el universo? ¿Podremos hacer un zoo de dinosaurios al estilo de Parque Jurásico? ¿Podremos hacer máquinas del tiempo o teletransportarnos? En teoría no vemos que sean imposibles… ¿Centramos entonces todo el debate mediático en torno a estos temas?
  9. Andrew Ng dice que debatir ahora sobre la rebelión de las maquinas es equivalente a debatir sobre el problema de la superpoblación en Marte. Es posible que sea un tema muy interesante y evocador, pero no puede tener la cobertura mediática que se le está dando. Hay problemas mucho más acuciantes que merecen mucho más que les dediquemos nuestro esfuerzo.
  10. En el fondo se está jugando con una falacia informal, la ad ignorantiam: sacar conclusiones a favor o en contra de algo por el hecho de que no se ha demostrado lo contrario. Como, en el fondo, nadie puede estar en desacuerdo con el punto 6… pues el punto 6 es cierto. Dos cosas: en primer lugar que algo sea irrefutable no quiere decir ni que sea cierto ni que merezca la pena nuestra atención. El famoso ejemplo de la tetera de Russell viene aquí a pelo: sería posible que ahora mismo en un anillo de Saturno existiera una tetera orbitando alrededor del planeta. Si alguien asegura que es absurdo que allí haya una tetera, no tenemos más que decirle que intente demostrar que no es así. Como no podrá, ya está, nuestra afirmación es verdadera. Como nadie ha demostrado que no sea posible crear una IA de inteligencia sobrehumana, la inteligencia sobrehumana llegará y, es más, se rebelará contra nosotros.
  11. La carga de la prueba la tiene siempre el que afirma: así los defensores de la rebelión de la IA deberían aportar la suficiente evidencia empírica tanto acerca de la fabricación de máquinas sobrehumanas como de la supuestamente necesaria rebelión de éstas. Como hemos afirmado en 1 y en 2, no existe tal evidencia de lo primero, cuánto menos de lo segundo: ¿a alguien se le ha rebelado alguna vez una máquina y ha querido, a propósito, atentar contra su integridad física? Creo que James Cameron (Terminator) y las hermanas Wachowski (Matrix) han hecho mucho daño.
  12. Pero es que es más: existe evidencia en contra. Hay multitud de argumentos que diferencian la mente humana de un computador y que subrayan la imposible reducción de la primera al segundo. Las críticas a la IA Fuerte han llegado desde todos lados. Por citar los más notorios, tenemos el argumento de la irreductibilidad de los qualia de Nagel, la crítica desde la perspectiva heideggeriana de Dreyfus, la indecibilidad gödeliana de la mente de Roger Penrose o, para mí la más notoria, la caja china de John Searle. Creo que, a pesar de las múltiples matizaciones, no se ha conseguido refutar convincentemente a estos autores (sobre todo a Nagel y a Searle).
  13. Estos argumentos críticos tampoco llegan a imposibilitar la creación de máquinas superinteligentes o conscientes, solo sostienen que las que hay no lo son y que, por el mismo camino, no lo vamos a conseguir. Yo no tengo ni idea de cómo podrán conseguirse (tendría algún que otro premio Nobel si lo supiera), pero desde luego, estoy seguro de que una consciencia no puede correr en un procesador Pentium (ni en una TPU de Nvidia) ni guardarse en una memoria USB.
  14. La rebelión de las máquinas es un tema que puede ser evocador e interesante, incluso un magnífico campo para la reflexión filosófica y el experimento mental. No digo que no se pueda tratar. Yo lo he hecho alguna vez en el blog. Lo que sostengo es que es un tema sobredimensionado que, muchas veces, aparece en el foco de atención mediática como si fuese un problema social de primer orden que urge solucionar, cuando lo único que hay es marketing: se ha encontrado un nuevo nicho por explotar, y hay muchos libros que vender y muchas cátedras universitarias que ocupar.

Addendum del 29-5-2019:

Tuve el honor de ser invitado a participar de este podcast de Xataka en donde se habló de este artículo y se profundizó sobre el tema.

La Robolución y el fin del mundo

Publicado: 26 noviembre 2017 en Economía, Tecnología

 


A partir del minuto 56 del vídeo comienza la mesa redonda sobre empleo y robotización (si bien las otras mesas también son muy interesantes para comprender bien qué nos deparará el futuro próximo).

Las alertas saltaron con el famoso informe de Oxford (Frey y Osborne, 2013) en el que se barajaban unas cifras escalofriantes: el 47% de los puestos de trabajo en EEUU, susceptibles a ser automatizados en las próximas décadas. Una robotización tan rápida llevaría a unos porcentajes de paro estructural insostenibles para cualquier país desarrollado. El CEO de la think tank REX, Jerry  Michalsky llegó a decir que «la automatización es Voldemort», y el profesor de Harvard Justin Reich hablaba, sin ambages, del hundimiento de la clase media.

Además, constantemente nos llegan noticias en esta línea: Elon Musk pretende que sus fábricas de Tesla sean algo semejante a alien battleships, es decir, escenarios en los que solo hay máquinas sin ningún humano a la vista; ADIDAS está poniendo en marcha su SpeedFactory en Ansbach (en Alemania, ya no en China. Pensemos que con las máquinas la ventaja competitiva de explotar a los trabajadores se pierde) en la que se pretende que solo trabajen 136 personas; o Foxconn (la gigante subcontrata taiwanesa que fabrica los iphone) quiere automatizar todos sus procesos productivos, habiendo anunciado la sustitución de 60.000 empleados humanos por foxbots en una de sus inmensas factorías en China. La clásica figura del operario de cadena de montaje está en inminente peligro de extinción, estando ya el proceso de mecanización total del sector industrial en fase avanzada.

Pero el problema no está ya solo en que los robots van a terminar con los trabajos de las tres d (dull , dirty y dangerous) sino con muchos otros, a priori, menos mecanizables. No solo transporte, construcción o industria, sino logística, contabilidad, administración… La empresa japonesa Fukoku Mutual Life Insurance sustituyó a 34 de sus adminsitrativos por un sistema informático basado en el IBM’s Watson Explorer con la intención de subir la productividad en un 30%, amortizando su inversión de 1,7 millones de dólares en dos años… ¡Ningún trabajo parece estar completamente a salvo!

¿Estamos ante una época de colapso económico, de caos e inestabilidad irrefrenables?

  1. Creo que los plazos de los que se hablan son exagerados. Si uno analiza el estado del arte de la robótica, de la IA y, en general, de la automatización, comprueba que no hay razones tan sólidas que justifiquen la desaparición de tantos puestos de trabajo en tan poco tiempo. Hay que tener en cuenta que que algo funcione muy bien en un laboratorio del MIT no implica, para nada, que vaya a terminar por ser una tecnología de uso común en nuestra vida cotidiana. El proceso de implementación de una tecnología, a pesar de ser rapidísimo en comparación con otras épocas, todavía lleva mucho tiempo. Solo una pequeñísima parte de lo que se sueña en Silicon Valley es lo que llega a nuestros trabajos y hogares y, en general, los expertos como, por ejemplo, el ingeniero de IA del MIT David Clark, sostienen que la automatización no será tan autónoma en las próximas décadas.
  2. Otros estudios posteriores han manejado cifras mucho más conservadoras que las del de Oxford. Por ejemplo, el realizado por el National Bureau of Economic Research (Acemoglu y Rastrepo, 2017), a pesar de manejar datos todavía muy preocupantes (que por cada robot introducido se pierden entre 3 y 5,6 trabajos), da unas previsiones económicas menos drásticas. Otros, como el hecho por el McKinsley Global Institute, hablan de que solo un 5% de los empleos actuales son enteramente automatizables.
  3. Incluso hay visiones muy optimistas. Otro estudio más, esta vez hecho por el Pew Research Institute, nos mostraba que las opiniones entre los expertos están muy divididas. De entre 1.896 investigadores en este campo, un 48% mantiene una perspectiva catastrofista, mientras que el restante 52% la tiene optimista. Un argumento que se repite es que en épocas de alta rentabilidad (Accenture dice que la IA podría duplicar las tasas de crecimiento económico anuales de los países desarrollados para el 2035, con aumentos de la productividad de hasta el 40%), el empleo no suele ni destruirse ni parar de crecer. Desde finales del siglo XIX, la productividad ha crecido de entre 15 a 20 veces por hora trabajada, a la vez que el volumen de empleo ha crecido de entre un 30 a un 50% en economías avanzadas. Parece que, desde una perspectiva histórica a largo plazo, el aumento de productividad provocado por la automatización no ha dado como resultado la pérdida de empleo, sino todo lo contrario. Desde perspectivas liberales, suele utilizarse la expresión «destrucción creativa» para referirse al ciclo continuo de eliminación de puestos de trabajo obsoletos que se sustituyen por nuevos, entendiéndose este proceso como algo enteramente deseable. Las sociedades en las que no quedan obsoletos puestos de trabajo son sociedades económicamente estancadas, por lo que cualquier política proteccionista con algún gremio específico no es, para nada, aceptable. En este sentido, que el avance de la tecnología destruya empleo es una excelente noticia.
  4. Sin embargo, otros economistas hacen hincapié en que está visión es demasiado simple y no tiene en cuenta un factor fundamental: la reducción de la jornada laboral que ha acompañado históricamente a este aumento de la productividad (a lo largo del siglo XX las salvajes jornadas laborales del diecinueve se han reducido aproximadamente a la mitad). Si la automatización no es acompaña de la reducción de jornada, dicen ellos, sí que se destruye empleo ¿Vamos a trabajar menos horas en los próximos años? Desde luego, sería una gran noticia. Marta G. Aller me recordó en la charla que algo así ya había ocurrido en la historia con las sociedades esclavistas. Es cierto, la diferencia estriba en que antes solo una pequeña élite de amos podía vivir sin trabajar mientras que ahora estamos hablado de toda la clase media. En cualquier caso (y salvando la enorme distancia histórica), el ejemplo de sociedades como la Atenas de Pericles, sirve como argumento a favor de que vivir sin trabajar no tiene por qué llevarnos a un mundo de holgazanes y maleantes, sino todo lo contrario: las obras de Sófocles, Platón, Fidias, Mirón, Policleto, Heródoto, etc. quizá no hubieran sido posibles si sus autores hubieran tenido que trabajar para ganarse la vida ¡Una de las épocas culturalmente más gloriosas de la historia de la humanidad fruto de vivir sin trabajar!
  5. Si aceptamos una visión más bien conservadora de la automatización del trabajo, parece que sí nos acercamos a un momento de aceleración de la destrucción de empleo que no va a poder ser reciclado al mismo ritmo. Se aproxima una época de desajuste que llevará a una subida del paro muy peligrosa. Las medidas que se barajan son varias y antiguas (vienen ya desde Keynes): la ya mencionada reducción de jornada laboral (que el propio Keynes preveía de 15 horas semanales en el 2050), que los robots paguen impuestos, que el Estado sea un «empleador de última instancia» para evitar parados de larga duración, la famosa y controvertida renta básica universal (si bien puede hablarse en términos no maximales de ayudas a las rentas mínimas o de diversas formas de ayuda al desempleo), o reformas en el sistema educativo para fomentar las habilidades menos automatizables. El influyente Andrew Ng subraya la necesidad de un nuevo New Deal, destacando la medida de subvencionar en forma de nueva formación a los desplazados por la tecnología.
  6. Y a largo plazo, aunque es muy difícil aventurarse a pronosticar nada, si la automatización del trabajo prosigue tal y como auguran algunos de los acérrimos defensores del avance de la robótica y la IA, la destrucción masiva de empleo será una realidad absolutamente inasumible por cualquier «destrucción creativa». En la mesa redonda, argumenté que los nuevos empleos que surgen de las revoluciones digitales no podrían hacer frente a esto. De modo un tanto socarrón, dije que «youtubers hay cuatro», a lo que Rallo me respondió que podrían existir más youtubers debido a que, al aumentar el poder adquisitivo de los espectadores debido al aumento de productividad, un youtuber podrá ganarse la vida con menos público ya que éste se podrá permitir pagar más. Problema: los youtubers también podrán ser robots. De hecho, en Japón ya existen hasta youtubers virtuales o cantantes de música pop holográficos con bastante éxito. En otras revoluciones industriales, siempre nos quedaba el trabajo intelectual. El quid de la cuestión es que en ésta ya no tendremos qué hacer que las máquinas no puedan hacerlo mucho mejor que nosotros. En este escenario (insisto en que todavía muy hipotético), la renta básica universal no parece ser una opción más o menos opinable en función del espectro ideológico en el que uno se mueva, sino que será completamente necesaria.

Desde el Foro de Futuro Próximo hemos planteado una serie de debates acerca de un tema tan apasionante en estos momentos como es la IA. En nuestra primera mesa, mañana a las 18:00 horas en las Escuela Técnica Superior de Ingenieros Industriales, contamos como contertulios a figuras tan interesantes como Juan Andrés Avilés, Pablo Gervás, José Manual García y Álvaro José García Tejedor, primeras espadas en el campo de la IA nacional. Y como no podía ser de otra manera, el moderador será vuestro maquinista preferido, un servidor.

La asistencia es gratuita (podéis registraros en la página por razones de control, pero no es necesario), así que no podéis faltar. Os garantizo un debate de calidad que, con total seguridad, os dará una visión más rica y profunda del fenómeno tecnológico de moda (tened en cuenta que lo modera un filósofo, con su peculiar toque, muy distinto a la habitual visión ingenieril). Después de la mesa redonda habrá una fase de preguntas en las que podréis participar, y discutir y debatir lo que os plazca, con toda la maldad e irreverencia que os de la gana (Incluso después podréis hablar con nosotros y conocernos en persona, hasta tocarnos para comprobar que somos organismos biológicos y no androides… o eso creo).

Os espero. Doy mi palabra de que merecerá la pena venir.

Addendum del 4-11-2017:

 

 

Añado el vídeo de la primera sesión. El montaje es genial (doy las gracias a Alianza Futurista por ese excelente trabajo). Ponentes de altísimo nivel (de verdad), dando opiniones formadas en un debate fluido (creo que no se hizo demasiado aburrido) sobre nuestro tema. No sé los demás, pero yo me lo pasé bastante bien.

Desde cierta perspectiva ideológica se entiende el entramado tecno-científico  como un instrumento al servicio del malvado capitalismo (tecnoliberalismo he leído). Las grandes corporaciones que dominan el mundo desde la sombra, utilizan la tecnología, esencialmente, contra el ciudadano de a pie (es decir, contra el lector promedio de noticias de esa temática ¿Qué iban a tener mejor que hacer los dueños de las multinacionales?), intentando controlarle, mantenerle alienado, en un estado de esclavitud inconsciente.

Las máquinas, asociadas a la revolución industrial y, por lo tanto, a la explotación de la clase obrera, se ven como la máxima expresión de lo inhumano. Si el sistema capitalista ya es inhumano, sus frutos mecánicos no podrían ser menos: los robots son entes fríos gobernados por despiadadas almas de metal, seres amorales que, como tantas veces pronostica la literatura y el cine, terminaran por aniquilarnos. HAL 9000, Proteus, Skynet… todas las versiones cinematográficas en las que se habla de inteligencias artificiales es, siempre, para reinterpretar una y otra vez el mito de Frankenstein: humanos jugando a ser dioses («jugar a ser dioses» es un mantra repetido ad nauseam que no significa absolutamente nada) a los que su creación se les va de las manos y termina por volverse contra ellos.

Recientemente apareció en la prensa la noticia de dos programas de IA de Facebook, diseñados para establecer negociaciones, que habían creado un lenguaje propio aparentemente ininteligible. Asustados por el descontrol, aseguraban los periodistas,  los programadores desconectaron los programas (como si los programas estuviesen vivos siempre en funcionamiento y no se desconectaran cada vez que no se estuviesen ejecutando, es decir, como mínimo cuando los programadores se fueran a dormir a casa y apagaran sus ordenadores). La prensa amarilla vendió el asunto como si los programas se estuviesen escapando de las manos de sus creadores y los ingenieros de Facebook, realmente, hubiesen sentido miedo ante las posibles consecuencias de dejar funcionando algo sí. En ciertos medios (que no citaré para no darles publicidad) se dijo, alegremente, que esto demostraba que el estado de la IA actual ya había superado al hombre, y sugerían un escenario apocalíptico de lucha entre humanos y máquinas. Lamentable: la prensa, como tantas veces, desinformando.

La realidad es que, a mi pesar, la IA está a años luz de conseguir lo que sería una IAG (Inteligencia Artificial General) equiparable al ser humano, hacia la que tuviésemos que empezar a mostrar algo de preocupación. Se han dado excelentes progresos en reconocimiento visual o comprensión del lenguaje natural a través de modelos de redes neuronales artificiales, además de que con la actual capacidad de computación, podemos diseñar redes que aprenden rápido (y por sí solas) a través de ingentes cantidades de datos. Sin embargo, todavía son máquinas demasiado especializadas en una tarea concreta para poder enfrentarse a la inabarcable complejidad que parece necesitarse para operar competentemente en el mundo real. Es posible que en un futuro, más lejano que cercano, lo conseguirán, pero creo que, de momento, tenemos preocupaciones más apremiantes que las IA asesinas pretendiendo dominar la Tierra.

Y si nos vamos a las ciencias de la vida, el asunto no hace más que empeorar. Ya sabemos como en temas de nutrición, hay que comer alimentos sanos, es decir, naturales. Todo lo «químico», lo «artificial» es, casi a priori, tóxico. Los defensores de lo natural parecen desconocer que todo lo que existe (o, como mínimo, lo que comemos) está compuesto de elementos químicos presentes en la tabla periódica (todo es químico). Si contraargumentan que químico significa que ha sido sintetizado en un laboratorio, habría que preguntarles qué tiene de malo que algo se procese en un laboratorio, cuando, precisamente, los laboratorios han de pasar por una infinidad de controles para poder sacar un producto al mercado, mientras que algo que no procede de ningún laboratorio es lo que puede escapar más fácilmente al control.

Es lo que pasa con la medicina natural. Un medicamento convencional requiere una altísima inversión por parte de la empresa farmacéutica que va desde la investigación hasta que el medicamento es aprobado y sale al mercado (igualmente pasando por una gran cantidad de protocolos y controles sanitarios). Por el contrario, el medicamento natural, se ahorra absolutamente todo: ni investigación (¿para qué demostrar que el medicamento es eficaz o no, o qué efectos secundarios tiene, si mi cuñada dice que le fue genial?) ni ningún tipo de control ¡Vaya chollazo! Es curioso que los críticos con las farmacéuticas ven en ellas el feo negocio de la salud (muchas veces con razón), pero no lo vean en los suculentos beneficios de las empresas de lo natural.

Si por natural entienden lo orgánico como referencia a la química orgánica o del carbono, deberían saber que el petróleo y sus derivados plásticos son compuestos tan orgánicos (tan compuestos por carbono) como su zumo de aloe vera. Es más, su coliflor ecológica, tan sana en comparación con la peligrosísima coliflor transgénica, es fruto de milenios de selección artificial de genes, sin ningún estudio de su peligrosidad más que comerla y ver qué pasa. La coliflor, y todas las frutas, verduras, hortalizas y legumbres que cultives «naturalmente» en tu huerto ecológico, provienen de ancestros completamente diferentes (la coliflor viene de una insustancial especie de mostaza silvestre)  que fueron seleccionándose en función de las propiedades que se querían potenciar, es decir, que se escogieron genes y se desecharon otros durante miles de generaciones. Todo tu huerto está formado por especies diseñadas por el hombre: es, por entero, artificial.

Desde obras como Brave New World de Huxley, inspiradora directa de la Gattaca (1997) de Niccol, se ha criticado cualquier forma de eugenesia apelando, fundamentalmente, a que crear niños a la carta (por muy buenas virtudes que les demos y por muchas enfermedades de las que les libremos) les privaría de cierta libertad, dando lugar a un mundo demasiado ordenado y regular, demasiado perfecto. En Gattaca se ataca directamente el determinismo genético (el que, erróneamente, tanto se ha atribuido a Dawkins) afirmando, en lenguaje cinematográfico, que no todo está en los genes, sino que el hombre tiene algo valioso en su interior, una especie de esencia, que le permite vencer incluso a su propio genoma.

En la misma línea, repitiendo el jugar a ser dioses, se ha argumentado que modificar genéticamente al ser humano no puede dar lugar a otra cosa que no sean monstruos que, al final, se volverán de algún modo contra nosotros (Véase la película Splice, 2009) . Nuestra naturaleza humana es la que nos hace ser lo que somos, de modo que cambiarla nos deshumanizaría o, peor aún, inhumanizaría.  Todo esto se enmarca siempre con menciones a los programas eugenésicos de los nazis (no suele mencionarse que esos mismos programas se estaban dando, igualmente, en los países aliados, notablemente en Estados Unidos, uno de los países más racistas del mundo) o al darwinismo social (que tantas veces se confunde con el darwinismo o con la misma teoría de la evolución).

Los errores son evidentes:

  1. Modificar los genes de un embrión para darle ciertas características no le resta ningún tipo de libertad que antes tuviera, ¿o es que alguien ha elegido sus genes antes de nacer? El ser humano genéticamente modificado será tan libre de elegir su futuro como cualquiera de nosotros.
  2. Decir que mejorar genéticamente al ser humano va dar lugar a un mundo enrarecido demasiado perfecto, es una afirmación gratuita: ¿por qué? Con total seguridad, a pesar de dotar a los seres humanos de mejores cualidades, estaremos lejos de crear un mundo perfecto. Lamentablemente, los problemas y las injusticias seguirán existiendo. Yo solo creo que con mejores seres humanos sería más probable conseguir un mundo mejor, pero de ninguna manera perfecto.
  3. Nadie defiende hoy en día el determinismo genético. Somos fruto de nuestros genes, pero también del ambiente y del azar. El niño modificado tendrá una vida entera por delante en la que sus experiencias vitales configurarán su personalidad igual que la de cualquier otro hijo de vecino. Lo que sí está claro es que no tenemos ninguna esencia interior, ninguna fuerza mágica que haga que podamos vencer a nuestra biología. Lo sentimos mucho pero el cáncer no puede curarse con meditación ni buena voluntad.
  4. No existe una naturaleza humana sagrada, dada para siempre. El ser humano es una especie como cualquier otra y, en cuanto a tal, sigue evolucionando por lo que, queramos o no, se modificará ¿No será mejor que nosotros controlemos nuestra propia evolución antes de que lo haga el mero azar?
  5. Que los nazis tuvieran programas eugenésicos no implica que la eugenesia sea mala. Estoy seguro de que muchos nazis eran hábiles reposteros de apfelstrudel (pastel de manzana, postre típico austriaco, muy común en Alemania), ¿por eso cocinar pastel de manzana va a ser malo?
  6. Nadie defiende ningún tipo de darwinismo social. Que alguien tenga cualidades genéticas mejores que otro no quiere decir que haya que marginar o discriminar a nadie. Por esa regla de tres, si me encuentro con otra persona menos inteligente que yo, ¿ya tengo derecho a tratarla mal? Y, en el peor de los casos, la jerarquización social que podría llegar a darse no sería muy diferente a la actual. Los más inteligentes, trabajadores, atractivos, etc. tienden a copar los mejores puestos socio-económicos… ¿qué es lo que iba a cambiar?

Evidentemente, el control ético de todo avance en el que estén inmiscuidos seres humanos debe ser extremo y no debe darse ningún paso sin garantizar, al menos de un modo razonable, que nadie va a sufrir ningún tipo de daño. Nadie está hablando de hacer experimentos genéticos al estilo de La Isla del Doctor Moreau ni de nada por el estilo, se está hablando de dar mejores cualidades, lo cual, probablemente aunque no necesariamente, hará un mundo mejor, lo cual, probablemente aunque no necesariamente, evitará mucho sufrimiento futuro.

Hagamos un último experimento mental. Supongamos que en un futuro próximo el mundo se ha unificado políticamente, de modo que toda la población vota a un presidente mundial. Tenemos dos candidatos:

a) Un ciudadano cualquiera del que no sabemos nada de sus genes.

b) Un ciudadano que fue modificado genéticamente para ser muy inteligente y voluntarioso, a parte de bondadoso, generoso, idealista, honesto…

¿A cuál votaríamos? ¿Con cuál sería más probable que el mundo fuese mejor? Y podríamos añadir una tercera opción:

c) Una inteligencia artificial con capacidades cognitivas sobrehumanas programada para buscar el bien y la felicidad del ser humano, y para ser totalmente incapaz de hacer daño a nadie.

Yo, siendo políticamente incorrecto, creo que la apuesta más segura para un mundo mejor es la c.

Desgraciadamente, toda esta distorsionada y, a todas luces, equívoca forma de entender la realidad domina en gran parte de las universidades y, sobre todo, en la izquierda política. Y es una verdadera lástima porque sería necesaria una izquierda ilustrada que entendiera que una de las mejores formas de conseguir que las clases bajas mejoren su situación es a través del desarrollo científico y tecnológico. No estamos hablando de caer en un optimismo ingenuo hacia las posibilidades de la ciencia, ni en el torpe solucionismo tecnológico (creer que todo lo va a solucionar el avance tecnológico). Este artículo, publicado en el New York Times, nos dejaba claro lo lejos que aún estamos de hacer seres humanos a la carta (fijaos en el dato de que en, solamente, una cualidad como la altura intervienen unas 93.000 variaciones genéticas). Sin embargo hay que cambiar, radicalmente, esta visión-actitud hacia las nuevas tecnologías. Es, sin duda, el tema de nuestro tiempo.

screen-shot-2011-09-28-at-11-36-23-pm

Año 2037. La gran mayoría de los trabajos relacionados con el transporte, la administración o la producción industrial han sido ocupados por robots. El aumento del crecimiento económico ha sido excelente. No hay ningún problema para pagar las pensiones a una población muy envejecida y las arcas del Estado permanecen saneadas y con superávit.  El gran problema es que la tasa de desempleo llega a niveles que rondan el 50%, si bien la manutención de tanto parado se solucionó implantando una renta básica universal. A pesar de que se han creado multitud de nuevos puestos de trabajo y aunque gran parte de los políticos siguen buscando fórmulas para bajar el desempleo, la reconversión laboral ha sido imposible y el desempleo generalizado ha pasado a ser algo completamente cotidiano.

La brecha económica y social ha aumentado. Los afortunados que supieron subirse al carro de la robolución,  aquellos que consiguieron mantener su puesto de trabajo mejoraron muchísimo su calidad de vida. Trabajando con robots que no tenían que dormir ni descansar, a los que no había que pagar un salario, que no se ponían enfermos ni pedían bajas por maternidad y que, para colmo, producían muchísimo más que sus predecesores humanos, las ganancias crecieron sustancialmente. Aunque el reparto de la riqueza siguió siendo tan injusto como siempre (el empresario se seguía llevando casi la totalidad del pastel), una tajada algo mayor les correspondió a ellos (eso sí, su jornada laboral sigue tan larga como siempre. Las predicciones de Keynes, definitivamente, no se cumplieron).

En consecuencia, la estratificación social ha cambiado: seguimos teniendo el pequeño porcentaje de superricos de siempre (un poco más ricos aún que antes), pero a cierta distancia les sigue una nueva clase social: los workers, aquellos que trabajan. Después viene algo parecido a la antigua clase media pero sin trabajo: los jobless (también llamados despectivamente laggards: rezagados). La clase pobre, afortunadamente, ha desaparecido casi por completo en los países desarrollados.

El problema de una sociedad que ha conseguido vencer el hambre, la pobreza, y gran parte de las enfermedades (la esperanza de vida casi llega a los cien años y creciendo), es buscar un sentido a la vida de toda la población jobless. La prensa ha llamado a este asunto el V-problem (void problem: el problema del vacío): ¿Qué hacer cuando no tienes nada que hacer? En sociedades como la nuestra, en las que el sentido de la vida ha estado muy ligado a la ocupación laboral, se temió un brote de angustia y vacío existencial de imprevistas, pero siempre nefastas, consecuencias. Entonces, los jobless, dieron cuatro respuestas al sinsentido:

  1. Los antidepresivos y drogas de diverso índole han avanzado muchísimo, de modo que muchos han optado por una vida de placeres artificiales. El absurdo vital se compensa con un hedonismo potenciado con los nuevos avances de la farmacología. El soma de Huxley es ya una realidad, pero mucho mejor: prácticamente, puedes elegir el estado de ánimo en el que quieres estar en todo momento. Las macrofiestas en donde la música se mezcla felizmente con los psicotrópicos son ahora mucho más comunes que antaño. De hecho hay gente que vive durante años en una fiesta ininterrumpida. Son los everlastings. Las opciones de ocio han aumentado salvajemente: el cine, los videojuegos y la realidad virtual se han fusionado para brindar experiencias alucinantes como, por ejemplo, películas en las que, realmente, tú eres el protagonista. Hay restaurantes virtuales en los que puedes elegir en qué parte del mundo o qué paisaje quieres que envuelva tu mesa. Además, la alta cocina se ha fusionado con la avanzada farmacología consiguiendo platos increíbles: orgasmos con sabor a ostras, cerdo agridulce (sí, la comida china se ha impuesto) que hace que te rías, o los supersutiles (y de precios prohibitivos) pollo gong bao con sabor a verano, o la sopa de wonton que sabe a juventud.  La humanidad jamás ha gozado de tantas alternativas de diversión al alcance de tantas personas.
  2. Luego están los russellianos. Al igual que afirmaba el filósofo británico Bertrand Russell, piensan que es una bendición haberse liberado del trabajo (que consideraban alienante), ya no tanto para el hedonismo salvaje como para otros quehaceres más elevados. Los russellianos se dedican al estudio, a la ciencia, al arte, a la política o a la filosofía, al voluntariado solidario o al ocio cultural: van al teatro o a la ópera, visitan museos, viajan… También hacen multitud de actividades de vida saludable: pasean, hacen deporte, van a la montaña…
  3. Los prayers (rezantes): a pesar del ocaso de las grandes religiones en Occidente (el Islam fue el último en caer), y del tenaz esfuerzo del humanismo laico por terminar con ellas, han surgido nuevas formas de religiosidad, si bien constituyen grupos muy minoritarios en comparación con los everlastings y los russellianos. Habitualmente son formas sincréticas de religiones clásicas y orientales (hay una moda muy popular de rescatar religiones antiquísimas ya extinguidas), dándose originales mezclas como, por ejemplo, los nimai (o luminosos) quienes integran el chiismo imaní y el hinduismo advaita, con algunos elementos tomados del shintoismo japonés. Europa y Norteamérica están plagadas de sectas de lo más variopinto: desde los vedantas cristianos seguidores de Mithra, hasta los renovados adoradores de Brahatmanariyú (quien ahora es una especie de deidad digital que fluye por Internet).
  4. Y por último los llamados voids (podría traducirse como vacíos) o, despectivamente, wastes (desechos): grupos de nihilistas que no han conseguido encontrar el sentido ni en el ocio ni en el russellianismo. Yacen tirados en los parques, vuelven a escuchar música de Nirvana y de los Smashing pumpkins y tienen una altísima tasa de suicidio. Fenómenos como los hikikomori, o casos similares de aislamiento y fobia social, son muy habituales en todas las capitales europeas.  También son tristemente habituales los suicidios colectivos: decenas de personas planifican todo por Internet (hay muchas webs dedicadas a ello y los gobiernos no dan abasto a cerrarlas), quedan en un bonito lugar alejado de las ciudades y mueren tras la ingesta de pentobarbital, que se consigue hoy muy fácilmente en la red (ellos querían hacerlo con el monóxido de carbono de los tubos de escape de sus coches como se hacía en Japón a principios de siglo, pero se encontraron con que ahora todos los coches son eléctricos). Sin embargo, aunque constituyen un problema social e incluso de salud pública, no son un grupo mayoritario en comparación con los otros dos grandes. A pesar de que muchos predicadores del apocalipsis vaticinaron una crisis existencial sin precedentes históricos, la verdad es que no ha ocurrido o, al menos, no lo ha hecho en tal medida.

the-10-best-universities-for-robotics-in-the-us

Post scríptum: esta es una hipótesis de un posible futuro que me ha parecido especialmente literario. No obstante, con respecto a la robolución, creo que, después de un tiempo problemático de incertidumbre y desempleo, se conseguirá la reconversión laboral y no habrá ninguna renta básica universal (a lo sumo algunas rentas mínimas para sectores especialmente frágiles). Unos puestos de trabajo se extinguirán (como ya lo hicieron los de limpiabotas, curtidor, afilador, sereno, telefonista, etc.) y surgirán otros nuevos (como los actuales youtubers, personal shoppers, diseñadores de apps, etc.) que aún desconocemos. En la sociedad ya se han incorporado muchas veces avances tecnológicos que presagiaban la pérdida de empleo y, al final, no llegaron a tanto (por ejemplo, el mismo ordenador). En cualquier caso, lo que, evidentemente, hay que hacer son políticas para afrontar competitivamente estos nuevos cambios (cambios en el sistema educativo, en la fiscalidad, en la legislación laboral… y, por supuesto, en las mentalidades) ¡Traed robots a España ya!