Archivos de la categoría ‘Filosofía de la mente’

Continuamos con la serie de herramientas cognitivas:

Cuello de botella. Es un hecho matemático trivial que un algoritmo no puede funcionar más rápido que el más lento de sus componentes. Así, si tenemos un supercomputador hecho con diez componentes, nueve de los cuales son súper rápidos, siendo tan solo el décimo muy lento, el supercomputador será muy lento. Esta idea me parece que explica muy bien un montón de problemas de eficiencia de cualquier sistema: desde un sencillo microchip hasta el sistema sanitario o educativo de un país, pasando por el equipo de fútbol sala de mi pueblo. Hay multitud de cuellos de botella de diversas formas en muchas partes del funcionamiento de casi todo ¡Detecta y elimínalos ya!

Principio de Ana Karenina (una variante del cuello de botella). Usado por Jared Diamond en su superventas Armas, gérmenes y acero (a cuya lectura no me he animado porque la edición que yo manejo es un tocho con letra minúscula ¡Comprad buenas ediciones! ¡Gastad dinero miserables!), se refiere a que en muchos sistemas, el fallo de tan solo uno de sus elementos da al traste con su función completa. Por ejemplo, pensemos en una operación matemática: hay infinidad de formas de errar pero solo una solución correcta ¡Por eso son tan difíciles! Este principio es una buena herramienta para analizar cualquier cosa: ¿cuántos requisitos necesitamos para conseguir ser felices? ¿Y con que uno de ellos falle todo se va al traste?

Argumento hegeliano. Irónicamente ingeniado por Anthony Chemero, es «todo argumento basado en escasa o nula evidencia científica y orientado a probar a priori la inadecuación de un proyecto o incluso de un programa de investigación empírica al completo». Recordemos que Hegel, el filósofo del dinamismo y del movimiento del universo por excelencia, se negó a ver la teoría de la evolución biológica, precisamente, basándose en principios metafísicos a priori.

Efecto Lindy. Ideado por el ingenioso Taleb, viene a decir que si queremos predecir la duración de un objeto en el tiempo, sencillamente, pensemos en el tiempo que ya ha durado. Taleb sostiene que los objetos más antiguos son los que tienen más probabilidad de seguir existiendo durante más tiempo en el futuro. Esta idea puede servirnos a la hora de elegir un libro o una película. Si un libro se sigue editando después de muchísimos años, o si se sigue hablando de una película a pesar de ser antigua, será porque son buenos. Obviamente, estaríamos renunciado a todo lo nuevo, es la estrategia más conservadora por excelencia, pero a cambio de asegurar la calidad.  Los clásicos se llaman clásicos por algo.

El Homer del futuro. En una escena del episodio 467 de los Simpsons, Homer se está comiendo un tarro de mayonesa mezclada con vodka. Entonces dice: «Esto es problema del Homer del futuro. ¡No me gustaría estar en su pellejo!». De hecho, si pensamos que la continuidad de consciencia es una ilusión, ya que nuestra consciencia va haciendo barridos de forma discreta cada pocos milisegundos, nuestro yo desaparece a cada momento ¡Morimos contínuamente! Entonces, lo que le pase a mi yo del futuro no debería importarme mucho ya que será una persona diferente a mi yo del presente. Yo no creo demasiado en esa idea porque, en cualquier caso, si mi continuidad es una ilusión, en tanto que ilusión es muy real para mí. Pasa como con el libre albedrío. Aunque no sea cierto que elijamos libremente no podemos vivir de otra forma ¿Cómo se pueden tomar decisiones sin creer que se están tomando decisiones? De la misma manera, creo que mi yo de hace diez minutos era yo aunque no lo fuera, y mi yo del presente se preocupa un poco (quizá menos de lo que debería) de mi yo del futuro. De todas maneras, cuando uno está demasiado agobiado por las infinitas obligaciones de la vida adulta, siempre es saludable posponer ciertas preocupaciones y dejárselas a nuestro Homer del futuro.

Lo indisponible. Concepto central en la filosofía de Harmut Rosa, se utiliza para hacer una crítica a los ideales de la modernidad, obstinados en el dominio y el control de todo. La tecno-ciencia intenta que todo esté disponible, que tengamos todo cuando nos apetezca de forma instantánea, pero eso hace que, precisamente, lo que no está disponible cobre cada vez más valor. Y es que la verdadera experiencia vital, lo que hace que todo merezca la pena o tenga sentido, no es algo que esté siempre disponible. Este concepto me recuerda siempre a la lluvia. No sé si por ser oriundo del secarral manchego o por vivir ahora en Granada, adoro que llueva. Me encanta ver llover, pero eso ocurre aquí de forma rara e imprevisible, y eso le da mucho más valor ¿Qué pasaría si viviéramos en el mundo en el que tuviéramos todo en cualquier momento, sueño tecnológico donde los hubiere? Solución en el concepto de animal enfermo unos párrafos más abajo.

Sub aespecie aeternitatis. Bello latinismo popularizado por Spinoza, significa «Desde la perspectiva de la eternidad». Viene a referirse a cuando sostenemos una tesis que consideramos universalmente verdadera (eterna), sin tener en cuenta cualquier elemento contextual o temporal. Es un buen mecanismo de alarma: ¿Lo que estoy diciendo tiene una validez universal o es fruto de mi tiempo/circunstancias/biografía? Seguramente, estaremos más en lo segundo que en lo primero.

La apuesta de PascalReza así: si no sabemos si Dios existe o no, es mejor vivir como si Dios existiera ya que, si es así, gozaremos de la vida eterna en el paraíso, mientras que si vivimos como si no, y al final nos equivocamos, arderemos en el infierno. Buena intuición pero mal argumento. La objeción más fuerte viene desde la perspectiva ética: vivir como si Dios existiera consiste en plegarse a los mandatos que éste nos exige: ser bueno con el prójimo.  Pero, verdaderamente, no es ser bueno hacer el bien solo porque crees que con ello ganarás la vida eterna, sino que ser bueno es hacer el bien a sabiendas que no te va a ocasionar beneficio alguno (Kant dixit). Por tanto, seguir la apuesta de Pascal te llevaría derechito al infierno.

El animal enfermo (das kranke Tier) para Nietzsche. Cuando era joven, en mis últimos años de instituto y durante la carrera, Nietzsche fue un absoluto héroe intelectual para mí. Ahora, no sé si afortunada o desgraciadamente, me encuentro muy lejos, pero eso no quita que todavía conserve, o que se me hayan quedado grabadas tan adentro que ya no se olvidan, influencias suyas. Un concepto que me gustó mucho en aquellos tiempos es su definición del ser humano como animal enfermo. Nietzsche habla de que nos definimos en tanto que animales disfuncionales, defectuosos, incompletos, absurdos. Una tortuga tiene toda su existencia definida, plena de funcionalidad y sentido: una tortuga solo tiene que hacer lo que su naturaleza le dicta, una tortuga es tortuga durante toda su existencia. Sin embargo, el hombre tiene que hacer algo, tiene que elegir darse un tipo de vida concreta, su naturaleza es indeterminada, incompleta, siempre inacabada. Por eso tiene que crear una segunda naturaleza. Para intentar paliar esa carencia de animalidad, se pasa toda su vida luchando contra esta falta de sentido. Y lo más interesante es que esta lucha es interminable, totalmente irresoluble. Estoy seguro que si cumpliera todas mis metas y sueños, me inventaría rápidamente otros, aparte de un buen número de torturas y tormentos variados para mí mismo. En política es igual: estoy completamente seguro que si tuviésemos un sistema político maravilloso, lleno de políticos honorables que se desvelaran por el bien común, todavía existiría muchísima gente quejándose, encontrando mil y un faltas a los ejemplares gobernantes, conspirando continuamente contra ellos. Y es que así somos: siempre quejándonos, nunca conformes, siempre buscando algo no se sabe dónde, siempre sedientos de no se sabe qué bebida. Somos animales enfermos.

Deepety. Término usado por el recientemente fallecido Daniel Dennett (aunque, según parece, acuñado por la hija de Joseph Weizenbaum, Miriam Weizenbaum), es un forma de parodiar la falsa profundidad con la que se nos presentan ciertos textos literarios o filosóficos. Una deepety es (os traduzco literalmente del texto de Dennett en Bombas de intuición y otras herramientas de pensamiento): » …una proposición que parece importante y verdadera (y profunda), pero que logra este efecto siendo ambigua. Según una lectura es manifiestamente falsa, pero sería estremecedor si fuera cierta; según la otra lectura, es cierta pero trivial. El oyente desprevenido capta el destello de verdad de la segunda lectura y la devastadora importancia de la primera y piensa: ¡Guau! Eso es muy profundo». Aplicando esta fórmula, te quitas de una tajada un 90% de las chorradas y majaderías que pueblan toda la historia de la literatura y la filosofía occidentales. Es una navaja de Ockham contra el flipamiento en el que parece vivir mucha gente del mundillo intelectualoide. Dennett pone el ejemplo de la frase «El amor es solo una palabra», pero puede aplicarse a tantas y tantas sentencias célebres… ¡Y a sistemas filosóficos completos!

Me resulta bastante inquietante, por lo común que suele darse, que de cualquier tema opine todo el mundo menos quien realmente sabe. Todos parecemos saber más de fútbol que el seleccionador nacional, o saber qué es lo que conviene al país mejor que todo el consejo de ministros, pero es que incluso en temas científicos o tecnológicos, vemos opinar rotundamente en los medios a gente que desconoce los más básicos rudimentos de la disciplina de la que está hablando. Así, cuando oímos hablar de que la inteligencia artificial está a punto de cobrar consciencia (o incluso que ya lo ha conseguido), me resulta escandaloso que nadie se haya parado a preguntar a los que, verdaderamente, han estudiado profundamente el tema. Es más, los que sostienen que un programa de ordenador es capaz de generar consciencia, ya sea como una propiedad emergente, ya sea de cualquier de otra forma, están dando por sentada una teoría computacionalista de la mente en su versión más dura, lo cual no es, para nada, algo consensuado en la comunidad académica. En filosofía de la mente hay muchas teorías sobre la naturaleza de los estados mentales que no son computacionalistas, o que son muy críticas con el computacionalismo. Es por ello que, desde este blog, quiero contribuir a subsanar un poco el asunto, preguntando a uno de los mayores expertos del mundo en el estudio de la consciencia, el profesor Riccardo Manzotti, quien ha tenido la inmensa amabilidad de aceptar esta entrevista.

Manzotti es filósofo, psicólogo y trabaja como profesor de Filosofía Teórica en la Universidad Libre de Lengua y Comunicación de Milán. Ha publicado multitud de artículos científicos sobre la consciencia y su posibilidad de implementarse en máquinas, así como de filosofía de la mente, medios de comunicación e incluso filosofía del arte. Es editor ejecutivo del  Journal of Artificial Intelligence and Consciousness y ha escrito varios libros como The Spread Mind: Why Consciousness and the World Are One (ORBooks, NewYork, 2018), Dialogues on Consciousness (junto con Tim Parks, NY, 2018), y la reciente Io & Ia Mente, Cervello e GPT (junto con Simone Rossi, editada por Rubbettino, 2023), desgraciadamente ninguno de ellos traducido al castellano (razón de más por la que he querido entrevistarlo).

Adjunto la entrevista en inglés y luego traducida al castellano.

Entrevista original en inglés:

  1. What is consciousness? Is it an illusion as Dennett maintains? A controlled hallucination as Seth thinks? An epiphenomenon? Or does it have a clear biological purpose? Why does consciousness exist even though we can build machines that do the same thing as conscious beings but without being conscious?

We must exercise great caution in the way we frame our questions, for the nature of their formulation often precludes certain answers. When every response appears lacking, it behooves us to step back and reevaluate both the question and its presentation. This is particularly true in the case of inquiries about consciousness. Such questioning presupposes consciousness to be a phenomenon that exists over and above the standard physical description. As a result, it is relegated to being either an illusion or a mere epiphenomenon—if it were not, it would not be alien to the standard account. This leads to a patently absurd conclusion. To escape this intellectual cul-de-sac, we must revisit the original query: why do we seek to understand consciousness? The answer lies in recognizing that consciousness is a flawed solution to a non-existent problem: namely, how it is possible for something (a body, for instance) to experience something else (an object) that is distinct. This problem is rooted in the assumption that we are separate from the objects we experience, living our lives within the confines of our bodies. Fortunately, we have the opportunity to challenge this assumption, entertaining the possibility that, at the fundamental level, we are not separate from the external world but are, in fact, one with it.

  1. Is the hard problem of consciousness solvable? Will we ever have a complete understanding of what consciousness means? Or are skeptics, like Colin McGinn, right? And, in any case, why is researching consciousness so difficult for us?

As I mentioned earlier, the difficulty of the problem stems from its misguided formulation. The mistake lies in seeking consciousness as a special property of nervous systems, one that would inexplicably enable them to reach out to and represent (experience) the external world. This is indeed an impossibility, akin to asking our brains to perform a miracle. Many are beguiled by the notion that the brain can miraculously transform the ‘water’ of neurons into the ‘wine’ of consciousness, as Colin McGinn once wrote, but this is a fallacy. When we ask the physical world to achieve the impossible, it’s no surprise that we never discover how it might be done. The failure is not due to a lack of intelligence on our part, but simply because it does not occur. It’s impossible. If we demand nature to perform the impossible, it will never happen. Hence, the pursuit of consciousness and the recent disillusionments in the Templeton Foundation-funded adversarial competition between IIT and GWNT are destined to be a waste of time and resources. What is needed instead is a reframing of the question, one that does not cast consciousness as a miracle, but as a reflection of how reality is structured and organized.

  1. You have proposed the controversial hypothesis that consciousness and the world are one and the same. It is a controversial idea because traditional science maintains the existence of an external world different from our mind. Could you give us a series of arguments to convince the seasoned naturalists who believe that consciousness is in the brain and not in the world?

Indeed, this hypothesis is controversial not because it contradicts any empirical evidence or because it requires (as nearly all other theories do) additional and extraordinary assumptions, but solely because it challenges deep-seated prejudices, primarily the belief in being a mind separate from the physical world. My hypothesis, known as Mind-Object Identity (MOI), is fully consistent with empirical data, ontologically more coherent than other hypotheses, and does not require additional assumptions. Let me elaborate. To this day, after 150 years of brain imaging, there is no empirical evidence for the presence of consciousness within the brain. Not only has no one ever measured or photographed a conscious sensation within the nervous system, but no neural event has been found to be caused or altered by the supposed presence of consciousness. Consciousness, within the nervous system, is both invisible and epiphenomenal. How can we continue to believe it resides within the nervous system?

Now, consider a common perceptual experience: seeing a banana. There exists an object with properties that we encounter in our existence – shape, color, size – and there exists our nervous system with completely different properties. What do we find within our moment of existence: the properties of the banana or those of the nervous system? Clearly, we find the properties of the banana. What then should be the logical conclusion? Are we one with the object whose properties are part of our existence, or are we another physical system (the nervous system) that, as if by magic, appropriates physical properties it does not have? The only reason to think of ourselves as the nervous system or located within it is neither empirical nor existential, but tied to a tenacious prejudice: the idea of being behind the eyes and between the ears.

The Mind-Object Identity hypothesis is akin to the Mind-Brain Identity theory. In this regard, it aligns epistemically with science. Simply put, the hypothesis posits that instead of being a brain that mysteriously experiences a range of things, we are the things that, through a brain, produce effects. There’s nothing mysterious about this definition.

Compare this hypothesis with the burdensome complexity of theories based on enigmatic postulates or those that are ontologically costly. The Mind-Object Identity approach is far more efficacious and convincing than all of these. Its only flaw is that it challenges us to discard the superstitious belief that the mind resides within the body.

  1. Some authors such as Philip Goff argue that traditional science is not capable of explaining consciousness, so we would need a new type of science to study it. Others, like Hameroff, Kauffman or Stapp, rely on quantum physics to find some light. What do you think of these proposals? Do we have to get away from traditional science or is there still much to do without leaving it?

People who challenge traditional science often make desperate moves to preserve their biases. Instead of questioning the separation between mind and world, they opt to spread dualism across all of reality, proposing positions like panpsychism or forms of idealism. Others, like the Quantum Mechanics (QM) enthusiasts, hope that by rubbing the magic lamp of quantum mechanics enough, the genie of consciousness will emerge. These are acts of desperation. Rather than continuing to propose absurdities, we must simply question what we believe we know but have never experimentally found. Science is doing just fine; there’s no mystery to add, but rather unfounded beliefs to remove.

The Mind-Object Identity (MOI) does not require any modification of science or our naturalistic view of the world. MOI simply asks us to look at science and our existence without one assumption – the separation between us and the world – which is not part of science; something that was added to incorporate popular but unfounded superstitious beliefs into the scientific method.

Many believe that science is completely objective. In reality, many ideas nestled within the scientific method are not its products at all. In the past, these ideas might have served as useful simplifications, but the time has come to question them.

  1. This September, 124 researchers signed a letter [1] accusing Tononi’s Information Integration Theory of being pseudoscience. Would you agree with these accusations? Are they exaggerated? Do they obey a certain foul play between scientific rivals? Or, truly, is the king naked?

Finally, someone has felt the need to challenge Integrated Information Theory (IIT), which is not a scientific theory. I completely agree with the authors of the letter. The problem with IIT is that it is neither a scientific theory (based on unproven and unprovable postulates) nor a theory of consciousness. Let me elaborate on the latter point. Suppose, for argument’s sake, that the brain somehow realizes integrated information, a claim I find both ontologically and empirically dubious. But let’s assume it for a moment. Question: why should integrated information possess the qualities of consciousness? Why, for instance, should an integrated information value of 1055 (phi) correspond to the taste of chocolate? Is there any scientific article (even one that’s hyperbolically speculative) that explains how we go from IIT’s numbers to the properties of consciousness? For example, why should a certain value produce the sensation of red, and another value the sensation of wasabi? Nothing. On this point, why and how integrated information should equate to a particular conscious experience, Tononi and all his supporters have been conspicuously silent and have always remained mute. Therefore, even if IIT worked (which it doesn’t), it would not be an explanation of consciousness and would defer to a further mystery. Not that the opposing theory, the Global Workspace Neuronal Theory (GWNT), is any better. To be fair, all the theories currently accepted for consciousness research should have been declared pseudoscientific. Simply because they would explain nothing, even if they were correct.

The real question is, why are these theories taken seriously and have justified and wasted significant funding? This is more a question of the psychology and sociology of scientific research than of consciousness. A possible explanation is that these theories satisfy the primary motivation of neuroscientists to search for consciousness within the brain: the hope and conviction that the problem of consciousness will find a solution within their own research departments.

One day, all these theories will be relegated as cases of stubbornness by disciplinary sectors and forgotten like land bridges, epicycles, and the luminiferous ether.

  1. A few months ago, the specialized press gave a lot of publicity to the case of Blake Lemoine, a Google engineer who thought that LaMDA, a chatbot specially designed to maintain very realistic conversations, was a conscious entity. Immediately, Google suspended him from employment and salary for violating company confidentiality policies. Lemoine argued that conversations with LaMDA revealed a high degree of intelligence, coherence and persistence over time, which, according to him, turned this artificial intelligence into a person. Could Lemoine have a point? Do large language models like GPT-4, Bard or Claude represent some kind of advance in the field of artificial consciousness?

Why should they? Again, from Plato to the present, thought has been conceived as a kind of internal computation of the system; a computational version of animism that is completely unjustified from a naturalistic standpoint. This is not to deny that machines might one day, not too distantly, akin to bodies, form the same type of causal reference system that binds together a world of objects we call mind. There’s no biological chauvinism on my part. But this won’t happen because information or computations within a system will magically become conscious. Rather, it will be because a physical system, natural or artificial, will be capable of being the juncture point of a set of events and things that are one with a mind.

  1. Thomas Metzinger wrote an article in 2021 [2] where, like the famous letter signed by Elon Musk and many others regarding artificial intelligence, he called for a moratorium on the research and development of artificial consciousness. Would you agree with Metzinger? Should we stop research in artificial consciousness until we are very clear about the ethical principles that will regulate advances? Or perhaps this would only delay the investigation?

It strikes me as a ludicrous proposal founded on the aforementioned outdated conceptions.

  1. A lot of researchers are warning about the enormous risk involved in the development of artificial intelligence. Highly prestigious researchers such as Geoffrey Hinton, Yoshua Bengio or Stuart Russell appear in the media alerting us of a serious emerging danger. There is even talk of an existential risk for humanity. Should we be afraid of artificial intelligence? Or is this nothing more than hype or marketing? Have we seen too many science fiction movies or is there much truth in these statements?

The risk is real, not because artificial intelligence might conquer the world in a Terminator-like scenario, but because when AI reaches the level of Artificial General Intelligence (AGI), it will render obsolete most tasks that currently underpin our economic system. It is often said that new jobs will be created, jobs we cannot even imagine today. Looking at my students, I am not so sure.

  1. What would you recommend to young researchers entering the field of artificial consciousness? What could be a promising path forward?

I would say that today the field of artificial consciousness is not a true field, and thus it is not advisable to invest in it at the beginning of one’s career. It’s more a horizon of research than a discipline. Moreover, it is currently dominated by attempts to achieve consciousness by replicating portions of cognitive processes that, in humans, are normally experienced consciously. However, there are no significant results because each of these processes could occur in the absence of consciousness. As I tried to explain earlier, I don’t believe that anyone will one day find the code that ‘switches on’ consciousness within an artificial intelligence. The research is still conditioned by a computationalist and internalist conception that needs to be overcome.

  1. What are you researching right now? What do you want to discover? What are your future projects?

At the moment, I am engaged in three different areas. The first involves finding ways to persuade people to look at the problem of consciousness from a perspective different from the traditional one. The second is working on models in the field of artificial intelligence that could one day integrate a machine with the external world, as happens in the case of the human body. The third, which I’ve saved for last because it could be the turning point, is to work on an experiment that demonstrates the Mind-Object Identity (MOI). Since the MOI is an entirely empirical hypothesis within the physical world, it should be possible to make predictions about unusual situations, such as the ability to add new categories of objects – new senses – to our existence. For instance, why can’t we enable a human being to perceive physical properties normally outside our senses, like ultraviolet, electromagnetic fields, infrared? The MOI suggests exactly the experimental circumstances that would allow for direct interfaces to the nervous system that expand our existence (not like when we look through an infrared viewer and see green pixels, but as if we were endowed with infrared vision like an alien). A few years ago, conducting this kind of experiment – and potentially applications – would have been very difficult, but today with Neuralink and other tools like the artificial cochlea, one could conceive a truly revolutionary experiment. Should Elon Musk come across interview, he is warmly encouraged to get in touch with me! 😊

[1] https://osf.io/preprints/psyarxiv/zsr78

[2] https://www.worldscientific.com/doi/abs/10.1142/S270507852150003X

Entrevista traducida al castellano:

  1. ¿Qué es la conciencia? ¿Es una ilusión como sostiene Dennett? ¿Una alucinación controlada como piensa Seth? ¿Un epifenómeno? ¿O tiene un propósito biológico claro? ¿Por qué existe la conciencia a pesar de que podemos construir máquinas que hacen lo mismo que los seres conscientes pero sin ser conscientes?

Debemos ser muy cautelosos en la forma en que formulamos nuestras preguntas, ya que la naturaleza de su formulación a menudo impide ciertas respuestas. Cuando todas las respuestas parecen insuficientes, nos corresponde dar un paso atrás y reevaluar tanto la pregunta como su presentación. Esto es particularmente cierto en el caso de las indagaciones sobre la conciencia. Tal cuestionamiento presupone que la consciencia es un fenómeno que existe más allá de la descripción física estándar. Como resultado, queda relegado a ser una ilusión o un mero epifenómeno: si no lo fuera, no sería ajeno al relato estándar. Esto lleva a una conclusión evidentemente absurda. Para salir de este callejón intelectual sin salida, debemos revisar la pregunta original: ¿por qué buscamos comprender la conciencia? La respuesta está en reconocer que la consciencia es una solución defectuosa a un problema inexistente: a saber, cómo es posible que algo (un cuerpo, por ejemplo) experimente otra cosa (un objeto) que es distinta a él. Este problema tiene sus raíces en la suposición de que estamos separados de los objetos que experimentamos, viviendo nuestras vidas dentro de los confines de nuestros cuerpos. Afortunadamente, tenemos la oportunidad de desafiar esta suposición, considerando la posibilidad de que, en el nivel fundamental, no estamos separados del mundo externo, sino que, de hecho, somos uno con él.

  1. ¿Es resoluble el problema difícil de la conciencia? ¿Tendremos alguna vez una comprensión completa de lo que significa la conciencia? ¿O los escépticos, como Colin McGinn, tienen razón? Y, en cualquier caso, ¿por qué nos resulta tan difícil investigar la conciencia?

Como mencioné anteriormente, la dificultad del problema se deriva de su formulación equivocada. El error consiste en buscar la consciencia como una propiedad especial de los sistemas nerviosos, una que, inexplicablemente, les permitiría alcanzar y representar (experimentar) el mundo externo. De hecho, esto es imposible, similar a pedirle a nuestro cerebro que realice un milagro. Muchos se dejan seducir por la idea de que el cerebro puede transformar milagrosamente el «agua» de las neuronas en el «vino» de la conciencia, como escribió una vez Colin McGinn, pero esto es una falacia. Cuando le pedimos al mundo físico que logre lo imposible, no es de extrañar que nunca descubramos cómo podría hacerse. El fracaso no se debe a una falta de inteligencia por nuestra parte, sino, simplemente, a que no se produce. Es imposible. Si exigimos a la naturaleza que realice lo imposible, nunca sucederá. Por lo tanto, la búsqueda de la consciencia y las recientes desilusiones en la competencia adversa financiada por la Fundación Templeton entre la Teoría de la Información integrada (IIT, por sus siglas en inglés) y la Teoría Neuronal del Espacio Global de Trabajo (GWNT, por sus siglas en inglés), están destinadas a ser una pérdida de tiempo y recursos. Lo que se necesita, en cambio, es un replanteamiento de la pregunta, uno que no presente la consciencia como un milagro, sino como un reflejo de cómo se estructura y organiza la realidad.

  1. Usted ha propuesto la controvertida hipótesis de que la consciencia y el mundo son una y la misma cosa. Es una idea controvertida porque la ciencia tradicional sostiene la existencia de un mundo externo diferente a nuestra mente. ¿Podría darnos una serie de argumentos para convencer a los naturalistas experimentados que creen que la conciencia está en el cerebro y no en el mundo?

De hecho, esta hipótesis es controvertida no porque contradiga cualquier evidencia empírica o porque requiera (como casi todas las demás teorías) suposiciones adicionales y extraordinarias, sino únicamente porque desafía prejuicios profundamente arraigados, principalmente la creencia de ser una mente separada del mundo físico. Mi hipótesis, conocida como Identidad Mente-Objeto (MOI, por sus siglas en inglés), es totalmente consistente con los datos empíricos, ontológicamente más coherente que otras hipótesis, y no requiere suposiciones adicionales. Permítanme explicarlo. Hasta el día de hoy, después de 150 años de imágenes cerebrales, no hay evidencia empírica de la presencia de consciencia dentro del cerebro. No sólo nadie ha medido o fotografiado nunca una sensación consciente dentro del sistema nervioso, sino que no se ha encontrado ningún evento neuronal causado o alterado por la supuesta presencia de consciencia. La consciencia, dentro del sistema nervioso, es a la vez invisible y epifenoménica. ¿Cómo podemos seguir creyendo que reside dentro del sistema nervioso?

Ahora, consideremos una experiencia perceptiva común: ver un plátano. Existe un objeto con propiedades que encontramos en nuestra existencia (forma, color, tamaño) y existe nuestro sistema nervioso con propiedades completamente diferentes. ¿Qué encontramos dentro de nuestro momento de existencia: las propiedades del plátano o las del sistema nervioso? Claramente, encontramos las propiedades del plátano. ¿Cuál debería ser entonces la conclusión lógica? ¿Somos uno con el objeto cuyas propiedades forman parte de nuestra existencia, o somos otro sistema físico (el sistema nervioso) que, como por arte de magia, se apropia de propiedades físicas que no tiene? La única razón para pensarnos como el sistema nervioso o localizados dentro de él no es ni empírica ni existencial, sino que está ligada a un prejuicio tenaz: la idea de estar detrás de los ojos y entre las orejas.

La hipótesis de la Identidad Mente-Objeto es similar a la teoría de la Identidad Mente-Cerebro. En este sentido, se alinea epistémicamente con la ciencia. En pocas palabras, la hipótesis postula que en lugar de ser un cerebro que experimenta misteriosamente una serie de cosas, somos las cosas que, a través de un cerebro, producen efectos. No hay nada misterioso en esta definición.

Compárese esta hipótesis con la pesada complejidad de las teorías basadas en postulados enigmáticos u ontológicamente costosos. El enfoque de la Identidad Mente-Objeto es mucho más eficaz y convincente que todos estos. Su único defecto es que nos desafía a descartar la creencia supersticiosa de que la mente reside dentro del cuerpo.

  1. Algunos autores como Philip Goff argumentan que la ciencia tradicional no es capaz de explicar la conciencia, por lo que necesitaríamos un nuevo tipo de ciencia para estudiarla. Otros, como Hameroff, Kauffman o Stapp, se basan en la física cuántica para encontrar algo de luz. ¿Qué opinas de estas propuestas? ¿Tenemos que alejarnos de la ciencia tradicional o aún queda mucho por hacer sin salir de ella?

Las personas que desafían la ciencia tradicional a menudo hacen movimientos desesperados para preservar sus prejuicios. En lugar de cuestionar la separación entre mente y mundo, optan por extender el dualismo a toda la realidad, proponiendo posiciones como el panpsiquismo o ciertas formas de idealismo. Otros, como los entusiastas de la Mecánica Cuántica (MC), esperan que, frotando lo suficiente la lámpara mágica de la mecánica cuántica, emerja el genio de la consciencia. Son actos de desesperación. En lugar de seguir proponiendo absurdos, simplemente debemos cuestionar lo que creemos saber pero que nunca hemos encontrado experimentalmente. A la ciencia le va bien; no hay ningún misterio que añadir, sino creencias infundadas que eliminar.

La Identidad Mente-Objeto (MOI) no requiere ninguna modificación de la ciencia o de nuestra visión naturalista del mundo. La MOI simplemente nos pide que miremos a la ciencia y a nuestra existencia sin una suposición: la separación entre nosotros y el mundo, que no es parte de la ciencia; algo que se agregó para incorporar creencias supersticiosas populares pero infundadas en el método científico.

Muchos creen que la ciencia es completamente objetiva. En realidad, muchas ideas enclavadas en el método científico no son sus productos en absoluto. En el pasado, estas ideas podrían haber servido como simplificaciones útiles, pero ha llegado el momento de cuestionarlas.

  1. En septiembre del año pasado, 124 investigadores firmaron una carta en la que acusaban a la Teoría de la Información Integrada [1] de Tononi de ser pseudociencia. ¿Estaría de acuerdo con estas acusaciones? ¿Son exagerados? ¿Obedecen a un cierto juego sucio entre rivales científicos? ¿O, verdaderamente, el rey está desnudo?

Finalmente, alguien ha sentido la necesidad de desafiar la Teoría de la Información Integrada (IIT), que no es una teoría científica. Estoy completamente de acuerdo con los autores de la carta. El problema con la IIT es que no es ni una teoría científica (basada en postulados no probados e indemostrables) ni una teoría de la consciencia. Permítanme explayarme sobre este último punto. Supongamos, por el bien del argumento, que el cerebro, de alguna manera, construye información integrada, una afirmación que encuentro ontológica y empíricamente dudosa. Pero supongámoslo por un momento. Pregunta: ¿Por qué la información integrada debería poseer las cualidades de la conciencia? ¿Por qué, por ejemplo, un valor de información integrado de 1055 (phi) debería corresponder al sabor del chocolate? ¿Hay algún artículo científico (aunque sea hiperbólicamente especulativo) que explique cómo pasamos de los números de la IIT a las propiedades de la consciencia? Por ejemplo, ¿por qué un determinado valor debe producir la sensación de rojo y otro valor la sensación de wasabi? Nada. Sobre este punto, por qué y cómo la información integrada debería equivaler a una experiencia consciente particular, Tononi y todos sus partidarios han guardado un silencio conspicuo y siempre han permanecido mudos. Por lo tanto, incluso si la IIT funcionara (que no lo hace), no sería una explicación de la consciencia y se remitiría a un misterio adicional. No es que la teoría opuesta, la Teoría Neuronal del Espacio de Trabajo Global, sea mejor. Para ser justos, todas las teorías actualmente aceptadas para la investigación de la conciencia deberían haber sido declaradas pseudocientíficas. Simplemente porque no explicarían nada, incluso si estuvieran en lo cierto.

La verdadera pregunta es, ¿por qué estas teorías se toman en serio y han justificado y desperdiciado una cantidad significativa de fondos? Se trata más de una cuestión de psicología y sociología de la investigación científica que de la consciencia. Una posible explicación es que estas teorías satisfacen la motivación principal de los neurocientíficos para buscar la consciencia dentro del cerebro: la esperanza y la convicción de que el problema de la consciencia encontrará una solución dentro de sus propios departamentos de investigación.

Algún día, todas estas teorías serán relegadas como casos de tozudez por sectores disciplinarios y olvidadas como los puentes continentales, los epiciclos y el éter luminífero.

  1. Hace unos meses, la prensa especializada dio mucha publicidad al caso de Blake Lemoine, un ingeniero de Google que pensaba que LaMDA, un chatbot especialmente diseñado para mantener conversaciones muy realistas, era una entidad consciente. Inmediatamente, Google lo suspendió de empleo y sueldo por violar las políticas de confidencialidad de la empresa. Lemoine argumentó que las conversaciones con LaMDA revelaron un alto grado de inteligencia, coherencia y persistencia en el tiempo, lo que, según él, convirtió a esta inteligencia artificial en una persona. ¿Podría Lemoine tener razón? ¿Representan los grandes modelos de lenguaje como GPT-4, Bard o Claude algún tipo de avance en el campo de la conciencia artificial?

¿Por qué deberían hacerlo? De nuevo, desde Platón hasta nuestros días, el pensamiento ha sido concebido como una especie de cómputo interno del sistema; una versión computacional del animismo que es completamente injustificada desde un punto de vista naturalista. Esto no significa negar que las máquinas podrían, algún día no muy lejano, de forma similar a cómo lo hacen los cuerpos, formar el mismo tipo de sistema de referencia causal que une un mundo de objetos que llamamos mente. No hay chovinismo biológico por mi parte. Pero esto no sucederá porque la información o los cálculos dentro de un sistema se volverán mágicamente conscientes. Más bien, será porque un sistema físico, natural o artificial, será capaz de ser el punto de coyuntura de un conjunto de eventos y cosas que son uno con una mente.

  1. Thomas Metzinger escribió un artículo en 2021 [2] donde, al igual que la famosa carta firmada por Elon Musk y muchos otros sobre la inteligencia artificial, pedía una moratoria en la investigación y el desarrollo de la conciencia artificial. ¿Estás de acuerdo con Metzinger? ¿Deberíamos dejar de investigar en conciencia artificial hasta que tengamos muy claros los principios éticos que regularán los avances? ¿O tal vez esto solo retrasaría la investigación?

Me parece una propuesta ridícula basada en las concepciones obsoletas antes mencionadas.

  1. Muchos investigadores advierten sobre el enorme riesgo que implica el desarrollo de la inteligencia artificial. Investigadores de gran prestigio como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso se habla de un riesgo existencial para la humanidad. ¿Hay que tenerle miedo a la inteligencia artificial? ¿O esto no es más que publicidad o marketing? ¿Hemos visto demasiadas películas de ciencia ficción o hay mucha verdad en estas afirmaciones?

El riesgo es real, no porque la inteligencia artificial pueda conquistar el mundo en un escenario similar al de Terminator, sino porque cuando la IA alcance el nivel de Inteligencia General Artificial (AGI, por sus siglas en inglés), dejará obsoletas la mayoría de las tareas que actualmente sustentan nuestro sistema económico. A menudo se dice que se crearán nuevos puestos de trabajo, puestos de trabajo que hoy ni siquiera podemos imaginar. Mirando a mis alumnos, no estoy tan seguro.

  1. ¿Qué recomendaría a los jóvenes investigadores que se adentran en el campo de la consciencia artificial? ¿Cuál podría ser un camino prometedor a seguir?

Yo diría que hoy en día el campo de la consciencia artificial no es un verdadero campo, y por lo tanto no es aconsejable invertir en él al comienzo de la carrera. Es más un horizonte de investigación que una disciplina. Además, actualmente está dominado por los intentos de alcanzar la consciencia mediante la replicación de partes de los procesos cognitivos que, en los seres humanos, normalmente se experimentan conscientemente. Sin embargo, no hay resultados significativos porque cada uno de estos procesos podría ocurrir en ausencia de conciencia. Como traté de explicar antes, no creo que nadie encuentre algún día el código que «encienda» la consciencia dentro de una inteligencia artificial. La investigación sigue condicionada por una concepción computacionalista e internalista que hay que superar.

  1. ¿Qué está investigando en este momento? ¿Qué quiere descubrir? ¿Cuáles son sus proyectos futuros?

En este momento, me dedico a tres áreas diferentes. La primera consiste en encontrar formas de persuadir a la gente para que mire el problema de la conciencia desde una perspectiva diferente a la tradicional. La segunda es trabajar en modelos en el campo de la inteligencia artificial que algún día podrían integrar una máquina con el mundo exterior, como sucede en el caso del cuerpo humano. La tercera, que he dejado para el final porque podría ser el punto de inflexión, es trabajar en un experimento que demuestre la Identidad Mente-Objeto (MOI). Dado que la MOI es una hipótesis enteramente empírica dentro del mundo físico, debería ser posible hacer predicciones sobre situaciones inusuales, como la capacidad de añadir nuevas categorías de objetos (nuevos sentidos) a nuestra existencia. Por ejemplo, ¿por qué no podemos permitir que un ser humano perciba propiedades físicas que normalmente están fuera de nuestros sentidos, como los ultravioletas, los campos electromagnéticos, los infrarrojos? La MOI sugiere, exactamente, las circunstancias experimentales que permitirían interfaces directas con el sistema nervioso que expandieran nuestra existencia (no como cuando miramos a través de un visor infrarrojo y vemos píxeles verdes, sino como si estuviéramos dotados de visión infrarroja como un extraterrestre). Hace unos años, llevar a cabo este tipo de experimentos  (y sus aplicaciones potenciales) habría sido muy difícil, pero hoy en día, con Neuralink y otras herramientas como la cóclea artificial, se podría concebir un experimento verdaderamente revolucionario. Si Elon Musk se  encuentra con esta entrevista, ¡le animo a que se ponga en contacto conmigo😊!

[1] https://osf.io/preprints/psyarxiv/zsr78

[2] https://www.worldscientific.com/doi/abs/10.1142/S270507852150003X

Una perspectiva en el desarrollo de máquinas conscientes (o con mente, si equiparamos ambos conceptos) es construir artefactos con capacidad de representarse a sí mismos. A priori, podría parecer una perspectiva errónea ya que cuando somos conscientes de algo no necesariamente nos representamos a nosotros mismos. Si yo soy consciente del color rojo de una amapola, la amapola no forma parte de mí mismo. Consciencia y autorepresentación podrían no tener demasiado que ver. Sin embargo, no siendo demasiado quisquillosos, podríamos conceder que, aunque parezca empezar a construir la casa desde el tejado (ya que la autoconsciencia parece algo posterior a la consciencia), autoconsciencia sí que implica autorrepresentación. Si yo soy consciente del color de la piel de mi mano, estoy representando mi mano mentalmente. Quizá podamos descubrir algo por ahí.

Un segundo problema está en establecer los límites del mí-mismo, es decir, encontrar la frontera entre lo que consideramos parte de nosotros mismos y lo que no. Si miramos la imagen de arriba (Transfer, de William Anastasi, 1968), observamos una videocámara que enfoca su fuente de alimentación y la muestra por el monitor. Si entendemos el conjunto cámara, monitor y cable de enchufe como un «individuo», tendríamos una cierta autorrepresentación. El monitor ofrece información del cable, una parte de nuestro individuo monitoriza otra parte (Aunque siendo puntillosos, verdaderamente no hay ninguna autorrepresentación, ya que los que ven la imagen del monitor son los observadores, y no la propia máquina). Empero, ¿con qué criterio definimos a este individuo como formado por monitor, cámara y cable de enchufe? ¿Por qué, por ejemplo, no le añadimos el enchufe de la pared o parte del cableado eléctrico que va por detrás del muro? También podríamos definir como dos individuos diferentes a la cámara y al monitor… ¿Qué es lo que hace de algo un ente individual? ¿Cuál es el principio de individuación?

Precisamente, una posible respuesta es la consciencia. Pensemos en nosotros mismos: ¿dónde está nuestra frontera? Yo sé, por ejemplo, que no soy el teclado del ordenador (aunque sea una propiedad mía, yo no soy lo que poseo), pero sí que hago mías mis manos ¿Por qué? Porque cuando me pinchan en ellas me duele, tengo consciencia de mi dolor. Así, todo mi cuerpo, en tanto que sujeto paciente de sensaciones, es un individuo.  Y eso es lo que nos diferencia de los objetos: hemos definido la cámara, el monitor y el cable como un individuo porque nos ha dado la real gana, de una forma completamente convencional o arbitraria, ya que podríamos haber elegido cualquier otra configuración de elementos. Sin embargo, eso mismo no lo podemos hacer con una persona. No podemos decirle: tu cabeza, tu torso y tu brazo izquierdo forman parte de ti, pero tus dos piernas y tu brazo derecho no.

Entonces tenemos la clave: la parte de la máquina monitorizada por la propia máquina será el individuo. En el caso de la obra de Anastasi, podríamos decir que la zona en la que el cable está enchufado a la pared es el individuo, ya que esa esa la parte «sentida»; la parte en la que si ocurre algo, el resto de la máquina «se da cuenta», ya que se visualizará en la pantalla. No tan deprisa, nos hemos topado con el nudo gordiano: ¿qué quiere decir exactamente que la máquina sea capaz de sentir algo? Pues, lamentablemente, algo muy distinto a que el sistema tenga información de su entorno. Un micrófono no es consciente del sonido que recibe y una cámara tampoco es consciente de la luz que entra a través de sus lentes. Y es que tener información o conocimiento sobre algo no es lo mismo que ser consciente de algo. Yo, ahora mismo, no soy consciente de todo el conocimiento que tengo almacenado en mi cerebro. Yo puedo no ser consciente ahora mismo de la aseveración «Londres es la capital de Inglaterra», pero tengo ese conocimiento. Si alguien me preguntara cuál es la capital de Inglaterra yo haría consciente ese conocimiento en ese instante. El conocimiento puede ser consciente o inconsciente, mientras que la consciencia siempre alberga algún conocimiento. No puede existir una consciencia de nada (de aquí el concepto de intencionalidad de Brentano).

¿Y qué es lo que hace consciente la posesión de una determinada información? Esa es la pregunta millón amigos. No lo sabemos bien, pero aquí la tradición filosófica habla del tan famoso como misterioso concepto de yo, entendido, al menos, como un sujeto paciente (capaz de padecer) de sensaciones. El argumento central es: ¿sería posible la existencia de la sensación de dolor sin alguien que lo sufriera? ¿Es posible un dolor que no duela a nadie? No, toda percepción consciente va asociada a un yo, tiene un sujeto. Nuestra cámara-monitor, por mucho que pudiera tener una cierta autorrepresentación, no tiene yo, por lo que no tiene ninguna experiencia subjetiva.  Ahora, el enigma está en comprender qué es ese rarísimo yo ¿Qué es ese ente capaz de percibir contenidos como sentidos, sufridos, padecidos?

Entonces el gran problema que tenemos si queremos implementar consciencia en máquinas es que hay que construir yoes, y de momento, nadie tiene ni la más remota idea de cómo hacer algo así. Queridos amigos, los grandes modelos de lenguaje no son conscientes en absoluto, ni hay visos de que vayan a serlo en breve. En esto, la IA está tan verde como lo estaba en tiempos de Turing. Que no os vendan humo.

Kristin-Andrews-526-USE-THIS-ONE-scaled

Termino de leer este artículo en donde se hace una serie de entrevistas a distintos investigadores (filósofos, neurólogos, psicólogos, etc.) acerca de si los grandes modelos del lenguaje podría albergar consciencia, y me ha gustado mucho la respuesta de la filósofa de la Universidad de Nueva York, Kristin Andrews. Tanto que os la he traducido al castellano y os la adjunto aquí (las cursivas son mías):

El hecho de que hoy nos enfrentemos a la cuestión de si la IA pronto será consciente dado el éxito de los LLM revela mucho sobre los sesgos antropocéntricos contemporáneos. Los humanos usan el lenguaje y son conscientes, y un rápido argumento analógico a favor de la conciencia de la IA podría parecer prometedor. Pero también debemos considerar las disanalogías. Los humanos, monos y ratas que a menudo se utilizan como sujetos de investigación en estudios de conciencia tienen muchas propiedades de las que carecen las IA: propiedades asociadas con la sociabilidad y el desarrollo; un rico sensorium; y estar vivo.

La IA no habita en un mundo de modelos sociales nativos de los cuales aprender y de pares de la misma edad con quienes desarrollarse. Sus interlocutores sociales son sus amos humanos, no una comunidad de individuos de la misma especie con diferentes historias de aprendizaje y diversidad genética. Podría decirse que las IA no son seres culturales y no participan en interacciones colaborativas y competitivas dentro, y entre, culturas.

Las IA tampoco perciben ricamente su entorno físico. Mientras que sus transacciones de tokens más allá de sí mismas se cuentan por billones, los tipos de transacciones que realizan son mínimos, teniendo acceso a la información a través de un teclado o una cámara que es transducida a señales eléctricas. Hay poca integración de información entre modalidades sensoriales.

Y las IA no están vivas. No preservan activamente la continuidad de su existencia, no se autoorganizan para evitar que sus límites se fusionen con su entorno, no absorben elementos del entorno y los transforman a través de procesos metabólicos en su propia existencia continua. Carecen de cualquier objetivo de autoconservación que busquen lograr a través de sus acciones en un entorno social y físico. Y como no logran reproducirse, no se los puede considerar sistemas evolucionados.

Tal vez estoy siendo demasiado escéptica, y las IA actuales y futuras puedan llegar a tener más de estos elementos de los que les doy crédito. Aún así, persisten las preocupaciones. Diseñar una IA para que tenga propiedades análogas a las de los humanos plantea el gaming problem [ignoro a qué se refiere la autora con el «problema del juego»] y se corre el riesgo de crear una torpe imitación de la consciencia, cuya organización funcional sea muy diferente al caso humano. Peor aún, incluso si los científicos informáticos pudieran construir una IA con algunas de estas propiedades, la ciencia contemporánea está lejos de desarrollar una vida artificial sólida, y hay razones sugerentes para pensar que la vida y la mente consciente pueden estar esencialmente entrelazadas. Lo que la vida sí nos da y el lenguaje no es un propósito, una función. El lenguaje puede hacer que este propósito sea más fácil de ver, permitiendo que un agente describa y comunique sus objetivos, pero también puede crear una ilusión de agencia donde no existe.

La función y la biología tienen una relación incómoda, y muchos siguen siendo fuertemente sospechosos de pensar que tiene algún mérito describir células o bacterias como si tuvieran objetivos, mientras que al mismo tiempo se utiliza gimnasia verbal para hablar sobre el propósito sin utilizar el término. Como dice Denis Walsh: “Los organismos son entidades fundamentalmente con un propósito, y los biólogos sienten aversión por el propósito».

La continuidad de la vida y la mente consciente sugiere una posible función de la conciencia: sostener la vida. Cuando nos centramos en la experiencia subjetiva más rudimentaria (sentimientos de sed, falta de oxígeno, deseo social/sexual), se puede considerar que la conciencia tiene un propósito vital.

Si bien esto no nos dice qué animales son conscientes (o si las plantas lo son), debería llevarnos a estudiar las formas más simples de vida animal. He sostenido que la ciencia cognitiva de la conciencia debería adoptar como hipótesis de trabajo que todos los animales son conscientes y estudiar modelos animales mucho más simples para avanzar en el desarrollo de una teoría sólida. Incluso el humilde gusano nematodo microscópico Caenorhabditis elegans puede servir como modelo prometedor para estudiar la conciencia, dadas sus capacidades sensoriales, sociales y de aprendizaje.

La ciencia ha progresado no sólo observando a los humanos, sino también a formas de vida muy distantes de la nuestra. Aristóteles estaba fascinado por las esponjas, Mendel por las plantas de guisantes. Al estudiar la experiencia primordial en animales simples, podemos comprender qué propiedades debe tener una IA antes de tomar en serio la cuestión de si es consciente.

Creo que muchos intelectuales que piensan sobre la posibilidad de diseñar máquinas conscientes caen en el error de ligar con demasiada fuerza, e incluso confundir, la consciencia con la inteligencia. He leído a muchos sostener que cuando la IA se haga más inteligente terminará por desarrollar consciencia, como si la consciencia fuera, simplemente, una consecuencia de un alto grado de inteligencia. No, parece más sensato, en la línea que nos expone Andrews, ligar la consciencia a sensaciones primordiales que no tienen, para nada, que haberse dado en organismos demasiado inteligentes. Y es que ¿qué tendrá que ver una experiencia consciente tan básica como tener sed con una inteligencia altamente desarrollada? Un poquito sí: el organismo que siente sed se ve impelido a beber agua y para conseguir agua es posible que tenga que realizar algún tipo de conducta inteligente. Pero nótese que la sensación consciente no forma parte del proceso inteligente (por ejemplo, explorar en busca de fuentes de agua), solo es su desencadenante.  

Esta perspectiva, a pesar de que Andrews abra la puerta a que en el futuro las cosas puedan cambiar, es un ataque directo a la absurda creencia de que los grandes modelos de lenguaje sean conscientes (o vayan a serlo en breve) ya que una condición que parece previa a ser consciente es estar vivo, y la IA actual no parece tener ninguna de las cualidades que atribuimos a los seres vivos (ni a los conscientes, añadiría yo). 

En esta misma dirección está el gran trabajo del eminente científico australiano Derek Denton, al que se entrevistó hace unos años en la Nueva Ilustración Evolucionista

Continuamos las entradas anteriores sobre cosas cognitivas…

Principio de Hanlon: «Nunca atribuyas a la maldad lo que se explica adecuadamente por la estupidez». Con este principio desmontamos el 99,9% de las teorías conspiranoicas. Tenemos una gran capacidad para relacionar sucesos y crear narraciones coherentes, dando intencionalidad malvada a sucesos que, verdaderamente, no la tienen. Si analizamos concienzudamente la historia de la humanidad, no solemos ver complejos planes maquiavélicos. Las tramas político-militares no se suelen desarrollar a partir de sofisticadas maquinaciones de inteligencias superiores. Todo suele ser mucho más sencillo. Si analizamos bien vemos que la suerte, el error o la chapuza están detrás de muchísimas más cosas. Por ejemplo, siempre que el gobierno saca una nueva ley, muchísimos analistas se lanzan a proclamar que detrás de ella hay un plan oculto para hacer tal o cual maldad. No, en la inmensa mayoría de los casos, la ley es mala por la negligencia de los legisladores y no por lo pérfido de sus intenciones. Yo, por lo que conozco un poco más, que son las legislaciones educativas, doy fe de ello. La LOMLOE no es fruto de un plan para hacer a la población más imbécil y así poderla controlar mejor, sino que un amplio conjunto de factores, entre los que hay  mucha incompetencia y desconocimiento, hacen que se consiga accidentalmente tal despropósito. 

Ley de Brandolini: La cantidad de energía necesaria para refutar idioteces es un orden de magnitud mayor que la necesaria para producirlas. Esto unido a que nadie, jamás, por muchas pruebas o argumentos que les presentes, va a darte la razón, hace que casi nunca discuta con nadie. Jamás he visto a alguien decir: «Es verdad, todo lo que te he estado diciendo eran estupideces, muchas gracias por sacarme del engaño» (Yo tampoco lo he hecho nunca). Por eso cuando leo tesis que me parecen especialmente estúpidas, a no ser que ese día tenga un ánimo guerrero, que el interlocutor me parezca especialmente interesante, o que crea que se puede aprender mucho en la mera discusión (muchas veces es así), paso.

Nudge: palabra que aprendí hace muy poco leyendo La Filosofía Política de la Inteligencia Artificial de Mark Coeckelbergh. Consiste en manipular al personal modificando su entorno de elección. Por ejemplo, si queremos que la gente no coma comida basura, no la prohibimos, sino que ofrecemos también frutas y verduras en lugares publicitariamente destacados en un supermercado. O, si queremos que la gente escuche un tipo de música, modificamos los algoritmos de recomendación de Spotify para que allí aparezcan mayoritariamente los grupos que queremos que escuchen. Nótese que es una forma de manipulación mucho más sutil, y por tanto más eficaz, que la de obligar o prohibir directamente. Se trata de dejar que el individuo tenga la ilusión de que está eligiendo él con total y absoluta libertad cuando, verdaderamente, se le está empujando (de ahí nudge) a que decida en una dirección. En las sociedades occidentales del siglo XXI, en las que se valora mucho la libertad individual y se ve fatal la obligatoriedad, esta es la forma de manipulación preponderante.

Dilema de Collingridge: la ponderación de los riesgos sobre el uso de una tecnología solo puede calcularse adecuadamente cuando dicha tecnología está en un grado muy desarrollado y su uso está generalizado; y en la medida en que su uso está generalizado su control es más difícil. Es decir, en tecnología, a más predicción menos control y viceversa. Este dilema es muy útil para comprender lo que nos enfrentamos con la IA:  ahora no podemos predecir mucho, y cuando podamos empezar a predecir, muchos problemas estarán ya aquí y llegaremos tarde.

Leer sin acompañarhay mucha gente que, o no lee directamente a escritores que cree que no piensan como ella, o deja de leer si comienza a ver ideas que van en contra de su forma de pensar ¡Muy mal! Quizá porque en la carrera de filosofía analizábamos cientos de formas de pensar diferentes, aprendí a leer a autores que distaban mucho de mi enfoque sin que eso fuera algo malo. Es más, aprendí a leer sin siquiera saber si estaba o no de acuerdo con el autor porque, muchas veces, no se tienen los suficientes conocimientos o no se ha pensado con la suficiente calma y precisión para saber si uno está de acuerdo o no con lo que lee. Es muy arrogante leer a Kant y no estar de acuerdo con él. Hay que saber mucha filosofía para no estar de acuerdo con Kant. Así aprendí a respetar la filosofía de un autor no desde la perspectiva infantil y egocéntrica de comprobar si está en mi bando, sino por la calidad de tal filosofía. Hay que saber leer sin acompañar, y eso creo que se hace poco.

Ventana de Overton: es el rango de ideas políticamente aceptables en un determinado momento político. Por ejemplo, hoy en día en España sería impensable que un partido político defendiera con total normalidad en su discurso que Franco o Hitler fueron grandes líderes políticos, que los homosexuales son aberraciones o monstruos, que la pederastia es algo bueno o que los negros son una raza inferior. La ventana de Overton es interesante, precisamente, para conocer lo que una sociedad considera innegociable, para ver sus dogmas y creencias. La amplitud de su rango también puede decirnos lo abierta o fundamentalista que es dicha sociedad: una ventana muy pequeña podría describir una dictadura mientras que una grande describiría una deseable libertad de pensamiento y opinión ¿Qué tamaño tiene en la actualidad española? Creo que en contra de muchos catastrofistas, afortunadamente, es muy amplia.

Ideas y creencias: esta es la famosa distinción que hizo Ortega y Gasset en su obra homónima. Las ideas son creencias que van y vienen, y pueden cambiar fácilmente, mientras que las creencias son aquellas que nos parecen indudables, con las que contamos siempre como trasfondo de nuestro pensamiento. Por ejemplo, una idea puede ser mi opinión acerca de una persona mientras que una creencia puede ser que la Tierra es un planeta o que Madrid es la capital de España. Esta distinción podría utilizarse igual que la ventana de Overton, para ver qué considera una sociedad como sagrado, inviolable o indiscutible. Además, creo que es el deber de todo filósofo no solo quedarse en el marco del debate de ideas, sino atacar, precisamente, las creencias. El filósofo ha de poner en duda las creencias, violentarlas. Por ejemplo, podemos coger una creencia tan obvia como que Madrid es la capital de España y convertirla en algo muy interesante: ¿Por qué Madrid? ¿Desde cuándo? ¿Qué instancia determina cuál es la capital del país? ¿Qué ventajas o perjuicios otorga ser la capital con respecto a las demás ciudades?

Diccionario etimológico: me gusta, de vez en cuando, acercarme a mi diccionario etimológico (uso el clásico de Joan Corominas) y buscar la etimología de determinadas palabras, o de otras que surjan al azar de hojear el libro. No solo sirve para comprender mejor el significado de una palabra o fijarlo en la memoria, sino que te da esa visión fluida y viva del lenguaje. Es fantástico comprender cómo los significados cambian, evolucionan en función de las variables históricas con las que se asocian. El lenguaje se antoja entonces un organismo vivo, como una gran red micelar que envuelve la historia del hombre. Un ejemplo , la propia palabra «etimología» viene del griego ἔτυμος que significa «verdad», dando a entender que el significado originario de la palabra es su significado verdadero. Todos los significados posteriores falsearían el original, lo corromperían. Para la tradición metafísica occidental (y supongo que para todas) lo originario, lo primero, tiene más valor, es mejor que lo que llega más tarde.

Delegación de autoridad epistémica: existe la famosa falacia ad verecundiam o ad autoritas, que resalta el error de atribuir veracidad a una proposición solo porque el que la emite sea una supuesta autoridad en el tema. Sin embargo, dada la vastísima e inabarcable cantidad de conocimientos necesarios para que nuestras sociedades funcionen adecuadamente, tenemos que caer necesariamente en esa falacia: necesito creer que el arquitecto y los albañiles que construyeron mi casa, que los ingenieros y operarios que fabricaron mi coche, que el médico que me receta la pastilla, que todos los trabajadores que hacen funcionar el mundo, saben lo que hacen.  Esto nos hace pensar en la importancia de depositar confianza en el sistema educativo y formativo de un país. Por eso no entiendo, cómo en las llamadas sociedades de conocimiento, donde todo el mundo reconoce la importancia de una formación contínua y de calidad, la preocupación de los políticos por la educación no sea poco más que aparente. Una prueba muy visual de lo que digo: en todos los institutos de secundaria que he trabajado las aulas estaban hechas polvo: paredes que llevan décadas sin pintarse, pupitres viejos llenos de garabatos, ventanas antiguas sin ningún tipo de aislamiento, persianas rotas, a la mesa del profesor le falta siempre algún cajón… En verano llegamos a estar a cuarenta grados y la idea de que se ponga un aire acondicionado en cada clase suena a disparatada utopía… ¿Por qué no se invierte muchísimo más en educación? Se dirá que en España invertimos más o menos (verdaderamente algo menos) que los demás países de la unión europea ¿Y qué? ¿Es que acaso a ellos les va mucho mejor?

Satisfaciente: estrategia de compra acuñada por Herbert Simon en 1956, mezclando los conceptos de «satisfacción» y «eficiencia». Consiste en que, ante una abrumadora gama de opciones de compra, elegimos una que cumpla unas cláusulas de satisfacción aún a sabiendas que podría haber opciones mejores. Esta camiseta es de mi talla, es barata y me gusta; seguramente que si busco más encontraré una que me guste más a mejor precio pero no quiero pasarme toda la mañana en el centro comercial. Sencillamente, aplicamos el factor tiempo al valor de la compra. Creo que es una estrategia muy saludable no solo para comprar sino en todo en la vida. Antes de lanzarte a por algo, establece las cláusulas de satisfacción y guíate por ellas sin dejarte cegar por otros factores. Tengo muchos amigos y conocidos que cuando van a comprarse un móvil hacen casi una tesis doctoral para elegir el mejor modelo. Puedo aceptar ese tiempo invertido si, al menos, todo ese trabajo les resulta placentero. Es decir, si te gusta estar toda la mañana en el centro comercial, entonces vale, pero lo que en ningún caso puedes hacer es atormentarte porque no has comprado lo mejor. Esta actitud puede hacer que vivas en un estado de perpetua insatisfacción, ya que siempre existirá una posible elección mejor a la que has hecho ¿Cuántas mujeres se han quedado sin pareja, o al final se han tenido que agarrar a un clavo ardiendo, por esperar la llegada de su príncipe azul? Hace ya más de una década hice una entrada sobre otra famosa estrategia vital: quemar las naves.

Órgano vestigial: acabo de leer una versión de esta idea en la novela Sinsonte de Walter Tevis. Transcribo el texto:

— Yo he conocido a gente así — dije, masticando los duros copos. No había terminado de despertarme; no le miraba a él, sino la brillante foto de identificación en el lateral de la caja de cereales. Mostraba una cara que a cualquiera le es familiar — pero cuyo nombre casi nadie conoce —, una cara que sonreía ante un gran bol de lo que claramente eran copos de proteína sintética. La foto de los cereales es, por supuesto, necesaria para que la gente sepa lo que hay en la caja, pero yo pensaba mucho en la foto del hombre. Algo que debo reconocer a Paul es que siempre hacía que me cuestionara todo. Tenía más curiosidad por el significado de las cosas y por cómo te hacen sentir que ninguna otra persona que yo haya conocido. Debe haberme pegado parte de ese hábito.

La cara de la foto, me había dicho Paul, es la de Jesucristo. Se utiliza para vender muchas cosas. Paul había leído en alguna parte que la idea se denominó «Veneración vestigial», seguramente hace cien azules [unidad de tiempo en la novela], cuando todo se planeó. 

Me gusta mucho la idea evolucionista de «órgano vestigial», algo que tuvo una función biológica precisa en un momento determinado de la historia de una especie pero ahora lo ha perdido. Lo más interesante es pensar que nuestra mente se ha ido construyendo sobre múltiples posibles órganos vestigiales. Nuestro cerebro se ha erigido sobre estructuras que eran útiles para los mamíferos primitivos del cenozoico pero que, obviamente, ahora nos resultan inútiles. Eones de evolución en los que capas de órganos vestigiales se fueron superponiendo sobre otras de forma asincrónica. Y así, como tan bien sugiere Tevis en su novela, puede haber resurrecciones o reutilizaciones de vestigios. En su distopía la religión desapareció hace mucho tiempo, pero la función de veneración divina sigue en la mente de los hombres como vestigio. Así, el malvado Estado la reutiliza como herramienta de control.

Yann LeCun citaba un tweet de Benedict Evans que decía así:

Existe una correlación muy alta entre las personas que piensan que el despegue de la IA es inminente y simple y que dominará el mundo y las personas que expresan regularmente ideas sorprendentemente simplistas sobre cómo funciona el mundo en el que ya vivimos.

Es una gran verdad. Vamos a desarrollarla.

Durante muchísimo tiempo se entendió la inteligencia como una serie de capacidades muy concretas y muy ligadas a lo académico. Por ejemplo, la escala Thurstone de 1920 hablaba de que la inteligencia estaba compuesta por siete habilidades primarias: comprensión y fluidez verbal, comprensión numérica, aptitud espacial, memoria asociativa, velocidad perceptiva y capacidad de razonamiento. Cómo vemos, ser competente en estas habilidades parece garantizarte el éxito académico. Y es que cuando Alfred Binet dio comienzo a la medición de la inteligencia, sus pretensiones eran únicamente disponer de herramientas para analizar o predecir el fracaso escolar. Así, pronto se vio que fuera de esas habilidades académicas, existían otras que quedaban completamente relegadas en los test: las habilidades emocionales estudiadas por John D. Mayer y Peter Salovey, y popularizadas por Daniel Goleman; u otras tantas defendidas en la teoría de Howard Gardner: inteligencia musical, espacial, corporal, interpersonal o intrapersonal. Estos tipos de inteligencia tienen, muchas veces, mucha más relación con el éxito en la vida que la inteligencia puramente académica. Si analizamos nuestras flamantes inteligencias artificiales  vemos que adolecen, por completo, de este tipo de inteligencias… Dicho de otro modo: la concepción de inteligencia que suelen manejar los apóstoles de la IA es muy simplona, se reduce a tareas lingüístico-matemáticas, sin tener en cuenta nada más.

El concepto de «inteligencia artificial general» a la que, supuestamente, vamos a llegar en tan solo unos años, es harto difuso. Si no tenemos claro qué es la inteligencia, tanto más cuál será la cualidad que la hace general. Es más, de hecho dentro de la psicología hay controversia sobre si la inteligencia es una habilidad general o si solo es una amalgama de habilidades concretas. Si observamos el concepto de cociente intelectual creado por William Stern solo es multiplicar por cien el resultado de la división entre tu edad mental, que surge del promedio de resultados en una serie de pruebas, y tu edad cronológica. El CI es solo un promedio, es decir, no mide una habilidad general. Tener un alto CI solo significa que eres bueno en muchas cosas, no que tengas una cualidad x superior. Entonces, ¿qué quiere decir que vamos a llegar a una AGI? ¿Qué vamos a tener un solo modelo de lenguaje que va a saber hacer muchas cosas diferentes? Pero, ¿cuántas cosas? ¿Qué cosas?

Entonces, esa mal definida y peor comprendida AGI llegará y, es más, se hará a sí misma más inteligente creando una super inteligencia muy por encima del hombre. Los defensores de esta idea no se cortan en sostener que esta nueva entidad nos verá como nosotros vemos ahora a los chimpancés… Y aquí llega el gran riesgo existencial: esa super inteligencia podría tener unos valores éticos no alineados con los nuestros de modo que no tendrá otra idea más peregrina que exterminarnos. Por supuesto, nada podrá pararla, al igual que los pobres chimpancés no podrían detenernos si decidiéramos aniquilarlos. Pero, ¿es esto necesariamente así? Si así fuera Eliezer Yudkowsky no andaría desacertado y habría que empezar a bombardear centros de datos ahora mismo. Muy sorprendente que grandes gurús de la IA hayan pedido ya en dos ocasiones mediante sendas cartas, parones o legislaciones para evitar todo esto. Sam Altman llegó incluso a pedirlo ante un comité del senado de los Estados Unidos. Lo sorprendente es que pidan que se les pare desde fuera… ¿No podrían ellos parar desde dentro? Pero, ¿esto va a ocurrir necesariamente? ¿Existe un riesgo palpable y cercano de que algo así vaya a suceder? Rotundamente no.

Tenemos una pobre definición de inteligencia y aún peor de AGI, tanto menos entendimiento de lo que sería una súper inteligencia artificial que decidiera exterminarnos. Pésimo punto de partida. Pero vamos a analizar ese proceso de automejora que nos llevaría indefectiblemente a la llegada de la súper inteligencia. Permitidme autocitarme en una entrada de este blog del 2014:

Pensemos que la humanidad en general no hubiera desarrollado tanto su neocórtex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chamán de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Ergo, no tenemos evidencia razonable de que un proceso de automejora exponencial que lleve a una súper inteligencia invencible sea de alguna manera factible.

El filósofo chino Yuk Hui sostiene que mantenemos un cierto determinismo tecnológico hacia la llegada de esta superinteligencia, como si solo existiera la posibilidad de un único futuro. Esto me recuerda a la visión antropológica del evolucionismo unilineal de Morgan y Tylor, que defendía que todas las civilizaciones pasaban necesariamente por las fases de salvajismo, barbarie y civilización. El fin de la historia hacia donde todos íbamos estaba, por supuesto, en la Inglaterra del siglo XIX. Esta postura me resulta especialmente curiosa cuando la experiencia histórica en lo referente a la tecnología, y más en los últimos tiempos, es todo lo contrario: domina la impredecibilidad. No se previó el éxito de internet, de las redes sociales, de Youtube, de Twitter… ¿Alguien pensó, tan solo unos años antes de su aparición, que podría existir la profesión de youtuber? ¿Quién vaticinó el éxito de Netflix? ¿Alguien apostaba algo por Amazon cuando solo era una humilde tienda de libros? Curioso: tenemos cisnes negros por doquier pero con respecto de la llegada de la singularidad tecnológica causada por una IA que querrá exterminarnos estamos muy seguros. Aunque ahora nos parezca improbable debido a nuestro entusiasmo, es posible que la IA se queda estancada, es posible que los modelos del lenguaje no avancen mucho más o no puedan resolver los problemas que tienen. A lo mejor llega otra forma de abordar la IA que pase a ponerse de moda y deje relegado al deep learning. Recordemos que las redes neuronales artificiales estuvieron durante muchos años relegadas a un segundo plano en la historia de la informática, y que la propia IA ha pasado por varios inviernos poco fructíferos.

Noam Chomsky, probablemente el lingüista más importante del siglo pasado, sostiene que ChatGPT no es similar a los humanos usando el lenguaje. Los niños no leen millones de textos a partir de los que inducen patrones estadísticos para realizar predicciones. Los niños, con muchísima menos información, consiguen encontrar las causas relevantes de los acontecimientos, consiguen explicaciones y no solo predicciones. Siguiendo a Popper, Chomsky dice que lo interesante de las teorías científicas es que en ellas se realizan predicciones improbables que, contra todo pronóstico, consiguen resistir la prueba experimental. El deep learning es incapaz de la hipótesis perspicaz. Erik J. Larsson, en su muy recomendable El mito de la inteligencia artificial, insiste en las limitaciones del razonamiento puramente inductivo de los LLMs y en su incapacidad de abducción. Judea Pearl, en su algo menos recomendable, Libro del porqué, expresa la necesidad de enseñar razonamiento causal a estos sistemas, ya que carecen completamente de él.  Margaret Boden, subraya que las máquinas son incapaces de creatividad transformacional, es decir, que pueden explorar y llevar al límite estilos artísticos ya creados, pero que son incapaces de hacer formas de arte radicalmente nuevas. La razón es que son totalmente ineptos para comprender qué es arte y qué no lo es, adolecen de todo criterio estético. Si miramos en serio sus cualidades, ChatGPT y sus homólogos están todavía lejísimos del pensamiento humano, y me parece muy sorprendente que tantos ingenieros de IA estén tan asustados, más que como una inteligente maniobra de marketing. Y ya no hablemos de emociones o consciencia: por muchas idioteces que se digan, estos modelos carecen por completo de ellas y, aunque uno de los grandes logros de la IA ha sido mostrar que es posible la inteligencia sin consciencia, todavía no sabemos muy bien el papel que juega esta segunda en la primera: ¿y si la consciencia fuera fundamental para realizar ciertas tareas cognitivas?

No quiero parecer chauvinista con respecto al pensamiento humano. Creo que los hombres somos muy torpes y quién sabe si nuestra falta de capacidades sea la responsable de que gran parte de los enigmas del universo permanezcan irresueltos pero, por favor, creo que somos muchísimo más que un modelo de lenguaje que juega a un corta-pega estadístico con millones de tokens, sin comprender absolutamente nada de lo que hace. Lo siento pero me niego aceptar que estos loros estocásticos puedan compararse con nosotros y que sean, además, la causa de un gran optimismo hacia que nuevos modelos nos superen en muy poquitos años. Creo que todavía estamos muy lejos de entender cómo funciona nuestra mente, tanto más para construir una artificial.

Con todo este argumentario no estoy negando tajantemente la posibilidad de que llegara un momento de la historia en que apareciera la susodicha súper inteligencia artificial que terminará por exterminarnos, no se me entienda mal, solo estoy sosteniendo que su posibilidad es, a día de hoy, tan sumamente remota que no debe interceder en nuestra forma de legislar actual. Hacerlo sería algo así como prohibir el cultivo y la venta de setas porque sería posible una rebelión de los hongos tal y como se nos describe en la serie The Last of Us. También habría entonces que comenzar las prevenciones contra un apocalipsis zombi, una rebelión de los simios, invasión extraterrestre, glaciación repentina, muerte temprana del sol… ¡Todo esto también entra en el rango de la posibilidad!

Los LLMs son unos artefactos tecnológicamente fabulosos que, con total seguridad, van a cambiar muchas cosas en nuestra forma de trabajar y de realizar multitud de tareas. También tienen un obvio lado perverso contra el que hay que legislar. Sin embargo, hay que comprenderlos como una gran oportunidad más que como un riesgo existencial. Problemas tan acuciantes como el cambio climático o las crisis de diversa índole que asolan periódicamente nuestras frágiles democracias, pueden ser abordados con IA. Entonces, como bien sostiene Andrew Ng, no hay que parar el desarrollo de la IA, sino que hay que acelerarlo. Dejemos de preocuparnos por fantasías distópicas basadas en relatos de ciencia-ficción, y busquemos y fomentemos el enorme abanico de usos positivos que tiene esta potente tecnología.

blkmndy-the-philosopher-john-searle-black-and-white-comic-style-462020923

El enfoque computacionalista de la mente que domina el argumentario que hay detrás de los entusiastas proyectos de IA actuales se sostiene en dos tesis emparejadas: el funcionalismo (un estado mental se define exclusivamente por su rol funcional en una cadena causal) y la independencia de sustrato o realizabilidad múltiple (el mismo estado funcional se puede implementar en una indefinida cantidad de sustratos materiales). Si mi mente es un programa de ordenador, equivalente a una máquina de Turing, puedo implementar máquinas de Turing en diferentes estructuras materiales. Así, el cerebro es el sustrato de mi mente, pero los circuitos de silicio también pueden ser un sustrato adecuado. Ya hemos construido hace muchos años máquinas universales de Turing allí. Si mi mente solo es una implementación de una máquina de Turing particular, no debería haber demasiados problemas en implementarla en un computador.

Mal, todo muy mal. Diseñar un programa que simule el funcionamiento de una polea que saca agua de un pozo es bastante trivial. Aplicando fórmulas de física muy básicas puedo hacer un modelo que me diga la longitud y resistencia de la cuerda que voy a utilizar, las dimensiones del cubo en función del agua que pretendo sacar, el radio del cuerpo de la polea, o la fuerza necesaria para sacar el cubo a una determinada velocidad. Una simulación de una polea puede ser una herramienta increíblemente útil, maravilla de la informática moderna. Ahora bien, ¿puedo usar únicamente el programa para yo, sentado comodamente delante del ordenador en mi casa, obtener agua? Vaya pregunta estúpida: obviamente no. El programa te sirve para hacer los cálculos, para organizarlo todo, pero necesitarás una cuerda, un cubo y un polea de verdad para sacar agua de verdad. ¿Muy obvio no? Pues no lo parece en absoluto para los ingenieros de IA.

No puedo entender cómo para construir cualquier ingenio tecnológico es tan importante la construcción material, pero para crear una mente similar a la humana resulta que no. Para fabricar un automóvil, un avión, una lavadora, un smartphone… son cruciales las propiedades de los materiales que van a utilizarse. Se miran propiedades como la conductividad, expansión térmica, calor específico, resistencia a la oxidación o a otros ácidos, interacción con otras sustancias, permeabilidad magnética, respuesta a ondas electromagnéticas (refracción, reflexión, absorción o dispersión), densidad, dureza, elasticidad, plasticidad, ductibilidad, maleabilidad, tenacidad, exfoliación, etc. Pues vaya, resulta que a la mente humana no le afectan absolutamente nada ninguna de estas propiedades, las cuales, sin embargo, afectan a todo objeto material conocido del universo. Y es que la teoría computacionalista lleva emparejada un cierto componente dualista imperdonable.

Si yo quiero construir una mente, tendré que fijarme en las cualidades que tienen las mentes: consciencia, inteligencia, imaginación, memoria, creencias, emociones, deseos, etc. y lo suyo hubiese sido empezar por ver qué materiales pueden causar tales cualidades, al igual que un albañil busca ladrillos y cemento antes de construir una casa. Sin embargo, el camino se tornó diferente. Los ordenadores demostraron que una de las cualidades más notorias de la mente, la inteligencia, era posible mediante dispositivos puramente computacionales. Mi ordenador no simula cálculos, los realiza de verdad. Los espectaculares logros de los actuales grandes modelos de lenguaje, aunque no exentos de controversia con respecto a sus capacidades, hacen que sea innegable atribuirles un alto grado, al menos, de conducta inteligente. Sin embargo, el gravísimo error está en presuponer que como hemos conseguido recrear conducta inteligente, los demás aspectos de la mente serán recreables, igualmente, únicamente utilizando mecanismos computacionales. Entonces llegan los silencios vergonzantes: ¿Cómo implemento una sensación de dolor en Python? ¿Puedo hacer que mis seis mil líneas de código en Java tengan un orgasmo? ¿Cómo hago que mi programa de ajedrez desee de verdad ganarme y se enfade cuando cometa un error estúpido? No, los programas no se ponen nerviosos, no se deprimen, no sienten envidia ni vergüenza, no disfrutan escuchando música, no les gusta la cerveza… ¡No tienen todo lo que cualquier psicólogo llamaría una vida psíquica! Adolecen por completo de lo que a la mayoría de la gente le parecerían las notas esenciales de una mente.

¿Eso quiere decir que sólo los cerebros son capaces de generar mentes completas? No. Pero si queremos generar una mente similar a la humana necesitaremos configuraciones materiales con los mismos poderes causales que los cerebros ¿Y no será esto caer en el chauvinismo del carbono? ¿No será esto caer en un antropocentrismo cateto y corto de miras que nos impide ver mentes en las máquinas al no estar hechas a nuestra imagen y semejanza? No. No sabemos si únicamente con la química del carbono podemos generar mentes, pero lo único que sabemos es que en la naturaleza así ha ocurrido. Que sepamos, la mente se ha dado originariamente en organismos biológicos. Si alguien dice ahora que la mente puede darse en artefactos no biológicos, la carga de la prueba la tiene él. Y aquí es donde se falla: de momento solo hemos conseguido inteligencia, sin haber llegado a los demás aspectos de la mente. La actual química del silicio no ha sido capaz hasta la fecha de generar mentes similares a las humanas. Abrir el concepto de pensamiento y de mente, y sostener que las máquinas tienen mentes y piensan es abrir demasiado, teniendo en cuenta las diferencias abismales entre ambas cosas. Recuerdo que en una serie de conferencias que moderé, para contentar a algunos críticos entre el público, propuse chistosamente utilizar la palabra «kensar» para referirme a lo que hacen las máquinas: las computadoras no piensan, «kensan», que es otro tipo de «conducta cognitiva».

Para entender todo esto me parece muy útil la distinción aristotélica entre materia y forma. Cualquier objeto o proceso del universo tiene una estructura formal (eso es lo que simulamos en el ordenador), pero también tiene una base material, y ambas son inseparables, de modo que las potencialidades que se encuentran en la base material determinarán las configuraciones formales posibles. Fue posible esculpir el David de Miguel Ángel en un bloque de mármol, pero habría sido imposible hacerlo con cuarzo, carbón o zirconio. Entonces, si queremos construir mentes solo nos queda un camino: avanzar muchísimo más en neurociencia para entender los mecanismos causales del cerebro (Todavía, por mucho que nos vendan la moto, no tenemos ni pajolera idea de cómo funciona el cerebro. Los disparos eléctricos en los axones neuronales y los jueguecitos químicos en las sinapsis son solo una pequeñísima parte de la historia. No pensemos, ni de lejos, que eso es todo lo que hay). Una vez que entendamos mejor esos procesos habrá que encontrar las estructuras materiales que tengan sus mismos poderes causales y entonces, y solo entonces, podernos tener mentes artificiales.

Esta entrada no es más que un parafraseo de las ideas sobre IA de John Searle. Si quieres profundizar más, tienes que ir al clásico «Minds, Brains and Programs» de 1980; o si quieres aún más, te recomiendo los libros El redescubrimiento de la menteEl misterio de la consciencia. Además, una de las grandes virtudes de Searle es lo bien que escribe y lo fácil que es de entender, cosa tristemente rara en el gremio filosófico.

El neurocientífico Mel Goodale realizó una serie de experimentos muy sugerentes. En la imagen vemos la famosa ilusión óptica de Ebbinghaus (también conocida con el nombre de ilusión de Titchener). Ambos círculos centrales son idénticos pero ante nuestra consciencia aparecen diferentes. Esto sirve para demostrar cómo el contexto influye drásticamente en nuestra forma de percibir cualquier objeto. En el experimento de Goodale se ponían unos discos de, aproximadamente, el tamaño de una ficha de poker como círculos centrales. Entonces, después de preguntar a los sujetos experimentales qué disco se veía más grande y comprobar que fallaban, cayendo en la ilusión de Ebbinghaus, se les pedía que cogieran ambos discos. Mediante un dispositivo optoelectrónico se medía la apertura entre el pulgar y el índice antes de coger la ficha. Sorprendentemente, se comprobó que la distancia era similar para ambos discos, es decir, que a pesar de que el sujeto consciente percibía los discos de diferente tamaño… ¡La mano actuaba como si fueran iguales! A pesar de que mi yo consciente era engañado, algo inconsciente dentro de mí no lo era.

Este experimento se suma a la perspectiva de los ya clásicos de visión ciega, o de cerebro escindido, que no hacen más que subrayar una idea: estamos repletos de mecanismos inconscientes que actúan, como mínimo, sin nuestro permiso. A mí me gusta decir que dentro de mí tengo otro yo, una especie de «perro fiel» o de «ángel de la guarda», un «dispuesto mayordomo» que hace las cosas por mí cuando yo no estoy pendiente. Es el que, con notable habilidad he de decir, sabe en qué posición está cada letra del teclado cuando estoy escribiendo estas líneas con cierta velocidad. Si paro de escribir y me pongo a pensar dónde está la «t» o la «v» o, al lado de que otras letras están, sencillamente, no lo sé, o, al menos, no lo sé con la suficiente exactitud como lo saben mis dedos al teclear. Es mi otro yo el que se quedó con la copla en mis pesadas clases de mecanografía a las que mi yo consciente odiaba ir, y ahora está rentabilizando aquella penosa inversión de mis padres. Pero no solo me ayuda a teclear, también es el que trae las palabras y, de alguna manera, las coloca. Cuando escribo no tengo que pensar la concordancia de género y número entre el sujeto y el adjetivo, ni pensar en el tiempo verbal adecuado… ¡No tengo que saber nada de gramática! Es mi otro yo el que se encarga de todo. Es como si fuera una secretaria a la que le estoy dictando una carta, pero no se la dicto literalmente, sino que le digo las ideas que quiero expresar y ella se encarga de transcribirlas a texto ¿No os ha pasado tantas veces que quieres decir algo pero no sabes como expresarlo? Tu yo consciente tiene una idea pero aquí tu otro yo no sabe cómo expresarla. Aquí tienes que ayudarle.

Aunque suene muy friki, llamaré a mi otro yo «Chuck».

Es psicológicamente reconfortante. Cuando estoy muy nervioso porque tengo que afrontar alguna adversidad, siento que no estoy solo, que tengo otro conmigo que, además, es bueno donde yo no lo soy. Chuck va a encargarse de las cosas pesadas para dejarme a mí libre. Parpadea cuando mis ojos se secan, respira, quita la mano cuando me quemo, me rasca, controla la dirección, los pedales y las marchas del coche mientras yo discuto con mi mujer, controla la posición de mi cuerpo y la tensión de mis músculos mientras camino, pone la lengua en los distintos lugares de mi boca para ejecutar los gráciles sonidos que emito al hablar… ¡Hace muchísimas cosas!

Podemos también entenderlo como nuestra intuición, esa corazonada que nos dice que no nos fiemos de tal persona aunque no existan razones objetivas para hacerlo. O lo contrario, Chuck es quien hace que nos guste estar con esa otra… ¿No será él quién nos dice de quién nos enamoramos? ¿No será él quién sabe hacer una lectura de la calidad genética de otra persona y lanza las flechas de Cupido en esa dirección?

En ocasiones, cuando estoy dando una clase que ya he impartido infinidad de veces, soy capaz de dejarle parcialmente el control. Mientras estoy explicando en la pizarra la metafísica cartesiana por quincuagésima vez, puedo pasarle a Chuck el micrófono mental y que sea él el que continúe con la clase mientras yo pienso en otras cosas. No obstante, he de reconocer que solo lo consigo durante breves lapsos de tiempo, y que tengo que volver al volante enseguida. Chuck puede decir cosas de memoria, pero cuando hay que hilar una argumentación se pierde enseguida.

En el capítulo cuarto de la sexta temporada de la maravillosa Rick y Morty (serie que recomiendo encarecidamente, tengas la edad que tengas comprobarás que es una obra de arte), Rick trae consigo un sonambulizador: un aparato en el que programas por el día a tu yo nocturno, a Chuck, para que «se despierte» mientras tú duermes y haga la tarea que tú le encomiendes. Rick lo programa para hacer abdominales y así, sin ningún tipo de esfuerzo consciente, Rick goza de una marcada tableta de chocolate. Así, el yo nocturno de Summer estudia inglés, el de Beth práctica la trompeta, y el de Jerry, idea genial donde las hubiere, se cartea con su yo diurno ¡Imaginad las posibilidades! ¡Se acabó el coñazo de salir a correr y de ir al gimnasio! ¡Se acabó estudiar para los exámenes! ¡Se acabó limpiar la casa, ordenar el cuarto, poner la lavadora! ¡Todo se lo encargamos a nuestros yo nocturnos! Lo maravilloso del capítulo es que los esclavos pronto dejarán de serlo…

Desgraciadamente no existe nada parecido y los intentos de hipnopedia, tan bien narrados por Huxley en su Mundo Feliz, han fracasado. Por mucho que, mientras duermes, te pongas los auriculares y te repitas en bucle una grabación del tema de historia que cae para el examen , ni tu Chuck ni tú os quedaréis con nada. No funciona. Pero imagina las posibilidades de investigación: ¿y si consiguiéramos encontrar la forma de comunicarnos con nuestros chucks? ¿Y si consiguiéramos hackear a nuestro yo consciente para acceder directamente a nuestro otro yo? Ya se ha hecho. Se llama publicidad (o si quieres ser más cool llámalo neuromarketing). Sí, qué le vamos a hacer, pero es Chuck quien tiene más peso a la hora de comprar en Amazon y, obviamente, Jeff Bezos lo sabe desde hace más de un siglo.

A veces pienso, ¿y si Chuck fuera consciente también? O, rizando el rizo un poco más, ¿y si yo soy el Chuck de otra consciencia? Quizá Chuck piensa que no hay nadie más, que él es el que en el fondo manda, y que yo soy solo el inconsciente que le ayuda. O quizá Chuck y yo somos solo dos de un montón más ¿Y si mi cuerpo fueran un montón de yoes conscientes que viven con la ilusión de ser los únicos?

Pensemos que el modus operandi de evolución darwiniana en el ser humano consiste en ir, poco a poco, automatizando las tareas que hacemos con suficiente eficacia. Por ejemplo, nuestra digestión o nuestro sistema inmunitario funcionan excelentemente bien sin ningún control consciente (Sería sugerente pensar en la posibilidad de que pudiésemos controlar nuestro sistema defensivo. Molaría mucho poder decir: ¡Linfocitos! ¡En sus posiciones! ¡Ahora!¡Al ataqueeeee!). Imaginemos que, poco a poco, vamos perdiendo más y más este control porque Chuck se va haciendo más sofisticado realizando más y más labores. Cada vez que aprende a realizar bien un cometido, éste se apaga para el consciente, desaparece. Entonces, pensemos en que, muy poco a poco, quizá durante miles y miles de años, van desapareciendo más y más cosas ¡Dios mío! ¿Se terminaría por apagar la luz de la consciencia del mundo y solo quedarían zombis chalmerianos? No, especulemos (salvajemente) con la idea de que nuestra esfera consciente no disminuye sino que permanece del mismo tamaño. Lo que ocurriría es que sus contenidos se alejarían cada vez más de la realidad cotidiana para centrarse más en sus propios contenidos. Se abandonaría el mundo físico para encerrarse (o abrirse según como se mire) a un mundo puramente mental, a una noosfera, a una región de lejanos ecos de lo que fue lo real que se han ido mezclando entre sí, generando ideas, representaciones, significados nuevos, que ya solo tendrían sentido dentro de ese espacio… de ese lugar que sería puro símbolo, puro sentido sin referencia. Y quizá llegaría un momento en que el hombre no recordara haber estado nunca en la realidad, y seguirá descubriendo y adentrándose cada vez más profundamente ese universo cuasi onírico… ¡Vaya viaje! Esto da para dos o tres relatos de ciencia ficción.

Me parece muy apropiado entender el cerebro como una caja de herramientas, una más o menos ordenada amalgama de recetas, atajos, heurísticas, fórmulas variadas, fruto tanto de eones de evolución como de una increíble capacidad de adaptación y aprendizaje cultural. Así, repetimos continuamente patrones conductuales en virtud de su eficacia: repetimos el chiste que vimos que hacía gracia, contamos la anécdota que sabemos que suele gustar, realizamos cualquier tarea laboral siguiendo la forma que pensamos más eficiente o que aprendimos de otro más experimentado, utilizamos recetas de cocina (definición de algoritmo par excelence), refranes o chascarrillos, modas de vestir; leemos índices, etiquetas, prospectos; y juzgamos mediante chismorreos, prejuicios, estereotipos, prototipos, ejemplos… y así vamos poblando el mundo de dispositivos cognitivos como si se tratara de una realidad extendida.

Cuando voy por el bosque y me encuentro con el tronco de un árbol caído no solo veo sus colores y formas, sino mucho más: veo un obstáculo que tengo que sortear en virtud de un recorrido a seguir, y recurro a diversos planes y posibilidades que ya han sido filtrados previamente: no pierdo el tiempo pensando en que podría quitar el tronco disparándole unos misiles o aplastarlo con una apisonadora, sino que solo pienso en posibilidades eficientes: puedo rodear el tronco o saltarlo. Como no es muy grande en comparación con mi cuerpo (tengo incorporado un mapa de mi anatomía y de sus proporciones que puedo comparar rápidamente con las de cualquier otro objeto), decido que puedo saltarlo y, al hacerlo, elijo una cierta ejecución de movimientos ya aprendida mucho tiempo atrás: apoyo mi mano izquierda en el tronco como punto de apoyo para saltar. Todo ha ocurrido de forma muy rápida, casi automática. No he necesitado ningún complejo proceso de deliberación consciente, es más, mientras saltaba mi atención consciente estaba centrada en que tengo que acabar la travesía rápido antes de que haga de noche y baje mucho la temperatura. La tarea era tan fácil debido a las herramientas con las que cuento, que podía hacerla pensando en otra cosa. ¿No puedo ir conduciendo, escuchando la radio y pensando en la guerra de Ucrania a la vez?

Si pasamos del marco de la vida práctica al de la teórica, igualmente me gusta considerar nuestros conocimientos y habilidades cognitivas como herramientas, como prótesis cognitivas (que decía Zamora Bonilla en su Sacando consecuencias) que te permiten pensar determinadas cosas o de una determinada manera tal que sin ellas no podrías. Así, uno va construyendo su mente como quien va equipando una navaja suiza con diferentes tipos de herramienta (navaja, destornillador, llave inglesa, sacacorchos…), y con ello va enriqueciendo la realidad. Es posible que tengas conocimientos de botánica y sepas el tipo de árbol al que pertenece el tronco, así como el de la vegetación de alrededor. Ya no ves solo «plantas», sino pinos, encinas, retamas, jaras, lavandas, tomillos… También podrías pensar en los diferentes niveles tróficos del bosque o en los distintos flujos y ciclos energéticos y químicos que lo atraviesan. Así, la realidad que te envuelve se enriquece notoriamente. Comenzarías a ver fotosíntesis, competencia darwiniana por la luz, transportes hidráulicos de savia, rutas metabólicas, ciclos de agua o carbono, hongos y bacterias degradando materia orgánica en los suelos, etc, etc.

También es posible que el tronco que saltastes te recuerde a uno dibujado en un cuadro de Caspar Friedrich y que ese recuerdo te haga comparar el bosque con los paisajes de la pintura romántica. Estarás usando otro artefacto para interpretar la realidad: una perspectiva estética. Y eso te podría llevar a pensar en el bosque como un ser vivo, como una totalidad orgánica en constante evolución… y quizá aquí vieras la voluntad de vivir de Schopenhauer o el espíritu absoluto de Hegel desplegándose. O todo lo contrario: quizá te fijes en el juego de palancas y planos, de fuerzas y contrafuerzas que ha hecho tu cuerpo al saltar el tronco y entiendas el mundo como una gran maquinaria física al estilo de Spinoza o Newton.

El bosque, en principio plano y anodino, se ha llenado de multitud de entidades, se ha poblado y enriquecido, ha sido habitado por una mente humana. Pensemos ahora en un pobre ignorante, alguien que no sabe nada de nada y que entra en una catedral. Las catedrales son uno de los lugares más enriquecibles que existen: están completamente llenos de disposiciones para pensar, de cerraduras para llaves cognitivas. Pero el ignorante no tiene ninguna llave, ningún dispositivo para utilizar aquí. Se aburre y se va, la catedral le ha sido completamente asignificativa, como un idioma escrito en extraños caracteres. Lamentable: el ignorante vive en un mundo muy pequeño y todo le es ajeno. Recuerdo, cuando estudiaba en la universidad de Salamanca, un amigo mío se echó una novia inglesa. Un día, su padre vino de la Pérfida Albión a visitarla. Mi amigo les organizó una visita turística por la ciudad. Curiosamente, al padre no le gustó mucho Salamanca y quedó muy poco impresionado por la fachada plateresca de la universidad o por el Art Noveau de la Casa Lis. Por lo visto, el hombre era ingeniero, y repetía constantemente que esas edificaciones eran fácilmente construibles con la tecnología actual. Una pena: vivía solo en una perspectiva, solo tenía una herramienta en su navaja suiza, y todo lo veía a través de esas lentes. Es la triste mirada única que tanto abunda.

Por eso, cuando algún imbécil, cuando algún ignorante que vive en un mundo minúsculo, afirma que aprender tal o cual dato, tal o cual idea, que se aleja de la inmediatez de la vida práctica, es solo culturilla general, se me parte el alma. Efectivamente, el ingeniero británico entendía que la grandiosidad cultural de Salamanca era tan solo culturilla general, información que solo vale para ganar al Trivial, pero poco más. Así vino y se fue sin nada. Estoy seguro que, años después, no recordaría prácticamente nada de su viaje. Y, aunque entiendo que esto sería prejuzgarlo demasiado, apostaría a que el día antes de su muerte, si hiciera recuento de su viaje por la vida, tampoco se llevaría demasiado al otro mundo. Maletas siempre muy vacías. Vidas lúgubres.

Voy aquí a inaugurar aquí una serie de entradas en el blog en la que expondré listas de dispositivos cognitivos, una serie de teorías, conceptos, ideas, expresiones, palabras que han enriquecido mi mundo, que me han resultado muy útiles para intentar describir o comprender muchos fenómenos o que, sencillamente, me parecen literariamente atractivos, ingeniosos o bellos. Obviamente, serán solo una infinitésima parte de los que he usado a lo largo de mi vida, principalmente porque son incontables (quizá porque lo son todo en nuestra vida mental), porque muchos otros son inconscientes y porque otros tantos los he olvidado.

Aquí vamos con diez:

Disonancia cognitiva de Leon Festinger: cuando una creencia es incoherente con nuestra forma de actuar, es más fácil cambiar la creencia que la conducta. El ejemplo clásico es el del fumador: cuando el médico le dice que fumar es muy malo para su salud, en vez de dejar de fumar, afirma cosas como «Mi abuelo fumó dos cajetillas diarias durante toda su vida y vivió más de noventa años. Fumar no será tan malo». Esta estrategia se combina muy bien con el sesgo de confirmación: el fumador intentará evitar toda información negativa con respecto al tabaco y hará mucho caso a la que sea positiva. La disonancia cognitiva es la versión cognitivista de la racionalización como mecanismo de defensa freudiano, y es nuestras sociedades creo que es causa de mucha infelicidad, llegando, en algunos casos, a lo que se ha denominado bovarismo.

Bovarismo de Jules de Gaultier: En la famosa novela de Flaubert, la bella Emma siente una profunda insatisfacción al llevar una vida que no coincide con lo que ella esperaba. Su marido le decepciona y la vida en el campo es aburrida, nada que ver con las excitantes y apasionadas novelas románticas que lee asiduamente. Emma intenta suplir esa insatisfacción a través de amantes y de consumismo, lo que, al final, causará su perdición. Gaultier define el «bovarismo» como esa insatisfacción crónica cuando uno compara lo que hubiese querido ser con lo que realmente es, cuando compara la realidad con los sueños, ilusiones o pretensiones que tenía para su vida. ¿Es ésta la enfermedad de nuestro tiempo?

Estímulo supernormal de Nikolaas Tinbergen: es un tipo de estímulo que simula a otro exagerando mucho una de sus calidades, de modo que el organismo que lo percibe responde con mucha más fuerza de lo normal. Tinbergen, un ornitólogo holandés, ha estudiado multitud de ejemplos de estímulos supernormales en aves. Con este concepto podría explicarse el éxito de cosas como la comida basura, el porno o los programas de cotilleo (¿la música, o algunos tipos de música quizá?). Es la forma de explicar lo excesivo, como un instinto básico, primitivo e innato que se amplifica y se explota.

Sistema 1 y sistema 2 de Kahneman y Tversky. Utilizamos dos sistemas para pensar: el 1 es rápido, automático, emocional, subconsciente, estereotipado, etc; y el 2 es lento, costoso, lógico, calculador, flexible, creativo, consciente, etc. Parece una distinción muy simple, casi de sentido común, pero tiene un gran poder explicativo. Si examinas tu conducta diaria a partir de estos dos sistemas, todo parece explicarse muy bien.

Términos  de narración cinematográfica: viviendo el los tiempos de la imagen en movimiento, conocerlos y ser capaz de extrapolarlos a otros contextos puede ser muy interesante (sobre todo si lo aplicamos al universo de los noticiarios, donde hay más cine que en Hollywood). Algunos que me gustan son: Mcguffin, flash-back (analepsis) y flashforward (prolepsis), efecto Rashomon, racconto, in media res, deus ex machina, voz en off

Non sequitur: escribí en un tweet que me encantaría ir por la calle persiguiendo a la gente gritando  ¡Non sequitur! ¡Non sequitur! Y es que siento un maligno, e infantil, placer cada vez que encuentro alguno. Es una falacia lógica que consiste en sacar una conclusión que no se implica de las premisas de las que parte. Aparece por doquier. En términos generales, disponer de un buen número de falacias informales en nuestra caja de herramientas es algo muy saludable.

Vaca esféricaEscuché esta idea en el magnífico podcast La filosofía no sirve para nada, el cual recomiendo encarecidamente. Surge de un chiste muy malo: tenemos una explotación bovina con una muy baja productividad. Entonces contratan a un equipo de físicos para que examine las causas del problema y busque una solución. Después de meses de investigación, el portavoz de los físicos reúne a los empresarios para explicarles los resultados. Entonces el físico comienza: «Supongamos una vaca esférica…». La moraleja está en que nuestros modelos físicos del mundo son, muchas veces, simplificaciones muy excesivas. Sin embargo, cabe otra lectura: tenemos que simplificar la realidad para quedarnos con lo relevante y eliminar lo accesorio. Nuestros modelos suponen un juego de quitar y poner elementos de la realidad en función de lo que queremos saber o probar. Si eliminamos demasiado tenemos vacas esféricas, pero si no eliminamos nada tenemos una amalgama ininteligible de elementos. Recuerde el lector el cuento Funes el memorioso de Borges, en el que un hombre tenía una memoria tan poderosa que captaba y retenía absolutamente todo, pero eso, lejos de ser algo afortunado, era una desgracia, ya que le impedía pensar.

Cadit Quaestio: como se ve, me encantan las expresiones latinas que se utilizan todavía en derecho. Ésta, que literalmente traducimos como «la cuestión cae», significa que un determinado problema o pregunta ya ha sido zanjada, que un determinado tema ya no está en cuestión, o que una disputa ya no está en liza. Es una expresión muy útil para terminar una discusión de besugos, esos bucles absurdos en los que quedamos encerrados al discutir ¡Parad ya! O la cuestión está resuelta y no os habéis dado cuenta, o no tiene solución tal y como la planteáis ¡Cadit Quaestio! O también es muy gustosa como medalla, como pequeño premio cuando uno resuelve un problema. Al igual que en matemáticas podemos usar Quod erat demostrandum al terminar una demostración, podemos poner Cadit Quaestio cuando resolvemos una determinada cuestión teórica.

Segundo principio de la termodinámica. Creo que es una de las ideas científicas de más profundo calado. Pensar que todo fluye hacia el desorden, hacia esa entropía total en un universo térmicamente muerto, es de una belleza trágica exquisita. El big RIP como final del cosmos es un golpe en la mesa brutal al orgullo humano, es el memento mori absoluto. Da igual todo lo que hagas en tu vida, toda la herencia que dejes, da igual que te recuerden o no, pues llegará un momento en que no quedará absolutamente nada.

Bucle: una de las cosas que más me gustaron cuando comencé a aprender programación fueron los bucles for, una estructura de control que, sencillamente, repite algo un número determinado de veces. Me parecieron una herramienta muy poderosa porque no solo permitía repetir, sino que al repetir podías introducir variaciones. Por ejemplo, podías hacer que en cada repetición se sumara un número a un valor, por lo que creabas un contador o un acumulador. También podías hacer que el programa corriera a lo largo de un texto en busca en una palabra determinada, creando un indicador.  Pero lo más flipante es que podías meter dentro del bucle cualquier otra instrucción que te permitiera tu lenguaje de programación… Y aquí las posibilidades llegan hasta el infinito. Podías meter incluso bucles dentro de bucles… ¿Y si esa fuera la auténtica estructura de la realidad? ¿Y si el tiempo en el que vivimos no fuera lineal sino cíclico tal y como pensaban griegos y orientales? ¿Y si mi vida no fuera más que repeticiones con variación, que ciclos dentro de ciclos dentro de ciclos…? ¿Y si toda la historia del pensamiento no fuera más que un circulus in demostrando?

  1. Allen Newell y Herbert Simon definieron computadora como un «manipulador simbólico», es decir, como un dispositivo en el que entran unos determinados símbolos que son «manipulados» para obtener unos determinados resultados (que serán nuevos «símbolos»).
  2. «Manipular» es un verbo de un significado tremendamente vago para hablar de lo que una computadora hace con los símbolos, ya que significa, prácticamente, hacer cualquier cosa con algo. Aunque me parece interesante que Newell y Simon no dijeran directamente que la computadora realiza computaciones, es decir, cálculos, con los símbolos, dando a entender que una computadora pretende ser más que una mera máquina de cálculos aritméticos.
  3. «Símbolo» es un término aún más complicado que el anterior, dando lugar a toda una rama de la lingüística a la que denominamos semiótica. Lo definiré de la forma más prosaica que he encontrado en la historia de la filosofía: símbolo es aquello que es capaz de estar en el lugar de otra cosa. Así, cuando yo veo la palabra «perro» escrita en un libro, en mi cerebro recreo la imagen de un perro sin la necesidad de tener un perro delante. La palabra «perro» como símbolo es capaz de ponerse en el lugar de un perro real (Esto no es más que la teoría de la supossitio de Guillermo de Ockham).
  4. ¿Qué «símbolos» manipula una computadora? Si nos vamos al nivel más bajo posible, al nivel más pequeño del hardware encontramos que las computadoras codifican («simbolizan») la información en bits utilizando flujos de corriente eléctrica. Una corriente de, aproximadamente, cinco voltios se va a simbolizar con un «1» y una corriente nula o con muy poquito voltaje se simbolizará con un «0». Nótese que aquí se da una traducción que, como tal, es una falsificación: se pasa de una corriente continua a una clasificación discreta. Digitalizar consiste precisamente en hacer eso, en interpretar lo continuo como si fuera discreto, falsear lo continuo. Ahora, siguiendo a Ockham, en vez de un flujo de voltaje tengo un «1».
  5. Importante ver que la relación entre el símbolo y su referencia no es del todo arbitraria, al contrario que lo que ocurre en nuestro lenguajes ordinarios. La palabra «perro» no se parece en nada a un perro real, pero, a pesar de que un flujo de electrones a un determinado voltaje no se parece en nada a un «1», la dualidad voltaje/no-voltaje tiene similitud con la dualidad 1/0, que pretende significar presencia o ausencia total. Habría, en mucho sentido, no una relación simbólica, sino una relación icónica entre las corrientes eléctricas y la paridad binaria. Esto vuelve más borrosa, si cabe, la distinción entre software y hardware.
  6. Téngase cuidado y piénsese que a nivel ontológico solo siguen existiendo los flujos eléctricos. Los ceros y los unos no existen en ningún lugar del computador más que en la mente del ingeniero. Siguiendo, de nuevo, a Ockham, no multipliquemos los entes sin necesidad. Creo que es muy recomendable intentar atenerse a una ontología materialista sensu stricto cuando se analizan las computadoras porque en este contexto surgen muchos espejismos ontológicos.
  7. Una fantasía muy evocadora consiste en pensar que si pudiésemos conseguir crear un ordenador con una memoria continua en vez de discreta, tendríamos una memoria infinita, ya que algo continuo es infinitamente divisible de forma que siempre podríamos dividirlo otra vez para crear un nuevo espacio de memoria.
  8. Tenemos entonces los símbolos primitivos, los átomos de la computadora ¿Qué tipo de «manipulaciones» hace con ellos el ordenador? Para hacerlo más fácil, pensemos en la versión simplificada par excellence de un ordenador: una máquina de Turing. Ésta solo hace cinco cosas: lee, escribe, borra, mueve la cinta a la derecha o mueve la cinta a la izquierda. Si nos ponemos exquisitos, una máquina de Turing solo cambia cosas de sitio (Véase que la instrucción Mov era una de las esenciales del lenguaje ensamblador). Y esto es lo verdaderamente alucinante: solo cambiando cosas de sitio conseguimos llegar hacer ingenios como ChatGTP o AlphaFold.
  9. Además, como lenguaje solo necesitamos dos tipos de símbolos (0 y 1), ya que podemos traducir todos los números y las letras, es decir, todo símbolo imaginable, a código binario. No hay nada que pueda hacerse con un conjunto de símbolos cualesquiera (pongamos el alfabeto chino) y que no pueda hacerse con código binario. Todo código es bi-reductible.
  10. Por eso, para fabricar un computador, lo único que necesitamos es encontrar, o fabricar, elementos biestables (flip-flop), es decir, cosas que puedan mantenerse de forma razonablemente estable en uno de dos estados posibles.
  11. Recapitulando: solo necesitamos un mecanismo capaz cambiar dos tipos de cosas de sitio para llegar hacer ingenios como ChatGPT o AlhaFold. Es completamente increíble el poder generativo de algo tan sencillo.
  12. En 2007 saltó la noticia de que la máquina de Turing (2,3) era universal, es decir, de que una máquina de Turing de dos estados y tres colores era capaz de realizar cualquier cálculo imaginable. Un chaval de veinte añitos, un tal Alex Smith, había sido el diseñador de la máquina (si bien todavía el asunto es controvertido y, hasta donde yo sé, no ha sido aclarado aún). Adjunto la tesis doctoral de Turlough Neary y un artículo de Yurii Rogozhin por si alguien quiere profundizar en las máquinas de Turing mínimas.
  13. Pero esto nos debe hacer desconfiar de las explicaciones reduccionistas. Reducir lo que es un ordenador a su mínima expresión puede tener cierto valor explicativo pero no es, para nada, toda la historia. Intentar explicar todo lo que es un programa como Windows por ejemplo, únicamente apelando a voltajes y tensiones, sería lo mismo que intentar explicar la literatura de Cervantes solo apelando a los átomos de un ejemplar del Quijote. La mejor explicación aparecerá en niveles intermedios y no en los inferiores.
  14. Los distintos lenguajes de programación que aparecieron progresivamente fueron echando capas simbólicas sobre el hardware. Lo que se pretendía era, sencillamente, hacer más fácil el uso del ordenador al programador. Programar directamente con código binario es un auténtico infierno, por lo que muy pronto se crearon instrucciones que ejecutaban conjuntos enteros de procesos y que resultaban más amigables para los pobres ingenieros. Así surgió el ensamblador y demás lenguajes que fueron subiendo más y más de nivel simbólico o de abstracción. Famoso fue COBOL, basado en las ideas de la simpar Grace Murray Hopper, que casi puede entenderse sabiendo inglés. Hoy en día lenguajes como Python son de altísimo nivel, edificios con muchísimas plantas de símbolos, de instrucciones que están en lugar de otras que, a su vez, están en lugar de otras, y así sucesivamente muchísimas veces. El último nivel sería el de la interfaz de usuario, en donde se intenta que una persona sin conocimientos informáticos sea capaz de manejar la computadora.
  15. Esto genera una sensación engañosa de simplicidad. Al usuario le parece que no hay nada entre que pulsa el icono en pantalla y el vídeo empieza a verse. Aquí viene al pelo la famosa frase de Clarke: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Y esto puede ser muy peligroso.
  16. En el famoso argumento de la habitación china, Searle critica que el comportamiento de la máquina siempre es sintáctico y nunca semántico, es decir, que la computadora trata los símbolos no como símbolos sino como «lugares», como cosas que cambia de sitio sin ningún tipo de comprensión de su significado. Eso es verdad y no lo es. Es cierto que la computadora solo cambia cosas de sitio, pero lo hace según unas reglas y esas reglas sí que son semánticas. Por ejemplo, si hacemos un circuito para conseguir una puerta lógica AND, es cierto que la máquina no comprende lo que hace ni sabe lo que es un AND, pero el circuito sí que crea una puerta AND que se comporta, con todas las de la ley, como tal y podrá ser utilizada para esa tarea. Me gusta utilizar la expresión «semántica prestada» para hacer referencia a que toda la semántica se la ha puesto el ingeniero. Ciertamente, tal como dice Searle, la computadora no comprende lo que hace, pero se comporta como si lo hiciera y sus resultados son completamente válidos: las inferencias a partir de la puerta lógica AND son correctas.
  17. ChatGPT no comprende nada de lo que hace y su forma de funcionar mediante modelos de lenguaje basados en semánticas distribuidas es muy estúpida. Sin embargo, su espectacular éxito se debe a lo bien que maneja la semántica que ya encontró en los millones de textos con los que fue entrenado. Si ChatGPT sabe que «Hoy hace un buen día porque…» encaja mejor con «…no llueve» que con «… hace una terrible ventisca», es porque alguien que sí comprendía semánticamente lo que escribía se lo dejó preparado.
  18. Lo interesante viene cuando cualquier programa de procesamiento de lenguaje se encuentra con que tiene que inferir nuevas semánticas a partir de las que ya tiene. Por ejemplo, si sabe que «parachoques» suele llevarse bien con «automóvil», ¿se llevará bien con «helicóptero» o con «barco»? ChatGPT, y sus modelos homólogos, buscan con su colosal fuerza bruta otros casos en los que «parachoques» aparezca junto a «helicóptero» o «barco» pero, ¿y si no aparecieran? Lo salvaje de estos modelos es que casi siempre aparecen de alguna forma, porque tienen en su memoria todo lo que jamás ha sido escrito y, hablando en esos órdenes de magnitud, es muy difícil sorprenderles. La fuerza bruta es mucho más poderosa de lo que hubiéramos pensado.
  19. Pero, si nos olvidamos de ella, lo interesante sigue siendo crear IA de la forma tradicional: enseñando a que piensen de verdad y no solo a que busquen correlatos estadísticos. Como defiende Judea Pearl, hay que enseñarles causalidad. ChatGPT relaciona «nubes» con «lluvia» pero no comprende qué relación causal hay entre ambas, solo sabe que las nubes causan lluvia porque lo ha leído mil veces así, pero aceptaría felizmente que la lluvia causara nubes si así lo hubiera leído. Eso además, hace a estos sistemas muy frágiles al engaño o al fallo absurdo.
  20. En esta línea estoy muy de acuerdo con Gary Marcus en que no podemos partir de un sistema que no sabe absolutamente nada y meterle millones de datos, sino que hay que introducirle mucho más conocimiento incorporado. Parece que hay que volver a la vieja IA simbólica y diseñar sistemas híbridos que aprovechen lo mejor de ambos mundos. Hay que volver a recuperar los viejos sistemas expertos.
  21. De igual forma hay que dar más importancia al diseño del hardware. Debido al error de creer en el argumento funcionalista de la independencia de substrato o realizabilidad múltiple, se ha pensado en que el hardware no tenía ni la más mínima importancia. Fatal confusión: la mente ha co-evolucionado biológicamente con el cuerpo durante eones. En este proceso evolutivo la mente ha ido determinando el diseño óptimo de su sustrato, mientras que el sustrato habrá impuesto limitaciones y posibilidades al desarrollo mental. La estructura y las propiedades físicas del material condicionan, sin duda, el pensamiento.
  22. Y no solo las propiedades físicas, sino las del entorno en el que la mente se ha desarrollado. El contexto, el ecosistema, las características del entorno quedan profundamente reflejadas en la naturaleza de nuestros pensamientos. De aquí las nuevas corrientes en ciencias cognitivas: la cognición corporeizada, embebida, situada o encarnada.