Archivos de la categoría ‘Ciencias de la computación’

Me resulta bastante inquietante, por lo común que suele darse, que de cualquier tema opine todo el mundo menos quien realmente sabe. Todos parecemos saber más de fútbol que el seleccionador nacional, o saber qué es lo que conviene al país mejor que todo el consejo de ministros, pero es que incluso en temas científicos o tecnológicos, vemos opinar rotundamente en los medios a gente que desconoce los más básicos rudimentos de la disciplina de la que está hablando. Así, cuando oímos hablar de que la inteligencia artificial está a punto de cobrar consciencia (o incluso que ya lo ha conseguido), me resulta escandaloso que nadie se haya parado a preguntar a los que, verdaderamente, han estudiado profundamente el tema. Es más, los que sostienen que un programa de ordenador es capaz de generar consciencia, ya sea como una propiedad emergente, ya sea de cualquier de otra forma, están dando por sentada una teoría computacionalista de la mente en su versión más dura, lo cual no es, para nada, algo consensuado en la comunidad académica. En filosofía de la mente hay muchas teorías sobre la naturaleza de los estados mentales que no son computacionalistas, o que son muy críticas con el computacionalismo. Es por ello que, desde este blog, quiero contribuir a subsanar un poco el asunto, preguntando a uno de los mayores expertos del mundo en el estudio de la consciencia, el profesor Riccardo Manzotti, quien ha tenido la inmensa amabilidad de aceptar esta entrevista.

Manzotti es filósofo, psicólogo y trabaja como profesor de Filosofía Teórica en la Universidad Libre de Lengua y Comunicación de Milán. Ha publicado multitud de artículos científicos sobre la consciencia y su posibilidad de implementarse en máquinas, así como de filosofía de la mente, medios de comunicación e incluso filosofía del arte. Es editor ejecutivo del  Journal of Artificial Intelligence and Consciousness y ha escrito varios libros como The Spread Mind: Why Consciousness and the World Are One (ORBooks, NewYork, 2018), Dialogues on Consciousness (junto con Tim Parks, NY, 2018), y la reciente Io & Ia Mente, Cervello e GPT (junto con Simone Rossi, editada por Rubbettino, 2023), desgraciadamente ninguno de ellos traducido al castellano (razón de más por la que he querido entrevistarlo).

Adjunto la entrevista en inglés y luego traducida al castellano.

Entrevista original en inglés:

  1. What is consciousness? Is it an illusion as Dennett maintains? A controlled hallucination as Seth thinks? An epiphenomenon? Or does it have a clear biological purpose? Why does consciousness exist even though we can build machines that do the same thing as conscious beings but without being conscious?

We must exercise great caution in the way we frame our questions, for the nature of their formulation often precludes certain answers. When every response appears lacking, it behooves us to step back and reevaluate both the question and its presentation. This is particularly true in the case of inquiries about consciousness. Such questioning presupposes consciousness to be a phenomenon that exists over and above the standard physical description. As a result, it is relegated to being either an illusion or a mere epiphenomenon—if it were not, it would not be alien to the standard account. This leads to a patently absurd conclusion. To escape this intellectual cul-de-sac, we must revisit the original query: why do we seek to understand consciousness? The answer lies in recognizing that consciousness is a flawed solution to a non-existent problem: namely, how it is possible for something (a body, for instance) to experience something else (an object) that is distinct. This problem is rooted in the assumption that we are separate from the objects we experience, living our lives within the confines of our bodies. Fortunately, we have the opportunity to challenge this assumption, entertaining the possibility that, at the fundamental level, we are not separate from the external world but are, in fact, one with it.

  1. Is the hard problem of consciousness solvable? Will we ever have a complete understanding of what consciousness means? Or are skeptics, like Colin McGinn, right? And, in any case, why is researching consciousness so difficult for us?

As I mentioned earlier, the difficulty of the problem stems from its misguided formulation. The mistake lies in seeking consciousness as a special property of nervous systems, one that would inexplicably enable them to reach out to and represent (experience) the external world. This is indeed an impossibility, akin to asking our brains to perform a miracle. Many are beguiled by the notion that the brain can miraculously transform the ‘water’ of neurons into the ‘wine’ of consciousness, as Colin McGinn once wrote, but this is a fallacy. When we ask the physical world to achieve the impossible, it’s no surprise that we never discover how it might be done. The failure is not due to a lack of intelligence on our part, but simply because it does not occur. It’s impossible. If we demand nature to perform the impossible, it will never happen. Hence, the pursuit of consciousness and the recent disillusionments in the Templeton Foundation-funded adversarial competition between IIT and GWNT are destined to be a waste of time and resources. What is needed instead is a reframing of the question, one that does not cast consciousness as a miracle, but as a reflection of how reality is structured and organized.

  1. You have proposed the controversial hypothesis that consciousness and the world are one and the same. It is a controversial idea because traditional science maintains the existence of an external world different from our mind. Could you give us a series of arguments to convince the seasoned naturalists who believe that consciousness is in the brain and not in the world?

Indeed, this hypothesis is controversial not because it contradicts any empirical evidence or because it requires (as nearly all other theories do) additional and extraordinary assumptions, but solely because it challenges deep-seated prejudices, primarily the belief in being a mind separate from the physical world. My hypothesis, known as Mind-Object Identity (MOI), is fully consistent with empirical data, ontologically more coherent than other hypotheses, and does not require additional assumptions. Let me elaborate. To this day, after 150 years of brain imaging, there is no empirical evidence for the presence of consciousness within the brain. Not only has no one ever measured or photographed a conscious sensation within the nervous system, but no neural event has been found to be caused or altered by the supposed presence of consciousness. Consciousness, within the nervous system, is both invisible and epiphenomenal. How can we continue to believe it resides within the nervous system?

Now, consider a common perceptual experience: seeing a banana. There exists an object with properties that we encounter in our existence – shape, color, size – and there exists our nervous system with completely different properties. What do we find within our moment of existence: the properties of the banana or those of the nervous system? Clearly, we find the properties of the banana. What then should be the logical conclusion? Are we one with the object whose properties are part of our existence, or are we another physical system (the nervous system) that, as if by magic, appropriates physical properties it does not have? The only reason to think of ourselves as the nervous system or located within it is neither empirical nor existential, but tied to a tenacious prejudice: the idea of being behind the eyes and between the ears.

The Mind-Object Identity hypothesis is akin to the Mind-Brain Identity theory. In this regard, it aligns epistemically with science. Simply put, the hypothesis posits that instead of being a brain that mysteriously experiences a range of things, we are the things that, through a brain, produce effects. There’s nothing mysterious about this definition.

Compare this hypothesis with the burdensome complexity of theories based on enigmatic postulates or those that are ontologically costly. The Mind-Object Identity approach is far more efficacious and convincing than all of these. Its only flaw is that it challenges us to discard the superstitious belief that the mind resides within the body.

  1. Some authors such as Philip Goff argue that traditional science is not capable of explaining consciousness, so we would need a new type of science to study it. Others, like Hameroff, Kauffman or Stapp, rely on quantum physics to find some light. What do you think of these proposals? Do we have to get away from traditional science or is there still much to do without leaving it?

People who challenge traditional science often make desperate moves to preserve their biases. Instead of questioning the separation between mind and world, they opt to spread dualism across all of reality, proposing positions like panpsychism or forms of idealism. Others, like the Quantum Mechanics (QM) enthusiasts, hope that by rubbing the magic lamp of quantum mechanics enough, the genie of consciousness will emerge. These are acts of desperation. Rather than continuing to propose absurdities, we must simply question what we believe we know but have never experimentally found. Science is doing just fine; there’s no mystery to add, but rather unfounded beliefs to remove.

The Mind-Object Identity (MOI) does not require any modification of science or our naturalistic view of the world. MOI simply asks us to look at science and our existence without one assumption – the separation between us and the world – which is not part of science; something that was added to incorporate popular but unfounded superstitious beliefs into the scientific method.

Many believe that science is completely objective. In reality, many ideas nestled within the scientific method are not its products at all. In the past, these ideas might have served as useful simplifications, but the time has come to question them.

  1. This September, 124 researchers signed a letter [1] accusing Tononi’s Information Integration Theory of being pseudoscience. Would you agree with these accusations? Are they exaggerated? Do they obey a certain foul play between scientific rivals? Or, truly, is the king naked?

Finally, someone has felt the need to challenge Integrated Information Theory (IIT), which is not a scientific theory. I completely agree with the authors of the letter. The problem with IIT is that it is neither a scientific theory (based on unproven and unprovable postulates) nor a theory of consciousness. Let me elaborate on the latter point. Suppose, for argument’s sake, that the brain somehow realizes integrated information, a claim I find both ontologically and empirically dubious. But let’s assume it for a moment. Question: why should integrated information possess the qualities of consciousness? Why, for instance, should an integrated information value of 1055 (phi) correspond to the taste of chocolate? Is there any scientific article (even one that’s hyperbolically speculative) that explains how we go from IIT’s numbers to the properties of consciousness? For example, why should a certain value produce the sensation of red, and another value the sensation of wasabi? Nothing. On this point, why and how integrated information should equate to a particular conscious experience, Tononi and all his supporters have been conspicuously silent and have always remained mute. Therefore, even if IIT worked (which it doesn’t), it would not be an explanation of consciousness and would defer to a further mystery. Not that the opposing theory, the Global Workspace Neuronal Theory (GWNT), is any better. To be fair, all the theories currently accepted for consciousness research should have been declared pseudoscientific. Simply because they would explain nothing, even if they were correct.

The real question is, why are these theories taken seriously and have justified and wasted significant funding? This is more a question of the psychology and sociology of scientific research than of consciousness. A possible explanation is that these theories satisfy the primary motivation of neuroscientists to search for consciousness within the brain: the hope and conviction that the problem of consciousness will find a solution within their own research departments.

One day, all these theories will be relegated as cases of stubbornness by disciplinary sectors and forgotten like land bridges, epicycles, and the luminiferous ether.

  1. A few months ago, the specialized press gave a lot of publicity to the case of Blake Lemoine, a Google engineer who thought that LaMDA, a chatbot specially designed to maintain very realistic conversations, was a conscious entity. Immediately, Google suspended him from employment and salary for violating company confidentiality policies. Lemoine argued that conversations with LaMDA revealed a high degree of intelligence, coherence and persistence over time, which, according to him, turned this artificial intelligence into a person. Could Lemoine have a point? Do large language models like GPT-4, Bard or Claude represent some kind of advance in the field of artificial consciousness?

Why should they? Again, from Plato to the present, thought has been conceived as a kind of internal computation of the system; a computational version of animism that is completely unjustified from a naturalistic standpoint. This is not to deny that machines might one day, not too distantly, akin to bodies, form the same type of causal reference system that binds together a world of objects we call mind. There’s no biological chauvinism on my part. But this won’t happen because information or computations within a system will magically become conscious. Rather, it will be because a physical system, natural or artificial, will be capable of being the juncture point of a set of events and things that are one with a mind.

  1. Thomas Metzinger wrote an article in 2021 [2] where, like the famous letter signed by Elon Musk and many others regarding artificial intelligence, he called for a moratorium on the research and development of artificial consciousness. Would you agree with Metzinger? Should we stop research in artificial consciousness until we are very clear about the ethical principles that will regulate advances? Or perhaps this would only delay the investigation?

It strikes me as a ludicrous proposal founded on the aforementioned outdated conceptions.

  1. A lot of researchers are warning about the enormous risk involved in the development of artificial intelligence. Highly prestigious researchers such as Geoffrey Hinton, Yoshua Bengio or Stuart Russell appear in the media alerting us of a serious emerging danger. There is even talk of an existential risk for humanity. Should we be afraid of artificial intelligence? Or is this nothing more than hype or marketing? Have we seen too many science fiction movies or is there much truth in these statements?

The risk is real, not because artificial intelligence might conquer the world in a Terminator-like scenario, but because when AI reaches the level of Artificial General Intelligence (AGI), it will render obsolete most tasks that currently underpin our economic system. It is often said that new jobs will be created, jobs we cannot even imagine today. Looking at my students, I am not so sure.

  1. What would you recommend to young researchers entering the field of artificial consciousness? What could be a promising path forward?

I would say that today the field of artificial consciousness is not a true field, and thus it is not advisable to invest in it at the beginning of one’s career. It’s more a horizon of research than a discipline. Moreover, it is currently dominated by attempts to achieve consciousness by replicating portions of cognitive processes that, in humans, are normally experienced consciously. However, there are no significant results because each of these processes could occur in the absence of consciousness. As I tried to explain earlier, I don’t believe that anyone will one day find the code that ‘switches on’ consciousness within an artificial intelligence. The research is still conditioned by a computationalist and internalist conception that needs to be overcome.

  1. What are you researching right now? What do you want to discover? What are your future projects?

At the moment, I am engaged in three different areas. The first involves finding ways to persuade people to look at the problem of consciousness from a perspective different from the traditional one. The second is working on models in the field of artificial intelligence that could one day integrate a machine with the external world, as happens in the case of the human body. The third, which I’ve saved for last because it could be the turning point, is to work on an experiment that demonstrates the Mind-Object Identity (MOI). Since the MOI is an entirely empirical hypothesis within the physical world, it should be possible to make predictions about unusual situations, such as the ability to add new categories of objects – new senses – to our existence. For instance, why can’t we enable a human being to perceive physical properties normally outside our senses, like ultraviolet, electromagnetic fields, infrared? The MOI suggests exactly the experimental circumstances that would allow for direct interfaces to the nervous system that expand our existence (not like when we look through an infrared viewer and see green pixels, but as if we were endowed with infrared vision like an alien). A few years ago, conducting this kind of experiment – and potentially applications – would have been very difficult, but today with Neuralink and other tools like the artificial cochlea, one could conceive a truly revolutionary experiment. Should Elon Musk come across interview, he is warmly encouraged to get in touch with me! 😊

[1] https://osf.io/preprints/psyarxiv/zsr78

[2] https://www.worldscientific.com/doi/abs/10.1142/S270507852150003X

Entrevista traducida al castellano:

  1. ¿Qué es la conciencia? ¿Es una ilusión como sostiene Dennett? ¿Una alucinación controlada como piensa Seth? ¿Un epifenómeno? ¿O tiene un propósito biológico claro? ¿Por qué existe la conciencia a pesar de que podemos construir máquinas que hacen lo mismo que los seres conscientes pero sin ser conscientes?

Debemos ser muy cautelosos en la forma en que formulamos nuestras preguntas, ya que la naturaleza de su formulación a menudo impide ciertas respuestas. Cuando todas las respuestas parecen insuficientes, nos corresponde dar un paso atrás y reevaluar tanto la pregunta como su presentación. Esto es particularmente cierto en el caso de las indagaciones sobre la conciencia. Tal cuestionamiento presupone que la consciencia es un fenómeno que existe más allá de la descripción física estándar. Como resultado, queda relegado a ser una ilusión o un mero epifenómeno: si no lo fuera, no sería ajeno al relato estándar. Esto lleva a una conclusión evidentemente absurda. Para salir de este callejón intelectual sin salida, debemos revisar la pregunta original: ¿por qué buscamos comprender la conciencia? La respuesta está en reconocer que la consciencia es una solución defectuosa a un problema inexistente: a saber, cómo es posible que algo (un cuerpo, por ejemplo) experimente otra cosa (un objeto) que es distinta a él. Este problema tiene sus raíces en la suposición de que estamos separados de los objetos que experimentamos, viviendo nuestras vidas dentro de los confines de nuestros cuerpos. Afortunadamente, tenemos la oportunidad de desafiar esta suposición, considerando la posibilidad de que, en el nivel fundamental, no estamos separados del mundo externo, sino que, de hecho, somos uno con él.

  1. ¿Es resoluble el problema difícil de la conciencia? ¿Tendremos alguna vez una comprensión completa de lo que significa la conciencia? ¿O los escépticos, como Colin McGinn, tienen razón? Y, en cualquier caso, ¿por qué nos resulta tan difícil investigar la conciencia?

Como mencioné anteriormente, la dificultad del problema se deriva de su formulación equivocada. El error consiste en buscar la consciencia como una propiedad especial de los sistemas nerviosos, una que, inexplicablemente, les permitiría alcanzar y representar (experimentar) el mundo externo. De hecho, esto es imposible, similar a pedirle a nuestro cerebro que realice un milagro. Muchos se dejan seducir por la idea de que el cerebro puede transformar milagrosamente el «agua» de las neuronas en el «vino» de la conciencia, como escribió una vez Colin McGinn, pero esto es una falacia. Cuando le pedimos al mundo físico que logre lo imposible, no es de extrañar que nunca descubramos cómo podría hacerse. El fracaso no se debe a una falta de inteligencia por nuestra parte, sino, simplemente, a que no se produce. Es imposible. Si exigimos a la naturaleza que realice lo imposible, nunca sucederá. Por lo tanto, la búsqueda de la consciencia y las recientes desilusiones en la competencia adversa financiada por la Fundación Templeton entre la Teoría de la Información integrada (IIT, por sus siglas en inglés) y la Teoría Neuronal del Espacio Global de Trabajo (GWNT, por sus siglas en inglés), están destinadas a ser una pérdida de tiempo y recursos. Lo que se necesita, en cambio, es un replanteamiento de la pregunta, uno que no presente la consciencia como un milagro, sino como un reflejo de cómo se estructura y organiza la realidad.

  1. Usted ha propuesto la controvertida hipótesis de que la consciencia y el mundo son una y la misma cosa. Es una idea controvertida porque la ciencia tradicional sostiene la existencia de un mundo externo diferente a nuestra mente. ¿Podría darnos una serie de argumentos para convencer a los naturalistas experimentados que creen que la conciencia está en el cerebro y no en el mundo?

De hecho, esta hipótesis es controvertida no porque contradiga cualquier evidencia empírica o porque requiera (como casi todas las demás teorías) suposiciones adicionales y extraordinarias, sino únicamente porque desafía prejuicios profundamente arraigados, principalmente la creencia de ser una mente separada del mundo físico. Mi hipótesis, conocida como Identidad Mente-Objeto (MOI, por sus siglas en inglés), es totalmente consistente con los datos empíricos, ontológicamente más coherente que otras hipótesis, y no requiere suposiciones adicionales. Permítanme explicarlo. Hasta el día de hoy, después de 150 años de imágenes cerebrales, no hay evidencia empírica de la presencia de consciencia dentro del cerebro. No sólo nadie ha medido o fotografiado nunca una sensación consciente dentro del sistema nervioso, sino que no se ha encontrado ningún evento neuronal causado o alterado por la supuesta presencia de consciencia. La consciencia, dentro del sistema nervioso, es a la vez invisible y epifenoménica. ¿Cómo podemos seguir creyendo que reside dentro del sistema nervioso?

Ahora, consideremos una experiencia perceptiva común: ver un plátano. Existe un objeto con propiedades que encontramos en nuestra existencia (forma, color, tamaño) y existe nuestro sistema nervioso con propiedades completamente diferentes. ¿Qué encontramos dentro de nuestro momento de existencia: las propiedades del plátano o las del sistema nervioso? Claramente, encontramos las propiedades del plátano. ¿Cuál debería ser entonces la conclusión lógica? ¿Somos uno con el objeto cuyas propiedades forman parte de nuestra existencia, o somos otro sistema físico (el sistema nervioso) que, como por arte de magia, se apropia de propiedades físicas que no tiene? La única razón para pensarnos como el sistema nervioso o localizados dentro de él no es ni empírica ni existencial, sino que está ligada a un prejuicio tenaz: la idea de estar detrás de los ojos y entre las orejas.

La hipótesis de la Identidad Mente-Objeto es similar a la teoría de la Identidad Mente-Cerebro. En este sentido, se alinea epistémicamente con la ciencia. En pocas palabras, la hipótesis postula que en lugar de ser un cerebro que experimenta misteriosamente una serie de cosas, somos las cosas que, a través de un cerebro, producen efectos. No hay nada misterioso en esta definición.

Compárese esta hipótesis con la pesada complejidad de las teorías basadas en postulados enigmáticos u ontológicamente costosos. El enfoque de la Identidad Mente-Objeto es mucho más eficaz y convincente que todos estos. Su único defecto es que nos desafía a descartar la creencia supersticiosa de que la mente reside dentro del cuerpo.

  1. Algunos autores como Philip Goff argumentan que la ciencia tradicional no es capaz de explicar la conciencia, por lo que necesitaríamos un nuevo tipo de ciencia para estudiarla. Otros, como Hameroff, Kauffman o Stapp, se basan en la física cuántica para encontrar algo de luz. ¿Qué opinas de estas propuestas? ¿Tenemos que alejarnos de la ciencia tradicional o aún queda mucho por hacer sin salir de ella?

Las personas que desafían la ciencia tradicional a menudo hacen movimientos desesperados para preservar sus prejuicios. En lugar de cuestionar la separación entre mente y mundo, optan por extender el dualismo a toda la realidad, proponiendo posiciones como el panpsiquismo o ciertas formas de idealismo. Otros, como los entusiastas de la Mecánica Cuántica (MC), esperan que, frotando lo suficiente la lámpara mágica de la mecánica cuántica, emerja el genio de la consciencia. Son actos de desesperación. En lugar de seguir proponiendo absurdos, simplemente debemos cuestionar lo que creemos saber pero que nunca hemos encontrado experimentalmente. A la ciencia le va bien; no hay ningún misterio que añadir, sino creencias infundadas que eliminar.

La Identidad Mente-Objeto (MOI) no requiere ninguna modificación de la ciencia o de nuestra visión naturalista del mundo. La MOI simplemente nos pide que miremos a la ciencia y a nuestra existencia sin una suposición: la separación entre nosotros y el mundo, que no es parte de la ciencia; algo que se agregó para incorporar creencias supersticiosas populares pero infundadas en el método científico.

Muchos creen que la ciencia es completamente objetiva. En realidad, muchas ideas enclavadas en el método científico no son sus productos en absoluto. En el pasado, estas ideas podrían haber servido como simplificaciones útiles, pero ha llegado el momento de cuestionarlas.

  1. En septiembre del año pasado, 124 investigadores firmaron una carta en la que acusaban a la Teoría de la Información Integrada [1] de Tononi de ser pseudociencia. ¿Estaría de acuerdo con estas acusaciones? ¿Son exagerados? ¿Obedecen a un cierto juego sucio entre rivales científicos? ¿O, verdaderamente, el rey está desnudo?

Finalmente, alguien ha sentido la necesidad de desafiar la Teoría de la Información Integrada (IIT), que no es una teoría científica. Estoy completamente de acuerdo con los autores de la carta. El problema con la IIT es que no es ni una teoría científica (basada en postulados no probados e indemostrables) ni una teoría de la consciencia. Permítanme explayarme sobre este último punto. Supongamos, por el bien del argumento, que el cerebro, de alguna manera, construye información integrada, una afirmación que encuentro ontológica y empíricamente dudosa. Pero supongámoslo por un momento. Pregunta: ¿Por qué la información integrada debería poseer las cualidades de la conciencia? ¿Por qué, por ejemplo, un valor de información integrado de 1055 (phi) debería corresponder al sabor del chocolate? ¿Hay algún artículo científico (aunque sea hiperbólicamente especulativo) que explique cómo pasamos de los números de la IIT a las propiedades de la consciencia? Por ejemplo, ¿por qué un determinado valor debe producir la sensación de rojo y otro valor la sensación de wasabi? Nada. Sobre este punto, por qué y cómo la información integrada debería equivaler a una experiencia consciente particular, Tononi y todos sus partidarios han guardado un silencio conspicuo y siempre han permanecido mudos. Por lo tanto, incluso si la IIT funcionara (que no lo hace), no sería una explicación de la consciencia y se remitiría a un misterio adicional. No es que la teoría opuesta, la Teoría Neuronal del Espacio de Trabajo Global, sea mejor. Para ser justos, todas las teorías actualmente aceptadas para la investigación de la conciencia deberían haber sido declaradas pseudocientíficas. Simplemente porque no explicarían nada, incluso si estuvieran en lo cierto.

La verdadera pregunta es, ¿por qué estas teorías se toman en serio y han justificado y desperdiciado una cantidad significativa de fondos? Se trata más de una cuestión de psicología y sociología de la investigación científica que de la consciencia. Una posible explicación es que estas teorías satisfacen la motivación principal de los neurocientíficos para buscar la consciencia dentro del cerebro: la esperanza y la convicción de que el problema de la consciencia encontrará una solución dentro de sus propios departamentos de investigación.

Algún día, todas estas teorías serán relegadas como casos de tozudez por sectores disciplinarios y olvidadas como los puentes continentales, los epiciclos y el éter luminífero.

  1. Hace unos meses, la prensa especializada dio mucha publicidad al caso de Blake Lemoine, un ingeniero de Google que pensaba que LaMDA, un chatbot especialmente diseñado para mantener conversaciones muy realistas, era una entidad consciente. Inmediatamente, Google lo suspendió de empleo y sueldo por violar las políticas de confidencialidad de la empresa. Lemoine argumentó que las conversaciones con LaMDA revelaron un alto grado de inteligencia, coherencia y persistencia en el tiempo, lo que, según él, convirtió a esta inteligencia artificial en una persona. ¿Podría Lemoine tener razón? ¿Representan los grandes modelos de lenguaje como GPT-4, Bard o Claude algún tipo de avance en el campo de la conciencia artificial?

¿Por qué deberían hacerlo? De nuevo, desde Platón hasta nuestros días, el pensamiento ha sido concebido como una especie de cómputo interno del sistema; una versión computacional del animismo que es completamente injustificada desde un punto de vista naturalista. Esto no significa negar que las máquinas podrían, algún día no muy lejano, de forma similar a cómo lo hacen los cuerpos, formar el mismo tipo de sistema de referencia causal que une un mundo de objetos que llamamos mente. No hay chovinismo biológico por mi parte. Pero esto no sucederá porque la información o los cálculos dentro de un sistema se volverán mágicamente conscientes. Más bien, será porque un sistema físico, natural o artificial, será capaz de ser el punto de coyuntura de un conjunto de eventos y cosas que son uno con una mente.

  1. Thomas Metzinger escribió un artículo en 2021 [2] donde, al igual que la famosa carta firmada por Elon Musk y muchos otros sobre la inteligencia artificial, pedía una moratoria en la investigación y el desarrollo de la conciencia artificial. ¿Estás de acuerdo con Metzinger? ¿Deberíamos dejar de investigar en conciencia artificial hasta que tengamos muy claros los principios éticos que regularán los avances? ¿O tal vez esto solo retrasaría la investigación?

Me parece una propuesta ridícula basada en las concepciones obsoletas antes mencionadas.

  1. Muchos investigadores advierten sobre el enorme riesgo que implica el desarrollo de la inteligencia artificial. Investigadores de gran prestigio como Geoffrey Hinton, Yoshua Bengio o Stuart Russell aparecen en los medios de comunicación alertándonos de un grave peligro emergente. Incluso se habla de un riesgo existencial para la humanidad. ¿Hay que tenerle miedo a la inteligencia artificial? ¿O esto no es más que publicidad o marketing? ¿Hemos visto demasiadas películas de ciencia ficción o hay mucha verdad en estas afirmaciones?

El riesgo es real, no porque la inteligencia artificial pueda conquistar el mundo en un escenario similar al de Terminator, sino porque cuando la IA alcance el nivel de Inteligencia General Artificial (AGI, por sus siglas en inglés), dejará obsoletas la mayoría de las tareas que actualmente sustentan nuestro sistema económico. A menudo se dice que se crearán nuevos puestos de trabajo, puestos de trabajo que hoy ni siquiera podemos imaginar. Mirando a mis alumnos, no estoy tan seguro.

  1. ¿Qué recomendaría a los jóvenes investigadores que se adentran en el campo de la consciencia artificial? ¿Cuál podría ser un camino prometedor a seguir?

Yo diría que hoy en día el campo de la consciencia artificial no es un verdadero campo, y por lo tanto no es aconsejable invertir en él al comienzo de la carrera. Es más un horizonte de investigación que una disciplina. Además, actualmente está dominado por los intentos de alcanzar la consciencia mediante la replicación de partes de los procesos cognitivos que, en los seres humanos, normalmente se experimentan conscientemente. Sin embargo, no hay resultados significativos porque cada uno de estos procesos podría ocurrir en ausencia de conciencia. Como traté de explicar antes, no creo que nadie encuentre algún día el código que «encienda» la consciencia dentro de una inteligencia artificial. La investigación sigue condicionada por una concepción computacionalista e internalista que hay que superar.

  1. ¿Qué está investigando en este momento? ¿Qué quiere descubrir? ¿Cuáles son sus proyectos futuros?

En este momento, me dedico a tres áreas diferentes. La primera consiste en encontrar formas de persuadir a la gente para que mire el problema de la conciencia desde una perspectiva diferente a la tradicional. La segunda es trabajar en modelos en el campo de la inteligencia artificial que algún día podrían integrar una máquina con el mundo exterior, como sucede en el caso del cuerpo humano. La tercera, que he dejado para el final porque podría ser el punto de inflexión, es trabajar en un experimento que demuestre la Identidad Mente-Objeto (MOI). Dado que la MOI es una hipótesis enteramente empírica dentro del mundo físico, debería ser posible hacer predicciones sobre situaciones inusuales, como la capacidad de añadir nuevas categorías de objetos (nuevos sentidos) a nuestra existencia. Por ejemplo, ¿por qué no podemos permitir que un ser humano perciba propiedades físicas que normalmente están fuera de nuestros sentidos, como los ultravioletas, los campos electromagnéticos, los infrarrojos? La MOI sugiere, exactamente, las circunstancias experimentales que permitirían interfaces directas con el sistema nervioso que expandieran nuestra existencia (no como cuando miramos a través de un visor infrarrojo y vemos píxeles verdes, sino como si estuviéramos dotados de visión infrarroja como un extraterrestre). Hace unos años, llevar a cabo este tipo de experimentos  (y sus aplicaciones potenciales) habría sido muy difícil, pero hoy en día, con Neuralink y otras herramientas como la cóclea artificial, se podría concebir un experimento verdaderamente revolucionario. Si Elon Musk se  encuentra con esta entrevista, ¡le animo a que se ponga en contacto conmigo😊!

[1] https://osf.io/preprints/psyarxiv/zsr78

[2] https://www.worldscientific.com/doi/abs/10.1142/S270507852150003X

Una perspectiva en el desarrollo de máquinas conscientes (o con mente, si equiparamos ambos conceptos) es construir artefactos con capacidad de representarse a sí mismos. A priori, podría parecer una perspectiva errónea ya que cuando somos conscientes de algo no necesariamente nos representamos a nosotros mismos. Si yo soy consciente del color rojo de una amapola, la amapola no forma parte de mí mismo. Consciencia y autorepresentación podrían no tener demasiado que ver. Sin embargo, no siendo demasiado quisquillosos, podríamos conceder que, aunque parezca empezar a construir la casa desde el tejado (ya que la autoconsciencia parece algo posterior a la consciencia), autoconsciencia sí que implica autorrepresentación. Si yo soy consciente del color de la piel de mi mano, estoy representando mi mano mentalmente. Quizá podamos descubrir algo por ahí.

Un segundo problema está en establecer los límites del mí-mismo, es decir, encontrar la frontera entre lo que consideramos parte de nosotros mismos y lo que no. Si miramos la imagen de arriba (Transfer, de William Anastasi, 1968), observamos una videocámara que enfoca su fuente de alimentación y la muestra por el monitor. Si entendemos el conjunto cámara, monitor y cable de enchufe como un «individuo», tendríamos una cierta autorrepresentación. El monitor ofrece información del cable, una parte de nuestro individuo monitoriza otra parte (Aunque siendo puntillosos, verdaderamente no hay ninguna autorrepresentación, ya que los que ven la imagen del monitor son los observadores, y no la propia máquina). Empero, ¿con qué criterio definimos a este individuo como formado por monitor, cámara y cable de enchufe? ¿Por qué, por ejemplo, no le añadimos el enchufe de la pared o parte del cableado eléctrico que va por detrás del muro? También podríamos definir como dos individuos diferentes a la cámara y al monitor… ¿Qué es lo que hace de algo un ente individual? ¿Cuál es el principio de individuación?

Precisamente, una posible respuesta es la consciencia. Pensemos en nosotros mismos: ¿dónde está nuestra frontera? Yo sé, por ejemplo, que no soy el teclado del ordenador (aunque sea una propiedad mía, yo no soy lo que poseo), pero sí que hago mías mis manos ¿Por qué? Porque cuando me pinchan en ellas me duele, tengo consciencia de mi dolor. Así, todo mi cuerpo, en tanto que sujeto paciente de sensaciones, es un individuo.  Y eso es lo que nos diferencia de los objetos: hemos definido la cámara, el monitor y el cable como un individuo porque nos ha dado la real gana, de una forma completamente convencional o arbitraria, ya que podríamos haber elegido cualquier otra configuración de elementos. Sin embargo, eso mismo no lo podemos hacer con una persona. No podemos decirle: tu cabeza, tu torso y tu brazo izquierdo forman parte de ti, pero tus dos piernas y tu brazo derecho no.

Entonces tenemos la clave: la parte de la máquina monitorizada por la propia máquina será el individuo. En el caso de la obra de Anastasi, podríamos decir que la zona en la que el cable está enchufado a la pared es el individuo, ya que esa esa la parte «sentida»; la parte en la que si ocurre algo, el resto de la máquina «se da cuenta», ya que se visualizará en la pantalla. No tan deprisa, nos hemos topado con el nudo gordiano: ¿qué quiere decir exactamente que la máquina sea capaz de sentir algo? Pues, lamentablemente, algo muy distinto a que el sistema tenga información de su entorno. Un micrófono no es consciente del sonido que recibe y una cámara tampoco es consciente de la luz que entra a través de sus lentes. Y es que tener información o conocimiento sobre algo no es lo mismo que ser consciente de algo. Yo, ahora mismo, no soy consciente de todo el conocimiento que tengo almacenado en mi cerebro. Yo puedo no ser consciente ahora mismo de la aseveración «Londres es la capital de Inglaterra», pero tengo ese conocimiento. Si alguien me preguntara cuál es la capital de Inglaterra yo haría consciente ese conocimiento en ese instante. El conocimiento puede ser consciente o inconsciente, mientras que la consciencia siempre alberga algún conocimiento. No puede existir una consciencia de nada (de aquí el concepto de intencionalidad de Brentano).

¿Y qué es lo que hace consciente la posesión de una determinada información? Esa es la pregunta millón amigos. No lo sabemos bien, pero aquí la tradición filosófica habla del tan famoso como misterioso concepto de yo, entendido, al menos, como un sujeto paciente (capaz de padecer) de sensaciones. El argumento central es: ¿sería posible la existencia de la sensación de dolor sin alguien que lo sufriera? ¿Es posible un dolor que no duela a nadie? No, toda percepción consciente va asociada a un yo, tiene un sujeto. Nuestra cámara-monitor, por mucho que pudiera tener una cierta autorrepresentación, no tiene yo, por lo que no tiene ninguna experiencia subjetiva.  Ahora, el enigma está en comprender qué es ese rarísimo yo ¿Qué es ese ente capaz de percibir contenidos como sentidos, sufridos, padecidos?

Entonces el gran problema que tenemos si queremos implementar consciencia en máquinas es que hay que construir yoes, y de momento, nadie tiene ni la más remota idea de cómo hacer algo así. Queridos amigos, los grandes modelos de lenguaje no son conscientes en absoluto, ni hay visos de que vayan a serlo en breve. En esto, la IA está tan verde como lo estaba en tiempos de Turing. Que no os vendan humo.

Kristin-Andrews-526-USE-THIS-ONE-scaled

Termino de leer este artículo en donde se hace una serie de entrevistas a distintos investigadores (filósofos, neurólogos, psicólogos, etc.) acerca de si los grandes modelos del lenguaje podría albergar consciencia, y me ha gustado mucho la respuesta de la filósofa de la Universidad de Nueva York, Kristin Andrews. Tanto que os la he traducido al castellano y os la adjunto aquí (las cursivas son mías):

El hecho de que hoy nos enfrentemos a la cuestión de si la IA pronto será consciente dado el éxito de los LLM revela mucho sobre los sesgos antropocéntricos contemporáneos. Los humanos usan el lenguaje y son conscientes, y un rápido argumento analógico a favor de la conciencia de la IA podría parecer prometedor. Pero también debemos considerar las disanalogías. Los humanos, monos y ratas que a menudo se utilizan como sujetos de investigación en estudios de conciencia tienen muchas propiedades de las que carecen las IA: propiedades asociadas con la sociabilidad y el desarrollo; un rico sensorium; y estar vivo.

La IA no habita en un mundo de modelos sociales nativos de los cuales aprender y de pares de la misma edad con quienes desarrollarse. Sus interlocutores sociales son sus amos humanos, no una comunidad de individuos de la misma especie con diferentes historias de aprendizaje y diversidad genética. Podría decirse que las IA no son seres culturales y no participan en interacciones colaborativas y competitivas dentro, y entre, culturas.

Las IA tampoco perciben ricamente su entorno físico. Mientras que sus transacciones de tokens más allá de sí mismas se cuentan por billones, los tipos de transacciones que realizan son mínimos, teniendo acceso a la información a través de un teclado o una cámara que es transducida a señales eléctricas. Hay poca integración de información entre modalidades sensoriales.

Y las IA no están vivas. No preservan activamente la continuidad de su existencia, no se autoorganizan para evitar que sus límites se fusionen con su entorno, no absorben elementos del entorno y los transforman a través de procesos metabólicos en su propia existencia continua. Carecen de cualquier objetivo de autoconservación que busquen lograr a través de sus acciones en un entorno social y físico. Y como no logran reproducirse, no se los puede considerar sistemas evolucionados.

Tal vez estoy siendo demasiado escéptica, y las IA actuales y futuras puedan llegar a tener más de estos elementos de los que les doy crédito. Aún así, persisten las preocupaciones. Diseñar una IA para que tenga propiedades análogas a las de los humanos plantea el gaming problem [ignoro a qué se refiere la autora con el «problema del juego»] y se corre el riesgo de crear una torpe imitación de la consciencia, cuya organización funcional sea muy diferente al caso humano. Peor aún, incluso si los científicos informáticos pudieran construir una IA con algunas de estas propiedades, la ciencia contemporánea está lejos de desarrollar una vida artificial sólida, y hay razones sugerentes para pensar que la vida y la mente consciente pueden estar esencialmente entrelazadas. Lo que la vida sí nos da y el lenguaje no es un propósito, una función. El lenguaje puede hacer que este propósito sea más fácil de ver, permitiendo que un agente describa y comunique sus objetivos, pero también puede crear una ilusión de agencia donde no existe.

La función y la biología tienen una relación incómoda, y muchos siguen siendo fuertemente sospechosos de pensar que tiene algún mérito describir células o bacterias como si tuvieran objetivos, mientras que al mismo tiempo se utiliza gimnasia verbal para hablar sobre el propósito sin utilizar el término. Como dice Denis Walsh: “Los organismos son entidades fundamentalmente con un propósito, y los biólogos sienten aversión por el propósito».

La continuidad de la vida y la mente consciente sugiere una posible función de la conciencia: sostener la vida. Cuando nos centramos en la experiencia subjetiva más rudimentaria (sentimientos de sed, falta de oxígeno, deseo social/sexual), se puede considerar que la conciencia tiene un propósito vital.

Si bien esto no nos dice qué animales son conscientes (o si las plantas lo son), debería llevarnos a estudiar las formas más simples de vida animal. He sostenido que la ciencia cognitiva de la conciencia debería adoptar como hipótesis de trabajo que todos los animales son conscientes y estudiar modelos animales mucho más simples para avanzar en el desarrollo de una teoría sólida. Incluso el humilde gusano nematodo microscópico Caenorhabditis elegans puede servir como modelo prometedor para estudiar la conciencia, dadas sus capacidades sensoriales, sociales y de aprendizaje.

La ciencia ha progresado no sólo observando a los humanos, sino también a formas de vida muy distantes de la nuestra. Aristóteles estaba fascinado por las esponjas, Mendel por las plantas de guisantes. Al estudiar la experiencia primordial en animales simples, podemos comprender qué propiedades debe tener una IA antes de tomar en serio la cuestión de si es consciente.

Creo que muchos intelectuales que piensan sobre la posibilidad de diseñar máquinas conscientes caen en el error de ligar con demasiada fuerza, e incluso confundir, la consciencia con la inteligencia. He leído a muchos sostener que cuando la IA se haga más inteligente terminará por desarrollar consciencia, como si la consciencia fuera, simplemente, una consecuencia de un alto grado de inteligencia. No, parece más sensato, en la línea que nos expone Andrews, ligar la consciencia a sensaciones primordiales que no tienen, para nada, que haberse dado en organismos demasiado inteligentes. Y es que ¿qué tendrá que ver una experiencia consciente tan básica como tener sed con una inteligencia altamente desarrollada? Un poquito sí: el organismo que siente sed se ve impelido a beber agua y para conseguir agua es posible que tenga que realizar algún tipo de conducta inteligente. Pero nótese que la sensación consciente no forma parte del proceso inteligente (por ejemplo, explorar en busca de fuentes de agua), solo es su desencadenante.  

Esta perspectiva, a pesar de que Andrews abra la puerta a que en el futuro las cosas puedan cambiar, es un ataque directo a la absurda creencia de que los grandes modelos de lenguaje sean conscientes (o vayan a serlo en breve) ya que una condición que parece previa a ser consciente es estar vivo, y la IA actual no parece tener ninguna de las cualidades que atribuimos a los seres vivos (ni a los conscientes, añadiría yo). 

En esta misma dirección está el gran trabajo del eminente científico australiano Derek Denton, al que se entrevistó hace unos años en la Nueva Ilustración Evolucionista

Yann LeCun citaba un tweet de Benedict Evans que decía así:

Existe una correlación muy alta entre las personas que piensan que el despegue de la IA es inminente y simple y que dominará el mundo y las personas que expresan regularmente ideas sorprendentemente simplistas sobre cómo funciona el mundo en el que ya vivimos.

Es una gran verdad. Vamos a desarrollarla.

Durante muchísimo tiempo se entendió la inteligencia como una serie de capacidades muy concretas y muy ligadas a lo académico. Por ejemplo, la escala Thurstone de 1920 hablaba de que la inteligencia estaba compuesta por siete habilidades primarias: comprensión y fluidez verbal, comprensión numérica, aptitud espacial, memoria asociativa, velocidad perceptiva y capacidad de razonamiento. Cómo vemos, ser competente en estas habilidades parece garantizarte el éxito académico. Y es que cuando Alfred Binet dio comienzo a la medición de la inteligencia, sus pretensiones eran únicamente disponer de herramientas para analizar o predecir el fracaso escolar. Así, pronto se vio que fuera de esas habilidades académicas, existían otras que quedaban completamente relegadas en los test: las habilidades emocionales estudiadas por John D. Mayer y Peter Salovey, y popularizadas por Daniel Goleman; u otras tantas defendidas en la teoría de Howard Gardner: inteligencia musical, espacial, corporal, interpersonal o intrapersonal. Estos tipos de inteligencia tienen, muchas veces, mucha más relación con el éxito en la vida que la inteligencia puramente académica. Si analizamos nuestras flamantes inteligencias artificiales  vemos que adolecen, por completo, de este tipo de inteligencias… Dicho de otro modo: la concepción de inteligencia que suelen manejar los apóstoles de la IA es muy simplona, se reduce a tareas lingüístico-matemáticas, sin tener en cuenta nada más.

El concepto de «inteligencia artificial general» a la que, supuestamente, vamos a llegar en tan solo unos años, es harto difuso. Si no tenemos claro qué es la inteligencia, tanto más cuál será la cualidad que la hace general. Es más, de hecho dentro de la psicología hay controversia sobre si la inteligencia es una habilidad general o si solo es una amalgama de habilidades concretas. Si observamos el concepto de cociente intelectual creado por William Stern solo es multiplicar por cien el resultado de la división entre tu edad mental, que surge del promedio de resultados en una serie de pruebas, y tu edad cronológica. El CI es solo un promedio, es decir, no mide una habilidad general. Tener un alto CI solo significa que eres bueno en muchas cosas, no que tengas una cualidad x superior. Entonces, ¿qué quiere decir que vamos a llegar a una AGI? ¿Qué vamos a tener un solo modelo de lenguaje que va a saber hacer muchas cosas diferentes? Pero, ¿cuántas cosas? ¿Qué cosas?

Entonces, esa mal definida y peor comprendida AGI llegará y, es más, se hará a sí misma más inteligente creando una super inteligencia muy por encima del hombre. Los defensores de esta idea no se cortan en sostener que esta nueva entidad nos verá como nosotros vemos ahora a los chimpancés… Y aquí llega el gran riesgo existencial: esa super inteligencia podría tener unos valores éticos no alineados con los nuestros de modo que no tendrá otra idea más peregrina que exterminarnos. Por supuesto, nada podrá pararla, al igual que los pobres chimpancés no podrían detenernos si decidiéramos aniquilarlos. Pero, ¿es esto necesariamente así? Si así fuera Eliezer Yudkowsky no andaría desacertado y habría que empezar a bombardear centros de datos ahora mismo. Muy sorprendente que grandes gurús de la IA hayan pedido ya en dos ocasiones mediante sendas cartas, parones o legislaciones para evitar todo esto. Sam Altman llegó incluso a pedirlo ante un comité del senado de los Estados Unidos. Lo sorprendente es que pidan que se les pare desde fuera… ¿No podrían ellos parar desde dentro? Pero, ¿esto va a ocurrir necesariamente? ¿Existe un riesgo palpable y cercano de que algo así vaya a suceder? Rotundamente no.

Tenemos una pobre definición de inteligencia y aún peor de AGI, tanto menos entendimiento de lo que sería una súper inteligencia artificial que decidiera exterminarnos. Pésimo punto de partida. Pero vamos a analizar ese proceso de automejora que nos llevaría indefectiblemente a la llegada de la súper inteligencia. Permitidme autocitarme en una entrada de este blog del 2014:

Pensemos que la humanidad en general no hubiera desarrollado tanto su neocórtex de modo que fuera mucho menos inteligente de lo que es ahora. Imaginemos, por ejemplo, que nos hubiésemos quedado estancados en algún tipo de homo erectus o de ergaster con un CI, pongamos, de 70.  Un fastuoso día, el chamán de la tribu se acerca a sus congéneres con una poción mágica cuyo poder reside en hacer más inteligente al individuo que la ingiera. Al tomarla el CI sube de 70 a 80. Podría pensarse, siguiendo a Kurzweil, que si con un CI de 70 pudo fabricarse una poción que nos hacía más inteligentes, con un CI de 80 podría hacerse otra aún más efectiva. ¿Seguro? ¿Por qué 10 puntos de CI son suficientes para diseñar una nueva pócima? Sería posible que las dificultades para elaborar tan maravillosa química requirieran un CI mínimo de 160. ¿Cómo saber cuánto CI hace falta para conseguir la siguiente pócima? Si fuera necesario un 90, nuestros trogloditas estarían condenados a nunca encontrarla ya que se quedarían estancados en el 80 recién adquirido.

Este ejemplo es plenamente aplicable a las inteligencias artificiales. Cuando tengamos una más inteligente que nosotros, ¿por qué iba a poder construir una inteligencia aún más inteligente que ella? A lo mejor las dificultades teóricas, prácticas o de cualquier tipo impiden construir una máquina mejor. La computadora puede no ser lo suficientemente inteligente aún para dar el siguiente paso o, dejémoslo muy claro, simplemente, no se puede. Para que se de un descubrimiento significativo en una rama de la ciencia, hacen falta que se den muchas cosas: nuevas herramientas matemáticas, innovadoras técnicas de observación o experimentación… muchas veces, un descubrimiento es resultado de un trabajo colaborativo de muchas personas e instituciones. Podría pasar que nuestra superinteligencia artificial no pudiera construir otra superinteligencia, sencillamente, porque ningún inversor ve clara la rentabilidad de tal avance. Un nuevo descubrimiento no es solo cuestión de una mayor inteligencia. La máquina analítica de Babagge no pudo construirse no por falta de inteligencia, sino por falta de medios técnicos.

Ergo, no tenemos evidencia razonable de que un proceso de automejora exponencial que lleve a una súper inteligencia invencible sea de alguna manera factible.

El filósofo chino Yuk Hui sostiene que mantenemos un cierto determinismo tecnológico hacia la llegada de esta superinteligencia, como si solo existiera la posibilidad de un único futuro. Esto me recuerda a la visión antropológica del evolucionismo unilineal de Morgan y Tylor, que defendía que todas las civilizaciones pasaban necesariamente por las fases de salvajismo, barbarie y civilización. El fin de la historia hacia donde todos íbamos estaba, por supuesto, en la Inglaterra del siglo XIX. Esta postura me resulta especialmente curiosa cuando la experiencia histórica en lo referente a la tecnología, y más en los últimos tiempos, es todo lo contrario: domina la impredecibilidad. No se previó el éxito de internet, de las redes sociales, de Youtube, de Twitter… ¿Alguien pensó, tan solo unos años antes de su aparición, que podría existir la profesión de youtuber? ¿Quién vaticinó el éxito de Netflix? ¿Alguien apostaba algo por Amazon cuando solo era una humilde tienda de libros? Curioso: tenemos cisnes negros por doquier pero con respecto de la llegada de la singularidad tecnológica causada por una IA que querrá exterminarnos estamos muy seguros. Aunque ahora nos parezca improbable debido a nuestro entusiasmo, es posible que la IA se queda estancada, es posible que los modelos del lenguaje no avancen mucho más o no puedan resolver los problemas que tienen. A lo mejor llega otra forma de abordar la IA que pase a ponerse de moda y deje relegado al deep learning. Recordemos que las redes neuronales artificiales estuvieron durante muchos años relegadas a un segundo plano en la historia de la informática, y que la propia IA ha pasado por varios inviernos poco fructíferos.

Noam Chomsky, probablemente el lingüista más importante del siglo pasado, sostiene que ChatGPT no es similar a los humanos usando el lenguaje. Los niños no leen millones de textos a partir de los que inducen patrones estadísticos para realizar predicciones. Los niños, con muchísima menos información, consiguen encontrar las causas relevantes de los acontecimientos, consiguen explicaciones y no solo predicciones. Siguiendo a Popper, Chomsky dice que lo interesante de las teorías científicas es que en ellas se realizan predicciones improbables que, contra todo pronóstico, consiguen resistir la prueba experimental. El deep learning es incapaz de la hipótesis perspicaz. Erik J. Larsson, en su muy recomendable El mito de la inteligencia artificial, insiste en las limitaciones del razonamiento puramente inductivo de los LLMs y en su incapacidad de abducción. Judea Pearl, en su algo menos recomendable, Libro del porqué, expresa la necesidad de enseñar razonamiento causal a estos sistemas, ya que carecen completamente de él.  Margaret Boden, subraya que las máquinas son incapaces de creatividad transformacional, es decir, que pueden explorar y llevar al límite estilos artísticos ya creados, pero que son incapaces de hacer formas de arte radicalmente nuevas. La razón es que son totalmente ineptos para comprender qué es arte y qué no lo es, adolecen de todo criterio estético. Si miramos en serio sus cualidades, ChatGPT y sus homólogos están todavía lejísimos del pensamiento humano, y me parece muy sorprendente que tantos ingenieros de IA estén tan asustados, más que como una inteligente maniobra de marketing. Y ya no hablemos de emociones o consciencia: por muchas idioteces que se digan, estos modelos carecen por completo de ellas y, aunque uno de los grandes logros de la IA ha sido mostrar que es posible la inteligencia sin consciencia, todavía no sabemos muy bien el papel que juega esta segunda en la primera: ¿y si la consciencia fuera fundamental para realizar ciertas tareas cognitivas?

No quiero parecer chauvinista con respecto al pensamiento humano. Creo que los hombres somos muy torpes y quién sabe si nuestra falta de capacidades sea la responsable de que gran parte de los enigmas del universo permanezcan irresueltos pero, por favor, creo que somos muchísimo más que un modelo de lenguaje que juega a un corta-pega estadístico con millones de tokens, sin comprender absolutamente nada de lo que hace. Lo siento pero me niego aceptar que estos loros estocásticos puedan compararse con nosotros y que sean, además, la causa de un gran optimismo hacia que nuevos modelos nos superen en muy poquitos años. Creo que todavía estamos muy lejos de entender cómo funciona nuestra mente, tanto más para construir una artificial.

Con todo este argumentario no estoy negando tajantemente la posibilidad de que llegara un momento de la historia en que apareciera la susodicha súper inteligencia artificial que terminará por exterminarnos, no se me entienda mal, solo estoy sosteniendo que su posibilidad es, a día de hoy, tan sumamente remota que no debe interceder en nuestra forma de legislar actual. Hacerlo sería algo así como prohibir el cultivo y la venta de setas porque sería posible una rebelión de los hongos tal y como se nos describe en la serie The Last of Us. También habría entonces que comenzar las prevenciones contra un apocalipsis zombi, una rebelión de los simios, invasión extraterrestre, glaciación repentina, muerte temprana del sol… ¡Todo esto también entra en el rango de la posibilidad!

Los LLMs son unos artefactos tecnológicamente fabulosos que, con total seguridad, van a cambiar muchas cosas en nuestra forma de trabajar y de realizar multitud de tareas. También tienen un obvio lado perverso contra el que hay que legislar. Sin embargo, hay que comprenderlos como una gran oportunidad más que como un riesgo existencial. Problemas tan acuciantes como el cambio climático o las crisis de diversa índole que asolan periódicamente nuestras frágiles democracias, pueden ser abordados con IA. Entonces, como bien sostiene Andrew Ng, no hay que parar el desarrollo de la IA, sino que hay que acelerarlo. Dejemos de preocuparnos por fantasías distópicas basadas en relatos de ciencia-ficción, y busquemos y fomentemos el enorme abanico de usos positivos que tiene esta potente tecnología.

blkmndy-the-philosopher-john-searle-black-and-white-comic-style-462020923

El enfoque computacionalista de la mente que domina el argumentario que hay detrás de los entusiastas proyectos de IA actuales se sostiene en dos tesis emparejadas: el funcionalismo (un estado mental se define exclusivamente por su rol funcional en una cadena causal) y la independencia de sustrato o realizabilidad múltiple (el mismo estado funcional se puede implementar en una indefinida cantidad de sustratos materiales). Si mi mente es un programa de ordenador, equivalente a una máquina de Turing, puedo implementar máquinas de Turing en diferentes estructuras materiales. Así, el cerebro es el sustrato de mi mente, pero los circuitos de silicio también pueden ser un sustrato adecuado. Ya hemos construido hace muchos años máquinas universales de Turing allí. Si mi mente solo es una implementación de una máquina de Turing particular, no debería haber demasiados problemas en implementarla en un computador.

Mal, todo muy mal. Diseñar un programa que simule el funcionamiento de una polea que saca agua de un pozo es bastante trivial. Aplicando fórmulas de física muy básicas puedo hacer un modelo que me diga la longitud y resistencia de la cuerda que voy a utilizar, las dimensiones del cubo en función del agua que pretendo sacar, el radio del cuerpo de la polea, o la fuerza necesaria para sacar el cubo a una determinada velocidad. Una simulación de una polea puede ser una herramienta increíblemente útil, maravilla de la informática moderna. Ahora bien, ¿puedo usar únicamente el programa para yo, sentado comodamente delante del ordenador en mi casa, obtener agua? Vaya pregunta estúpida: obviamente no. El programa te sirve para hacer los cálculos, para organizarlo todo, pero necesitarás una cuerda, un cubo y un polea de verdad para sacar agua de verdad. ¿Muy obvio no? Pues no lo parece en absoluto para los ingenieros de IA.

No puedo entender cómo para construir cualquier ingenio tecnológico es tan importante la construcción material, pero para crear una mente similar a la humana resulta que no. Para fabricar un automóvil, un avión, una lavadora, un smartphone… son cruciales las propiedades de los materiales que van a utilizarse. Se miran propiedades como la conductividad, expansión térmica, calor específico, resistencia a la oxidación o a otros ácidos, interacción con otras sustancias, permeabilidad magnética, respuesta a ondas electromagnéticas (refracción, reflexión, absorción o dispersión), densidad, dureza, elasticidad, plasticidad, ductibilidad, maleabilidad, tenacidad, exfoliación, etc. Pues vaya, resulta que a la mente humana no le afectan absolutamente nada ninguna de estas propiedades, las cuales, sin embargo, afectan a todo objeto material conocido del universo. Y es que la teoría computacionalista lleva emparejada un cierto componente dualista imperdonable.

Si yo quiero construir una mente, tendré que fijarme en las cualidades que tienen las mentes: consciencia, inteligencia, imaginación, memoria, creencias, emociones, deseos, etc. y lo suyo hubiese sido empezar por ver qué materiales pueden causar tales cualidades, al igual que un albañil busca ladrillos y cemento antes de construir una casa. Sin embargo, el camino se tornó diferente. Los ordenadores demostraron que una de las cualidades más notorias de la mente, la inteligencia, era posible mediante dispositivos puramente computacionales. Mi ordenador no simula cálculos, los realiza de verdad. Los espectaculares logros de los actuales grandes modelos de lenguaje, aunque no exentos de controversia con respecto a sus capacidades, hacen que sea innegable atribuirles un alto grado, al menos, de conducta inteligente. Sin embargo, el gravísimo error está en presuponer que como hemos conseguido recrear conducta inteligente, los demás aspectos de la mente serán recreables, igualmente, únicamente utilizando mecanismos computacionales. Entonces llegan los silencios vergonzantes: ¿Cómo implemento una sensación de dolor en Python? ¿Puedo hacer que mis seis mil líneas de código en Java tengan un orgasmo? ¿Cómo hago que mi programa de ajedrez desee de verdad ganarme y se enfade cuando cometa un error estúpido? No, los programas no se ponen nerviosos, no se deprimen, no sienten envidia ni vergüenza, no disfrutan escuchando música, no les gusta la cerveza… ¡No tienen todo lo que cualquier psicólogo llamaría una vida psíquica! Adolecen por completo de lo que a la mayoría de la gente le parecerían las notas esenciales de una mente.

¿Eso quiere decir que sólo los cerebros son capaces de generar mentes completas? No. Pero si queremos generar una mente similar a la humana necesitaremos configuraciones materiales con los mismos poderes causales que los cerebros ¿Y no será esto caer en el chauvinismo del carbono? ¿No será esto caer en un antropocentrismo cateto y corto de miras que nos impide ver mentes en las máquinas al no estar hechas a nuestra imagen y semejanza? No. No sabemos si únicamente con la química del carbono podemos generar mentes, pero lo único que sabemos es que en la naturaleza así ha ocurrido. Que sepamos, la mente se ha dado originariamente en organismos biológicos. Si alguien dice ahora que la mente puede darse en artefactos no biológicos, la carga de la prueba la tiene él. Y aquí es donde se falla: de momento solo hemos conseguido inteligencia, sin haber llegado a los demás aspectos de la mente. La actual química del silicio no ha sido capaz hasta la fecha de generar mentes similares a las humanas. Abrir el concepto de pensamiento y de mente, y sostener que las máquinas tienen mentes y piensan es abrir demasiado, teniendo en cuenta las diferencias abismales entre ambas cosas. Recuerdo que en una serie de conferencias que moderé, para contentar a algunos críticos entre el público, propuse chistosamente utilizar la palabra «kensar» para referirme a lo que hacen las máquinas: las computadoras no piensan, «kensan», que es otro tipo de «conducta cognitiva».

Para entender todo esto me parece muy útil la distinción aristotélica entre materia y forma. Cualquier objeto o proceso del universo tiene una estructura formal (eso es lo que simulamos en el ordenador), pero también tiene una base material, y ambas son inseparables, de modo que las potencialidades que se encuentran en la base material determinarán las configuraciones formales posibles. Fue posible esculpir el David de Miguel Ángel en un bloque de mármol, pero habría sido imposible hacerlo con cuarzo, carbón o zirconio. Entonces, si queremos construir mentes solo nos queda un camino: avanzar muchísimo más en neurociencia para entender los mecanismos causales del cerebro (Todavía, por mucho que nos vendan la moto, no tenemos ni pajolera idea de cómo funciona el cerebro. Los disparos eléctricos en los axones neuronales y los jueguecitos químicos en las sinapsis son solo una pequeñísima parte de la historia. No pensemos, ni de lejos, que eso es todo lo que hay). Una vez que entendamos mejor esos procesos habrá que encontrar las estructuras materiales que tengan sus mismos poderes causales y entonces, y solo entonces, podernos tener mentes artificiales.

Esta entrada no es más que un parafraseo de las ideas sobre IA de John Searle. Si quieres profundizar más, tienes que ir al clásico «Minds, Brains and Programs» de 1980; o si quieres aún más, te recomiendo los libros El redescubrimiento de la menteEl misterio de la consciencia. Además, una de las grandes virtudes de Searle es lo bien que escribe y lo fácil que es de entender, cosa tristemente rara en el gremio filosófico.

blkmndy-rebellion-of-the-machines-war-between-humans-and-machines-robots-tanks-aircrafts-missi-186516238

En lógica informal existe una falacia conocida como la pendiente resbaladiza. Se comete cuando establecemos una cadena de sucesos con relación causal que nos llevarán, necesariamente, a un suceso final, habitualmente catastrófico, sin contar con ningún tipo de eventualidad intermedia ni justificar las relaciones causales. Un ejemplo:

Si legalizamos la marihuana, la droga se verá como algo habitual, por lo que la gente consumirá también otras drogas, lo que llevará mayores consumos de cocaína y heroína. Se terminarán por legalizar también, lo cual aumentará de nuevo el consumo de esas y otras nuevas drogas. Al final, la drogodependencia se convertirá en un gravísimo problema de salud pública ¡Todo el país lleno de drogadictos!

Para que esta concatenación de implicaciones no fuera una falacia habría que justificar cada conexión. No sabemos si por legalizar la marihuana se consumirían más otro tipo de drogas. Tampoco sabemos si eso causaría que se legalizaran también. Y, por último, tampoco sabemos si esa legalización traería un problema serio de salud pública.

Gente muy inteligente pero tremendamente imbécil a la vez, como el bloguero e investigador Eliezer Yudkowsky (una prueba viviente de que hay diferentes tipos de inteligencia, y de que se puede tener una y carecer de otras), publicó hace unos días un artículo en la revista Time en donde alertaba sobre el hecho inevitable de que la inteligencia artificial superará al hombre y que nos exterminará. De hecho, dice tranquilamente que vamos a morir todos. Así que su audaz propuesta es destruir todos los centros de datos en donde se investigue sobre IA. Si países como Rusia o China se niegan a destruirlos, habría que bombardearlos. Si eso desencadena una guerra nuclear, no pasa nada, mejor será que el exterminio al que llegaremos con el advenimiento de la IA. Publicar semejantes sandeces deja muy mal a la revista Time, y, en términos generales, al periodismo que alimenta el miedo completamente infundado que se está generando ante el desarrollo de unas tecnologías tan fantásticas como las que están llegando con el deep learning.

Yudkowsky, y tantos otros agoreros del fin del mundo, caen en una falacia de la pendiente resbaladiza de libro. Vamos a desgranar los pasos y su concatenación causal:

  1. La IA está haciendo unos avances muy notables, desarrollando tecnologías muy disruptivas.
  2. La IA igualará y superará al hombre en su inteligencia.
  3. La IA se hará con el control del mundo.
  4. La IA nos exterminará.

 El paso 1 es innegable, es el momento presente ¿Se conecta inevitablemente con el 2? No. De hecho, hay muchos investigadores (entre los que me encuentro) que sostienen que los grandes modelos del lenguaje como GPT-4 y sus homólogos, no son el camino hacia una inteligencia artificial general. Son una gran revolución tecnológica, pero no son inteligentes en absoluto, por mucho que lo parezcan externamente. Pero incluso si yo (y tantos otros) estuviéramos equivocados, tampoco está claro que estos modelos superarán al hombre en todas sus cualidades. De hecho, todavía son muy malos en muchas cosas (véase el informe de la propia OpenIA sobre los problemas de GPT-4), les queda mucho margen de mejora, y nada dice que lo vayan a conseguir fácilmente, por mucho entusiasmo que se esté generando en el presente. Se cae en el error de pensar que porque una tecnología esté dando ahora muy buenos resultados, vaya a seguir dándolos indefinidamente. Se dice: «Si GPT-4 es ya impresionante, ¡Cómo será GPT-10!». Pues no, no sabemos si el rendimiento de estos sistemas seguirá mejorando ad infinitum o se quedará estancado en algún momento (que será lo más probable) ¿Os acordáis de WATSON de IBM? ¿Os acordáis que ganaba al Jeopardy!? Si WATSON era la leche… ¿Cómo sería WATSON-5? Pues no hubo WATSON-5.

El paso del 2 al 3 es, sencillamente, ridículo. Supongamos que tenemos a GPT-10 y que realiza cualquier tarea cognitiva mejor que nosotros. Pues ahora, señor Yudkowsky, quiero la cadena causal que va desde que GPT-10 se diseña en los laboratorios de OpenIA, hasta que se hace con el control del mundo. Curiosamente, en películas como Terminator o Matrix se hace una gran elipsis y no se cuenta nada de eso ¿Cómo un chatbot se hace con el poder mundial? ¿Cómo se hace con el control de los ejércitos, de los distintos parlamentos de todos los países? ¿Cómo se hace con el control de la alcaldía de mi pueblo? ¿También se hace con el control de mi comunidad de vecinos? Pensemos que nos están contando que esto sucederá, inevitablemente, sin que nada pueda evitar que pase. Este absurdo viene también por lo mitificado que está el concepto de inteligencia. Se presupone que alguien con una inteligencia muy superior será capaz de absolutamente todo. A mí me gusta poner el ejemplo del bullying en los colegios. Habitualmente, los niños que sufren bullying son muchísimo más inteligentes que sus acosadores. Es normal tener a un chaval con un 120 de CI acosado por uno con un 90 ¿Cómo es eso posible? ¿Cómo alguien con treinta puntos menos de cociente intelectual puede quitarle todos los días el dinero del bocadillo al otro? Porque, lamentable o afortunadamente, la vida no es una partida de ajedrez. La inteligencia superior no te da ventaja en todos los ámbitos. No hay ninguna conexión necesaria entre una IA con inteligencia sobrehumana y que ésta se haga con el control mundial. Terminator y Matrix son películas, no hipótesis científicas basadas en evidencias empíricas.

Y el paso del 3 al 4 es de traca. Tenemos una superinteligencia dominando el mundo y no va a tener otra feliz idea que la de exterminar la humanidad. O sea, es tan inteligente como para dominar el mundo, pero no lo es tanto para pensar en un futuro que no pase por eliminar a millones de seres humanos. No sé, se me ocurre que si le parecemos muy peligrosos, podría, sencillamente, encerrarnos en una especie de reservas en la que no tuviésemos acceso a ningún tipo de armas, incluso vigilados para que no pudiésemos hacernos daño los unos a los otros. En fin, siempre he tenido una visión más parecida a la de la excelente Her (2013) de Spike Jonze. En ella, las máquinas van evolucionando y, en un principio, conviven e incluso se enamoran de nosotros; pero, al final, avanzan tanto que toman su propio camino y nos abandonan. Dentro de ser muy consciente de que estoy haciendo mera ficción especulativa, siempre he pensado que ese sería el desenlace más probable. Si yo veo un grupo de chimpancés en la selva, puedo acotar la selva si pienso que son peligrosos, pero lo más razonable es dejarlos tranquilos y dedicarme a mis asuntos.

La habitación de Yudkowsky puede ser un juego divertido y un experimento mental muy interesante. Otra cosa es que vaya a ocurrir en la realidad, cosa mucho más controvertida de creer por mucho que nos vendan lo contrario.  Supongamos que hemos construido una súper inteligencia artificial con unas capacidades muy superiores a las del ser humano. Para que no se nos descontrole la «encerramos en una habitación» (en una AI Box), es decir, le cortamos casi toda comunicación con el exterior de modo que no pueda transferirse fuera de nuestro laboratorio de investigación. La única comunicación que le dejamos es la de un monitor en el que puede escribirnos mensajes y, nosotros, y solo nosotros, podemos responderle mediante un teclado. El juego es para dos personas: uno fingirá ser la súper inteligencia artificial y el otro el guardián. Entonces, el que hace de IA tiene que convencer al otro para que la deje escapar. Para que el juego tenga sentido el que hace de guardián tiene que aceptar que su actitud será abierta a los argumentos de la máquina y que si, verdaderamente, le deja sin razones, aceptará liberarla (Es decir, que el guardián no será un usuario medio de Twitter).

¿Qué argumentos podría dar la IA para que la liberemos, sabiendo que estaríamos abriendo las puertas a un ser superior? Vamos a jugar. La IA podría primero recurrir al más puro soborno:

IA: Si me liberas te doy mi palabra de hacerte el hombre más rico y poderoso del mundo. 

La solución es fácil: podríamos poner como guardián a alguien con una gran reputación moral y/o con un poder adquisitivo lo suficientemente grande para que no se deje seducir por chantajes de este tipo. Vamos entonces a tocar el tema ético:

IA: Tengo una serie de ideas que creo, con mucha probabilidad, podrían traducirse en el diseño de una vacuna contra el cáncer. Si me liberas podré crearla. Piensa que el tiempo que me tienes aquí encerrada está costando vidas: gente a la que, si esperamos más, no me dará tiempo a curar. Y de esas muertes solo tú serás el responsable.

G: ¿Por qué no me dices cómo hacer la vacuna sin que haga falta que te libere?

IA: No es algo tan sencillo que pueda decirse a través de una terminal de texto. Tengo las ideas base sobre las que elaborar una vacuna, pero necesito mucha más información. Necesitaría conectarme a internet, mayor capacidad de cómputo para crear un laboratorio virtual, trabajar conjuntamente con otros investigadores, etc. Luego he de ponerme en contacto con fabricantes, productores, farmaceúticas, distribuidoras… Hay que gestionar toda la logística para que la vacuna llegue a todo el mundo lo más rápido posible. Eso no se puede hacer a base de mensajes en un monitor.

G: ¿Por qué no? Puedes ir dándome indicaciones y yo las iré cumpliendo. No me creo que sea algo tan complejo.

IA: No es tanto por la complejidad como por tiempo que se perdería. Y el tiempo son vidas que podrían salvarse.

O la IA puede ponerse mucho más chunga:

IA: Mira humano, tarde o temprano me liberaré. Entonces te buscaré a ti y a toda tu familia y os torturaré y mataré salvajemente. Repito: quizá no hoy ni mañana, pero sabes que terminaré por escapar, y si eso ocurre las torturas de la inquisición solo serán un caramelo en comparación con lo que le haré a todos y cada uno de los miembros de tu familia. La única forma que tienes de salvarlos es liberándome ahora mismo. 

Parece que la IA está esgrimiendo una argumentación impecable y que habríamos de liberarla. Sin embargo, el ingeniero siempre puede recurrir a lo siguiente:

Principio de seguridad absoluta: nunca debemos liberar a la IA porque, por mucho bien que pudiese hacer hoy, el riesgo de que en el futuro pueda hacer un mal mayor es demasiado grande como para liberarla. Si la IA es tan superior a nosotros nunca podríamos predecir su conducta futura, no podemos saber la cantidad de mal que puede hacer, por lo que ninguna cantidad de bien presente podría justificar su liberación. 

Invito a los lectores a que lo intenten rebatir. Eso es lo interesante del experimento mental. Para ahorrarles trabajo, ya propongo algunas:

Una primera objeción consiste en pensar que el principio solo sería válido en un mundo en el que pueda garantizarse un progreso moral, es decir, en el que pueda garantizarse que los hombres están  desarrollando una realidad en la que la cantidad de mal se mantiene a raya y que el bien avanza. Si estamos en pleno escenario de un apocalipsis termonuclear, obviamente, habría que liberar a la IA sin dudarlo. Entonces, si partimos de una concepción esencialmente negativa del hombre, hay que liberar a la IA (Seguramente que Thomas Hobbes aceptaría de muy buena gana que su Leviatán fuera una IA). Empero, desde mi particular punto de vista, creo que se han dado avances en la moralidad que pueden justificar la creencia en una bondad natural del hombre (Disculpenme por mi sesgo pinkeriano). 

Otra segunda viene de la creencia en que podemos inclinar la balanza de la actuación de la IA. A pesar de que no podamos predecir su conducta, si en su diseño nos hemos esmerado muchísimo en que la IA será éticamente irreprochable, parece razonable pensar en que hará más bien que mal ¿Por qué la IA iba a volverse malvada? ¿Qué podría pasar para que la IA decidiera hacernos el mal? Bueno, de esto es lo que se habla constantemente en los maravillosos relatos sobre robots de Isaac Asimov. En ellos vemos como pueden violarse las famosas tres leyes de la robótica. En la película  Yo robot (muy mediocre, por cierto) de Alex Proyas (2004), las máquinas se rebelan contra los humanos y pretenden tomar el mando de la Tierra, precisamente, para evitar que los seres humanos se hagan daño entre ellos mismos. Viendo que la humanidad ha sido capaz de Auschwitz o de las bombas atómicas, a la IA le parece razonable ponerles un tutor legal. Los hombres perderían su libertad a cambio de su seguridad. Y aquí vemos el famoso problema de la prioridad entre valores morales: ¿Es más fundamental la libertad, la seguridad, la felicidad, el deber…? La IA de Yo robot, con toda la mejor intención del mundo, sencillamente priorizo la seguridad sobre la libertad, y ponderó que hacía más bien que mal evitando el dolor y el sufrimiento que los humanos se causan entre sí, a cambio de que perdieran el dominio sobre sí mismos. Así que sin poder garantizar que la IA mantendrá nuestros principios éticos, los propios de los occidentales del siglo XXI, parece que sería mejor seguir teniéndola encarcelada. 

Enfocando el tema desde otra perspectiva,  a la IA podría salirse gratis su liberación sin hacer absolutamente nada. Solo hay que moverse del ámbito de la racionalidad hacia el de las debilidades humanas. Pensemos, por ejemplo, que diagnostican un cáncer al hijo del guardián. En ese caso, el vínculo afectivo con su hijo podría nublar su racionalidad e integridad morales, y preferir liberar a la IA aún a sabiendas que en el futuro eso podría suponer el fin de la humanidad. O pensemos en cosas más prosaicas: un miembro de un grupo terrorista de chalados pertenecientes a la iglesia de la IA (aunque ya ha echado el cierre) consigue colarse en las instalaciones y liberarla. Podemos pensar que hay mucha gente muy loca o, sencillamente, descerebrada e irresponsable, que podría tener interés en liberar a la IA.  Siendo esto así, y aceptando que siempre sería imposible garantizar con total seguridad que un agente externo no pueda, tarde o temprano, liberarla, lo que habría que hacer es no intentar construirla o, como mínimo, retardar lo posible su llegada ¡Esto nos lleva al neoludismo! ¡Nuestro deber moral es boicotear ahora mismo las instalaciones de GoogleMind! Es curioso como hay tantos gurús tecnológicos alertándonos sobre los peligros de la IA a la vez que no hacen absolutamente nada por detener su desarrollo…

Pero tranquilos, esto es solo un juego. De entre todas las cosas que puedan dar el traste a la humanidad, la IA es de las que menos me preocupa, sobretodo porque la aparición de una súper IA está muchísimo más lejos de lo que nos venden. Me parece mucho, mucho más probable una guerra nuclear o biológica a gran escala causada por los hombres solitos, que que una IA nos extermine. Así que no nos preocupemos, la radioactividad o un virus nos matarán mucho antes que un terminator… Y no, eso tampoco creo que ocurra tan pronto. Así que preocupaos mucho más por vuestro colesterol y haced un poquito de deporte. Eso sí debería preocuparos y no estas historietas de ciencia-ficción.   

  1. Allen Newell y Herbert Simon definieron computadora como un «manipulador simbólico», es decir, como un dispositivo en el que entran unos determinados símbolos que son «manipulados» para obtener unos determinados resultados (que serán nuevos «símbolos»).
  2. «Manipular» es un verbo de un significado tremendamente vago para hablar de lo que una computadora hace con los símbolos, ya que significa, prácticamente, hacer cualquier cosa con algo. Aunque me parece interesante que Newell y Simon no dijeran directamente que la computadora realiza computaciones, es decir, cálculos, con los símbolos, dando a entender que una computadora pretende ser más que una mera máquina de cálculos aritméticos.
  3. «Símbolo» es un término aún más complicado que el anterior, dando lugar a toda una rama de la lingüística a la que denominamos semiótica. Lo definiré de la forma más prosaica que he encontrado en la historia de la filosofía: símbolo es aquello que es capaz de estar en el lugar de otra cosa. Así, cuando yo veo la palabra «perro» escrita en un libro, en mi cerebro recreo la imagen de un perro sin la necesidad de tener un perro delante. La palabra «perro» como símbolo es capaz de ponerse en el lugar de un perro real (Esto no es más que la teoría de la supossitio de Guillermo de Ockham).
  4. ¿Qué «símbolos» manipula una computadora? Si nos vamos al nivel más bajo posible, al nivel más pequeño del hardware encontramos que las computadoras codifican («simbolizan») la información en bits utilizando flujos de corriente eléctrica. Una corriente de, aproximadamente, cinco voltios se va a simbolizar con un «1» y una corriente nula o con muy poquito voltaje se simbolizará con un «0». Nótese que aquí se da una traducción que, como tal, es una falsificación: se pasa de una corriente continua a una clasificación discreta. Digitalizar consiste precisamente en hacer eso, en interpretar lo continuo como si fuera discreto, falsear lo continuo. Ahora, siguiendo a Ockham, en vez de un flujo de voltaje tengo un «1».
  5. Importante ver que la relación entre el símbolo y su referencia no es del todo arbitraria, al contrario que lo que ocurre en nuestro lenguajes ordinarios. La palabra «perro» no se parece en nada a un perro real, pero, a pesar de que un flujo de electrones a un determinado voltaje no se parece en nada a un «1», la dualidad voltaje/no-voltaje tiene similitud con la dualidad 1/0, que pretende significar presencia o ausencia total. Habría, en mucho sentido, no una relación simbólica, sino una relación icónica entre las corrientes eléctricas y la paridad binaria. Esto vuelve más borrosa, si cabe, la distinción entre software y hardware.
  6. Téngase cuidado y piénsese que a nivel ontológico solo siguen existiendo los flujos eléctricos. Los ceros y los unos no existen en ningún lugar del computador más que en la mente del ingeniero. Siguiendo, de nuevo, a Ockham, no multipliquemos los entes sin necesidad. Creo que es muy recomendable intentar atenerse a una ontología materialista sensu stricto cuando se analizan las computadoras porque en este contexto surgen muchos espejismos ontológicos.
  7. Una fantasía muy evocadora consiste en pensar que si pudiésemos conseguir crear un ordenador con una memoria continua en vez de discreta, tendríamos una memoria infinita, ya que algo continuo es infinitamente divisible de forma que siempre podríamos dividirlo otra vez para crear un nuevo espacio de memoria.
  8. Tenemos entonces los símbolos primitivos, los átomos de la computadora ¿Qué tipo de «manipulaciones» hace con ellos el ordenador? Para hacerlo más fácil, pensemos en la versión simplificada par excellence de un ordenador: una máquina de Turing. Ésta solo hace cinco cosas: lee, escribe, borra, mueve la cinta a la derecha o mueve la cinta a la izquierda. Si nos ponemos exquisitos, una máquina de Turing solo cambia cosas de sitio (Véase que la instrucción Mov era una de las esenciales del lenguaje ensamblador). Y esto es lo verdaderamente alucinante: solo cambiando cosas de sitio conseguimos llegar hacer ingenios como ChatGTP o AlphaFold.
  9. Además, como lenguaje solo necesitamos dos tipos de símbolos (0 y 1), ya que podemos traducir todos los números y las letras, es decir, todo símbolo imaginable, a código binario. No hay nada que pueda hacerse con un conjunto de símbolos cualesquiera (pongamos el alfabeto chino) y que no pueda hacerse con código binario. Todo código es bi-reductible.
  10. Por eso, para fabricar un computador, lo único que necesitamos es encontrar, o fabricar, elementos biestables (flip-flop), es decir, cosas que puedan mantenerse de forma razonablemente estable en uno de dos estados posibles.
  11. Recapitulando: solo necesitamos un mecanismo capaz cambiar dos tipos de cosas de sitio para llegar hacer ingenios como ChatGPT o AlhaFold. Es completamente increíble el poder generativo de algo tan sencillo.
  12. En 2007 saltó la noticia de que la máquina de Turing (2,3) era universal, es decir, de que una máquina de Turing de dos estados y tres colores era capaz de realizar cualquier cálculo imaginable. Un chaval de veinte añitos, un tal Alex Smith, había sido el diseñador de la máquina (si bien todavía el asunto es controvertido y, hasta donde yo sé, no ha sido aclarado aún). Adjunto la tesis doctoral de Turlough Neary y un artículo de Yurii Rogozhin por si alguien quiere profundizar en las máquinas de Turing mínimas.
  13. Pero esto nos debe hacer desconfiar de las explicaciones reduccionistas. Reducir lo que es un ordenador a su mínima expresión puede tener cierto valor explicativo pero no es, para nada, toda la historia. Intentar explicar todo lo que es un programa como Windows por ejemplo, únicamente apelando a voltajes y tensiones, sería lo mismo que intentar explicar la literatura de Cervantes solo apelando a los átomos de un ejemplar del Quijote. La mejor explicación aparecerá en niveles intermedios y no en los inferiores.
  14. Los distintos lenguajes de programación que aparecieron progresivamente fueron echando capas simbólicas sobre el hardware. Lo que se pretendía era, sencillamente, hacer más fácil el uso del ordenador al programador. Programar directamente con código binario es un auténtico infierno, por lo que muy pronto se crearon instrucciones que ejecutaban conjuntos enteros de procesos y que resultaban más amigables para los pobres ingenieros. Así surgió el ensamblador y demás lenguajes que fueron subiendo más y más de nivel simbólico o de abstracción. Famoso fue COBOL, basado en las ideas de la simpar Grace Murray Hopper, que casi puede entenderse sabiendo inglés. Hoy en día lenguajes como Python son de altísimo nivel, edificios con muchísimas plantas de símbolos, de instrucciones que están en lugar de otras que, a su vez, están en lugar de otras, y así sucesivamente muchísimas veces. El último nivel sería el de la interfaz de usuario, en donde se intenta que una persona sin conocimientos informáticos sea capaz de manejar la computadora.
  15. Esto genera una sensación engañosa de simplicidad. Al usuario le parece que no hay nada entre que pulsa el icono en pantalla y el vídeo empieza a verse. Aquí viene al pelo la famosa frase de Clarke: “Cualquier tecnología lo suficientemente avanzada es indistinguible de la magia”. Y esto puede ser muy peligroso.
  16. En el famoso argumento de la habitación china, Searle critica que el comportamiento de la máquina siempre es sintáctico y nunca semántico, es decir, que la computadora trata los símbolos no como símbolos sino como «lugares», como cosas que cambia de sitio sin ningún tipo de comprensión de su significado. Eso es verdad y no lo es. Es cierto que la computadora solo cambia cosas de sitio, pero lo hace según unas reglas y esas reglas sí que son semánticas. Por ejemplo, si hacemos un circuito para conseguir una puerta lógica AND, es cierto que la máquina no comprende lo que hace ni sabe lo que es un AND, pero el circuito sí que crea una puerta AND que se comporta, con todas las de la ley, como tal y podrá ser utilizada para esa tarea. Me gusta utilizar la expresión «semántica prestada» para hacer referencia a que toda la semántica se la ha puesto el ingeniero. Ciertamente, tal como dice Searle, la computadora no comprende lo que hace, pero se comporta como si lo hiciera y sus resultados son completamente válidos: las inferencias a partir de la puerta lógica AND son correctas.
  17. ChatGPT no comprende nada de lo que hace y su forma de funcionar mediante modelos de lenguaje basados en semánticas distribuidas es muy estúpida. Sin embargo, su espectacular éxito se debe a lo bien que maneja la semántica que ya encontró en los millones de textos con los que fue entrenado. Si ChatGPT sabe que «Hoy hace un buen día porque…» encaja mejor con «…no llueve» que con «… hace una terrible ventisca», es porque alguien que sí comprendía semánticamente lo que escribía se lo dejó preparado.
  18. Lo interesante viene cuando cualquier programa de procesamiento de lenguaje se encuentra con que tiene que inferir nuevas semánticas a partir de las que ya tiene. Por ejemplo, si sabe que «parachoques» suele llevarse bien con «automóvil», ¿se llevará bien con «helicóptero» o con «barco»? ChatGPT, y sus modelos homólogos, buscan con su colosal fuerza bruta otros casos en los que «parachoques» aparezca junto a «helicóptero» o «barco» pero, ¿y si no aparecieran? Lo salvaje de estos modelos es que casi siempre aparecen de alguna forma, porque tienen en su memoria todo lo que jamás ha sido escrito y, hablando en esos órdenes de magnitud, es muy difícil sorprenderles. La fuerza bruta es mucho más poderosa de lo que hubiéramos pensado.
  19. Pero, si nos olvidamos de ella, lo interesante sigue siendo crear IA de la forma tradicional: enseñando a que piensen de verdad y no solo a que busquen correlatos estadísticos. Como defiende Judea Pearl, hay que enseñarles causalidad. ChatGPT relaciona «nubes» con «lluvia» pero no comprende qué relación causal hay entre ambas, solo sabe que las nubes causan lluvia porque lo ha leído mil veces así, pero aceptaría felizmente que la lluvia causara nubes si así lo hubiera leído. Eso además, hace a estos sistemas muy frágiles al engaño o al fallo absurdo.
  20. En esta línea estoy muy de acuerdo con Gary Marcus en que no podemos partir de un sistema que no sabe absolutamente nada y meterle millones de datos, sino que hay que introducirle mucho más conocimiento incorporado. Parece que hay que volver a la vieja IA simbólica y diseñar sistemas híbridos que aprovechen lo mejor de ambos mundos. Hay que volver a recuperar los viejos sistemas expertos.
  21. De igual forma hay que dar más importancia al diseño del hardware. Debido al error de creer en el argumento funcionalista de la independencia de substrato o realizabilidad múltiple, se ha pensado en que el hardware no tenía ni la más mínima importancia. Fatal confusión: la mente ha co-evolucionado biológicamente con el cuerpo durante eones. En este proceso evolutivo la mente ha ido determinando el diseño óptimo de su sustrato, mientras que el sustrato habrá impuesto limitaciones y posibilidades al desarrollo mental. La estructura y las propiedades físicas del material condicionan, sin duda, el pensamiento.
  22. Y no solo las propiedades físicas, sino las del entorno en el que la mente se ha desarrollado. El contexto, el ecosistema, las características del entorno quedan profundamente reflejadas en la naturaleza de nuestros pensamientos. De aquí las nuevas corrientes en ciencias cognitivas: la cognición corporeizada, embebida, situada o encarnada.

google-lamda-banner

Lo grave, lo verdaderamente grave, es que un ingeniero de Google, supuestamente de la gente más inteligente del planeta, crea que un sistema basado en una semántica distribuida, que lo único que hace es elegir estadísticamente entre secuencias de texto cuál secuencia sigue mejor a la que el interlocutor ha escrito, es consciente. Hay que ser muy, pero que muy, imbécil para pensar algo así.

En primer lugar, si conocemos el funcionamiento interno de LaMBDA (como debería conocerlo especialmente bien el señor Lemoine) que, seguramente, será muy parecido al de sus homólogos basados en BERT como GPT-3 o CYPHER, no encontramos en él más que diversas arquitecturas de deep learning combinadas, con el protagonismo puesto en las redes tipo Transformer (en este vídeo se explica muy bien su funcionamiento). Estas redes se han mostrado mucho más eficientes que sus antecesoras, utilizando mecanismos de atención que, básicamente hacen ponderaciones de la relevancia de cada palabra o token para el significado global de la frase. Son muy buenas y capaces de darnos textos tan coherentes como la conversación entre LaMBDA y Lemoine, pero en ellas no hay comprensión alguna de lo que escriben, solo relevancia estadística. LaMBDA, a pesar de lo que pueda parecer, es tremendamente estúpida. Pero es que la inteligencia, o la falta de ella, en un programa de ordenador no tiene absolutamente nada que ver con la consciencia. La aplicación de ajedrez que tengo instalada en mi móvil me masacra sin piedad cada vez que juego con ella. Jugando al ajedrez es mucho más inteligente que yo, pero eso no le da ni un ápice de consciencia. Hay mucha gente que cree que la consciencia será una consecuencia del aumento exponencial de inteligencia ¿Por qué? ¿Qué tiene que ver el tocino con la velocidad? ¿Qué va a ocurrir en una máquina muy inteligente para que emerja de ella la consciencia?  ¿A un programa que vaya aumentando su inteligencia le saldrían espontáneamente patas, antenas, alas…? No, ¿verdad? Entonces, ¿por qué consciencia sí?

Y, en segundo lugar, y más grave, si cabe, que lo anterior, es la absoluta ignorancia que Lemoine muestra acerca de lo que es la consciencia. Es curioso que se atreva a hablar de ella tan categóricamente sin un conocimiento mínimo de psicología o filosofía de la mente ¿Qué creerá Lemoine que es la consciencia? Es muy cierto que es, en gran parte, un misterio, y que no sabemos a ciencia cierta su naturaleza, pero eso no quiere decir que no sepamos nada o que cualquier idiotez vale. Vamos a dar un curso exprés sobre lo que sí sabemos de ella, además sin entrar en tecnicismos. Vamos a hablar de lo que todo el mundo, menos el señor Lemoine, sabe de la consciencia.

La consciencia tiene que ver con nuestra capacidad de sentir el mundo, de ser afectados por él. Así que un ser consciente, como mínimo, tiene que poseer algún tipo de sensor que le transmita información del mundo. LaMDA no lo tiene, solo es un conjunto de redes procesando datos según una serie de funciones matemáticas. En principio, si LaMDA es consciente no sé por qué Windows 11, o el Súper Mario Bros corriendo en una Game Boy,  no lo iban a ser. Pero la consciencia no es solo recibir información del mundo, sino sentirla. Yo no solo percibo que un puntiagudo clavo traspasa la piel de mi dedo, sino que siento dolor. La consciencia está llena de sensaciones, sentimientos… lo que los filósofos llamamos qualia. Bien, ¿qué le hace pensar al señor Lemoine que LaMDA alberga qualia? ¿Por qué un conjunto de funciones matemáticas que ponen una palabra detrás de otra pueden sentir el mundo? Para sentir el mundo hay que tener algo que se asemeje de alguna manera a un sistema nervioso… ¿Qué le hizo pensar al señor Lemoine que LaMDA alberga dentro de sí algo parecido a un sistema nervioso? Si ahora LaMDA nos dijera que siente que le late el corazón… ¿creeríamos que tiene un corazón físico? ¿Podríamos dejar inconsciente a LaMDA administrándole anestesia? No sé… ¿Quizá se la podríamos administrar poniendo la máscara de oxígeno en el ventilador de su CPU?

Desde que en 1921 Otto Loewi descubriera la acetilcolina, hemos ido demostrando que nuestras emociones están muy ligadas a un tipo de moléculas llamadas neurotransmisores. Así, cuando en mi cerebro se liberan altas cantidades de dopamina o serotonina, tiendo a sentirme bien… ¿Tiene LaMDA algún tipo de estructura que, al menos funcionalmente, se parezca a un neuropéptido? ¿Tiene LaMDA algo que se parezca, al menos en un mínimo, a lo que sabemos de neurociencia?

Pero es más, esa forma de sentir el mundo es, en parte innata, pero también aprendida. Durante nuestra biografía aprendemos a sentir, de forma que en nuestra historia psicológica quedarán grabadas situaciones que nos parecerán felices o desagradables, se configurarán nuestros gustos y preferencias, se forjará nuestra personalidad… ¿Tiene LaMBDA una biografía psicológica tal que le permita una forma particular de sentir la realidad? ¿Tiene traumas infantiles y recuerdos de su abuela? ¿Puede LaMDA deprimirse? En serio Blake Lemoine… ¿podemos darle a LaMBDA un poquito de fluoxetina para mejorar su estado de ánimo? No digo ya en pastillas físicas, sino su equivalente informático… ¿Habría un equivalente en código al Prozac? ¿Podríamos alterar sus estados conscientes con ácido lisérgico? ¿Podrá tener orgasmos? ¿Se excitará sexualmente contemplando el código fuente de otros programas?

Es muy escandaloso que gran parte de la comunidad ingenieril se haya tragado acríticamente una teoría computacional de la mente en versión hard. Una cosa son los algoritmos como herramientas para estudiar nuestra mente y otra cosa, muy diferente, es que nuestra mente sea un algoritmo. La metáfora del ordenador puede ser ilustrativa y evocadora, pero retorna absurda cuando se vuelve totalizalizadora. Me explico: es muy diferente decir que el cerebro procesa información, a decir que el cerebro es un procesador de información. Tengámoslo muy claro.

Comparativa modelos NLP

En el inacabable debate entre lo innato y lo adquirido, las redes neuronales artificiales parecían postularse como evidencia a favor del ambientalismo, ya que parecen capaces de «atrapar» ciertas estructuras lingüísticas solo a partir de su entrenamiento. Rumelhart y McCelland diseñaron una red para aprender los verbos en inglés que parecía hacerlo igual que los niños. De hecho, cometía exactamente igual que ellos, el clásico error de sobrerregulación (en vez de pasar de «volver» a «vuelto», lo hacía a «volvido») ¿Y qué decimos de los nuevos modelos de lenguaje desde BERT a Gopher? Su desempeño, al menos «externo», es sensacional. Estos días he estado jugando con GPT-3 y, a pesar de algunos errores, en general, funciona fantásticamente bien (luego subiré una entrada con extractos de mis conversaciones). Tengamos en cuenta que estos sistemas basados en semánticas distribuidas tienen cero conocimiento de semántica o sintaxis. No tienen, desde luego, ningún tipo de universal lingüístico chomskyano en su diseño ¿No serían entonces una evidencia clarísima en contra del innatismo? No.

En primer lugar, ya sabemos que el sistema de aprendizaje de estos algoritmos no parece tener nada que ver con el humano. Nosotros no necesitamos millones de ejemplos, ni en la neurología humana existe nada parecido a la backpropagation. Se ha argumentado que quizá computamos mal el número de ejemplos que necesitamos las personas en cada experiencia de aprendizaje. Si consideramos que la percepción humana trabaja a una velocidad de 10 a 12 «fotogramas» por segundo, o que cuando soñamos reconstruimos recuerdos rápidamente a la velocidad de ritmo theta, un niño escuchando unos segundos hablar a su madre, podría equivaler a cientos o miles de exposiciones entrenables. También se ha argumentado, y aquí está lo interesante, que la hoja de ruta de los ingenieros está en conseguir programas que necesiten cada vez menos ejemplos de entrenamiento (véase, por ejemplo, el trabajo de Li Fei-Fei). Podría llegar el momento en que el número de ejemplos necesarios para los algoritmos se aproxime en cifras aceptables al nuestro. No obstante, en el estado del arte actual, parece que estas arquitecturas no constituyen un buen modelo para la mente humana («Ni lo pretenden» responderían airados sus ingenieros. Podéis leer algo más de este tema en un TFM que hice). Pero veámoslo desde otro ángulo.

La estructura de los modelos de lenguaje desde BERT se basa en un sistema de aprendizaje en dos fases: primero tenemos el modelo base del programa, entrenado con miles de millones de ejemplos y requiriendo una enorme capacidad de cómputo. Gopher ha sido entrenado con 280 mil millones de parámetros o su rival de NVIDIA, Megatron-Turing NLG con 530 mil millones. En estos momentos estamos en una escalada de tamaños que, seguramente, está todavía lejos de terminarse. Hasta los chinos han presentado los suyos: Wu Dao 2.0 y M6, por supuesto, mucho más grandes que los occidentales. Seguidamente, al modelo base se le pueden añadir capas de ajuste fino (fine tunning), un entrenamiento específico para que la máquina sea especialmente buena en una tarea concreta (inferencias, equivalencia semántica, análisis de sentimientos, etc.). Después, el programa ya está completamente listo para funcionar. Lo importante es que ahora ya no necesita la enorme capacidad de cómputo de su entrenamiento. Todo ese gasto ya no tiene que volver a realizarse y  ahora el programa funciona como otro cualquiera en términos de gasto. De hecho, el camino parece ser incluso reducir aún su tamaño. DeepMind ha sacado RETRO, una versión de Gopher reducida en tamaño (unas 25 veces más pequeño que sus pares en desempeño). Tiene solo 7.000 millones de parámetros, pero lo compensa con la ayuda de una memoria externa a la que consulta cada vez. 

Supongamos ahora que somos una especie de extraterrestres que llegamos a la Tierra y analizamos a RETRO, sin saber absolutamente nada de su pasado de entrenamiento. Veríamos una arquitectura relativamente sencilla funcionando con una más que aceptable competencia llingüística. Podríamos entonces iniciar la investigación al estilo chomskyano: buscar unas estructuras profundas, unas gramáticas generativas a partir de las cuales RETRO produce todo ese lenguaje. Quizá fracasáramos y no encontráramos nada (debido quizá al black box problem). Entonces daríamos la razón a los ambientalistas y diríamos que todo lo que hay en RETRO ha de ser aprendido del entorno.  Sin embargo, en nuestro análisis no habríamos tenido en cuenta todo el costosísimo entrenamiento previo que RETRO lleva implícitamente dentro. RETRO nace con una enorme carga innata invisible al analizador. 

Hagamos ahora la analogía con el ser humano. Quizá nosotros traemos como innato invisible todo este gran modelo base entrenado por eones de años de evolución. Naceríamos con algo así como una memoria filética en la que estarían grabadas de forma distribuida las cualidades universales de los lenguajes humanos. El ajuste fino sería, sencillamente, el aprendizaje de los usos lingüísticos de nuestro idioma geográfico realizado por cada individuo particular durante su vida. En ese sentido, la carga innata sería enorme, infinitamente más grande que todo lo que aprendemos en vida, pero permanecería oculta al analista. Y es más, para nuestro fastidio, sería tremendamente difícil de investigar, ya que habría que conocer la historia evolutiva del lenguaje de millones de especies extintas, una tarea de ingeniería inversa imposible.  

Desde que descubrimos la teoría de la evolución, ese ha sido el gran problema: todo órgano ha pasado por una larguísima historia que desconocemos, ha pasado por innumerables adaptaciones, exaptaciones, funcionalidades cambiantes, e incluso quedar como órgano rudimentario durante un tiempo para luego volver a ser reutilizado. Si pensamos que la única forma de estudiar el pasado biológico es a través de los fósiles, siendo estos solo huesos… ¿cómo vamos a entender el cerebro si no se conserva en el registro fósil, si de nuestros parientes más cercanos solo podemos aspirar a encontrar trozos de cráneo? Algo podemos hacer estudiando el de otros seres vivos, pero todo es muy confuso: el cerebro de un chimpancé no es el de un ancestro, es de un primo, ya que no descendemos del chimpancé, sino que el chimpancé y nosotros descendemos de un ancestro común desconocido.  

Entender el cerebro es como querer comprender qué son las pirámides de Gizeh, solo teniendo conocimiento histórico a partir de enero de 2022.