Posts etiquetados ‘Consciencia’

google-lamda-banner

Lo grave, lo verdaderamente grave, es que un ingeniero de Google, supuestamente de la gente más inteligente del planeta, crea que un sistema basado en una semántica distribuida, que lo único que hace es elegir estadísticamente entre secuencias de texto cuál secuencia sigue mejor a la que el interlocutor ha escrito, es consciente. Hay que ser muy, pero que muy, imbécil para pensar algo así.

En primer lugar, si conocemos el funcionamiento interno de LaMBDA (como debería conocerlo especialmente bien el señor Lemoine) que, seguramente, será muy parecido al de sus homólogos basados en BERT como GPT-3 o CYPHER, no encontramos en él más que diversas arquitecturas de deep learning combinadas, con el protagonismo puesto en las redes tipo Transformer (en este vídeo se explica muy bien su funcionamiento). Estas redes se han mostrado mucho más eficientes que sus antecesoras, utilizando mecanismos de atención que, básicamente hacen ponderaciones de la relevancia de cada palabra o token para el significado global de la frase. Son muy buenas y capaces de darnos textos tan coherentes como la conversación entre LaMBDA y Lemoine, pero en ellas no hay comprensión alguna de lo que escriben, solo relevancia estadística. LaMBDA, a pesar de lo que pueda parecer, es tremendamente estúpida. Pero es que la inteligencia, o la falta de ella, en un programa de ordenador no tiene absolutamente nada que ver con la consciencia. La aplicación de ajedrez que tengo instalada en mi móvil me masacra sin piedad cada vez que juego con ella. Jugando al ajedrez es mucho más inteligente que yo, pero eso no le da ni un ápice de consciencia. Hay mucha gente que cree que la consciencia será una consecuencia del aumento exponencial de inteligencia ¿Por qué? ¿Qué tiene que ver el tocino con la velocidad? ¿Qué va a ocurrir en una máquina muy inteligente para que emerja de ella la consciencia?  ¿A un programa que vaya aumentando su inteligencia le saldrían espontáneamente patas, antenas, alas…? No, ¿verdad? Entonces, ¿por qué consciencia sí?

Y, en segundo lugar, y más grave, si cabe, que lo anterior, es la absoluta ignorancia que Lemoine muestra acerca de lo que es la consciencia. Es curioso que se atreva a hablar de ella tan categóricamente sin un conocimiento mínimo de psicología o filosofía de la mente ¿Qué creerá Lemoine que es la consciencia? Es muy cierto que es, en gran parte, un misterio, y que no sabemos a ciencia cierta su naturaleza, pero eso no quiere decir que no sepamos nada o que cualquier idiotez vale. Vamos a dar un curso exprés sobre lo que sí sabemos de ella, además sin entrar en tecnicismos. Vamos a hablar de lo que todo el mundo, menos el señor Lemoine, sabe de la consciencia.

La consciencia tiene que ver con nuestra capacidad de sentir el mundo, de ser afectados por él. Así que un ser consciente, como mínimo, tiene que poseer algún tipo de sensor que le transmita información del mundo. LaMDA no lo tiene, solo es un conjunto de redes procesando datos según una serie de funciones matemáticas. En principio, si LaMDA es consciente no sé por qué Windows 11, o el Súper Mario Bros corriendo en una Game Boy,  no lo iban a ser. Pero la consciencia no es solo recibir información del mundo, sino sentirla. Yo no solo percibo que un puntiagudo clavo traspasa la piel de mi dedo, sino que siento dolor. La consciencia está llena de sensaciones, sentimientos… lo que los filósofos llamamos qualia. Bien, ¿qué le hace pensar al señor Lemoine que LaMDA alberga qualia? ¿Por qué un conjunto de funciones matemáticas que ponen una palabra detrás de otra pueden sentir el mundo? Para sentir el mundo hay que tener algo que se asemeje de alguna manera a un sistema nervioso… ¿Qué le hizo pensar al señor Lemoine que LaMDA alberga dentro de sí algo parecido a un sistema nervioso? Si ahora LaMDA nos dijera que siente que le late el corazón… ¿creeríamos que tiene un corazón físico? ¿Podríamos dejar inconsciente a LaMDA administrándole anestesia? No sé… ¿Quizá se la podríamos administrar poniendo la máscara de oxígeno en el ventilador de su CPU?

Desde que en 1921 Otto Loewi descubriera la acetilcolina, hemos ido demostrando que nuestras emociones están muy ligadas a un tipo de moléculas llamadas neurotransmisores. Así, cuando en mi cerebro se liberan altas cantidades de dopamina o serotonina, tiendo a sentirme bien… ¿Tiene LaMDA algún tipo de estructura que, al menos funcionalmente, se parezca a un neuropéptido? ¿Tiene LaMDA algo que se parezca, al menos en un mínimo, a lo que sabemos de neurociencia?

Pero es más, esa forma de sentir el mundo es, en parte innata, pero también aprendida. Durante nuestra biografía aprendemos a sentir, de forma que en nuestra historia psicológica quedarán grabadas situaciones que nos parecerán felices o desagradables, se configurarán nuestros gustos y preferencias, se forjará nuestra personalidad… ¿Tiene LaMBDA una biografía psicológica tal que le permita una forma particular de sentir la realidad? ¿Tiene traumas infantiles y recuerdos de su abuela? ¿Puede LaMDA deprimirse? En serio Blake Lemoine… ¿podemos darle a LaMBDA un poquito de fluoxetina para mejorar su estado de ánimo? No digo ya en pastillas físicas, sino su equivalente informático… ¿Habría un equivalente en código al Prozac? ¿Podríamos alterar sus estados conscientes con ácido lisérgico? ¿Podrá tener orgasmos? ¿Se excitará sexualmente contemplando el código fuente de otros programas?

Es muy escandaloso que gran parte de la comunidad ingenieril se haya tragado acríticamente una teoría computacional de la mente en versión hard. Una cosa son los algoritmos como herramientas para estudiar nuestra mente y otra cosa, muy diferente, es que nuestra mente sea un algoritmo. La metáfora del ordenador puede ser ilustrativa y evocadora, pero retorna absurda cuando se vuelve totalizalizadora. Me explico: es muy diferente decir que el cerebro procesa información, a decir que el cerebro es un procesador de información. Tengámoslo muy claro.

Leo este artículo de un tal Michael Graziano. Otra propuesta más de cómo construir una máquina consciente, deshaciendo ese gran “pseudoproblema” que es el hard problem. Nada nuevo bajo el sol y la enésima prueba de que no se comprende bien el tema.

Graziano va introduciendo los elementos que habría que implementar en una máquina para que fuera consciente. Pone el ejemplo de ser consciente de percibir una pelota de tenis. En primer lugar hay que darle a la máquina información acerca de la pelota. Graziano insiste, y ahora veremos por qué tanto, en que la información que tenemos del mundo real es tan solo un esquema, una serie de indicadores que nos sirven para reconocer el objeto pero no para tener una información real y completa de él. Percibir una pelota de tenis no es tener en la mente otra pelota de tenis similar a la percibida, es únicamente tener una serie de datos que nos permitan reconocer y utilizar la pelota. La razón es que sería un grandísimo derroche de recursos tener una copa absolutamente fidedigna del mundo en nuestra mente, cuando lo único que nosotros necesitamos es funcionar eficientemente en él, es decir, adaptarnos a él.  Hasta aquí todo correcto.

Graziano dice que si le preguntásemos a la máquina si es consciente de la pelota de tenis, ésta no sabría cómo responder ya que le falta otra parte importante de la ecuación: información sobre sí misma. Para ser consciente de algo hace falta un sujeto, alguien que sea consciente del objeto. La solución es implementar en la máquina información sobre sí misma. Podemos darle información sobre su cuerpo, la posición de sus piezas, etc. De nuevo, esta información es un nuevo esquema. Nosotros no conocemos la posición de todos y cada uno de los átomos de nuestro cuerpo, ni siquiera sabemos muy bien dónde están ciertos órganos ni mucho menos cómo funcionan. Tenemos un mapa borroso e impreciso de nuestro cuerpo. Bien, se lo implementamos.

Si, de nuevo, le preguntamos a la computadora si es consciente de la pelota, volvería a fallar. Tiene información de la pelota y de sí misma, pero no de la relación entre ambas cosas. Graziano cree que la neurociencia estándar ha descuidado por completo esta relación, y parece pensar que ha descubierto América al hacernos caer en la cuenta de su importancia. Sí, en unos veinticinco siglos de historia de filosofía de la mente, a nadie se le había ocurrido pensar en cómo el hombre se piensa a sí mismo pensando. Probablemente habrá cientos de miles de páginas sobre el tema. Pero vale, no seamos malos y perdonémosle a Graziano estos deslices. Sigamos.

Tercer paso y el más crucial: hay que implementar en la máquina esa relación entre el objeto y el sujeto ¿qué le ponemos?  Graziano piensa que, de nuevo, hay que introducirle un esquema (Además, dado que según él la neurociencia no tiene nada que decirnos, no podríamos hacer otra cosa). Habría que implementarle propiedades generales de lo que significa prestar atención a algo. Por ejemplo, podríamos hacer que definiera atención como “poseer mentalmente algo” o “tener algo en mi espacio interior”. No importa que las definiciones pudiesen ser falsas, incompletas o muy imprecisas. Lo importante es sacarlas de la psicología popular, de cómo las personas nos referimos a prestar atención.

Entonces, y aquí viene lo interesante, si nos ponemos a charlar con la máquina, ésta nos dirá que es consciente de la pelota de tenis. Ella no sabe que funciona mediante microchips de silicio, ni que únicamente procesa información pero, en función de los datos que le hemos implementado, ella diría que no es una máquina y que tiene una propiedad no física que es ser consciente de una pelota de tenis, debido a que sus modelos internos son descripciones borrosas e incompletas de la realidad física.

Y ya está, para Graziano a esto se reduce el hard problem. Tenemos una forma útil aunque, en último término falsa, de referirnos a nuestra relación de atención entre los objetos del mundo y el modelo de nosotros mismos. Y de aquí surge la idea de consciencia, una mera forma de hablar que nos resulta muy práctica pero que, realmente no representa nada real. Graziano culmina el artículo hablando de que concebir la conciencia de otro modo es hablar de cosas mágicas. De nuevo volvemos al viejo funcionalismo que niega la existencia real de los qualia. Y, de nuevo, aunque Graziano seguro que no lo sabe, está repitiendo el antiguo esquema del conductismo lógico tan bien representado por Gilbert Ryle: la mente es un mero error en el uso del lenguaje.

Objeción a lo bruto desde el estado de ánimo que me causa leer este artículo: si yo cojo la pelota de tenis y la estrello en la pantalla de la “computadora consciente” ¿a la máquina le dolerá realmente? Y si cojo de nuevo la pelota y la estrello en la cara de Graziano ¿le dolerá igual que a la máquina o de otra manera diferente?

Objeción razonada una vez que me he calmado: Estoy bastante harto de leer teorías que, de uno u otro modo, niegan la existencia de los qualia y los equiparan con conceptos obsoletos como el de “alma” o “espíritu”, sosteniendo que hablar de ellos es hacer metafísica. No, queridos neurólogos e ingenieros varios, los qualia existen con una realidad aplastante. Cuando siento que me duelen las muelas, me duelen. Otra cosa es que el dolor no represente con precisión ninguna lo que ocurre en mis muelas (mi dolor no se parece en nada a millones de bacterias infectando un diente), que solo sea una especie de símbolo convencional para alertarme de que algo malo pasa en mi boca, pero el dolor existe con total plenitud ontológica.

La máquina de Graziano diría que es consciente pero, en realidad no lo sería. No tendría ningún tipo de sensación consciente, nada de nada. Lo único que hace es deducir una serie de conclusiones a partir de unas premisas erróneas que le hemos implementado a propósito. En el fondo, lo único que hemos hecho es programar a una computadora de la siguiente forma:

Premisa 1: Tu relación con la pelota de tenis es de consciencia.

Pregunta de Grazziano: Ves una pelota ¿eres consciente de ella?

Respuesta: En virtud de la premisa 1, deduzco que sí soy consciente.

La máquina solo ha hecho una deducción lógica, un sencillo modus ponens que el ordenador desde el que escribo esto realiza millones de veces por segundo, sin ser nada consciente de que lo hace. Y es que Graziano hace un juego muy tonto. Aunque no lo diga explícitamente y parezca deducirlo del resultado del experimento mental con la máquina, él parte de la premisa de que la consciencia es una ilusión útil. Entonces crea una máquina a la que le pone por premisa creer que es consciente sin serlo. Después, parece fingir sorpresa (dice que le resulta espeluznante) ante que la máquina diga que es consciente.

Lo repetimos: señores ingenieros de IA, psicólogos congitivos, neuorocientíficos y pensadores de diversa índole, no necesitamos máquinas que finjan, simulen, digan o prometan por el niño Jesús que son conscientes. Los qualia son muy reales y tenemos que construir máquinas que realmente los tengan. Entiendo que, de momento, no tengamos ni idea de cómo hacerlo. Pues sigamos estudiando el sistema nervioso, pero no nos lancemos tan deprisa a decir majaderías.

no_se_quien_soy_reference

Cuando la ciencia entró de lleno en el tema de la mente a través de la psicología o de las neurociencias, se metió de lleno en problemáticas que llevaban tratándose por la filosofía desde hace más de veinticinco siglos. Los científicos se encontraron con el problema de la mente y, con él, llegaron al problema de la consciencia. Desconociendo la historia de la filosofía se lanzaron, muchas veces de modo muy ingenuo, a hacer filosofía, por lo que es común encontrar en libros de divulgación (único lugar donde a los hombres de ciencia les está permitido especular) capítulos llenos de confusiones y errores conceptuales, propios de autores, muchas veces muy brillantes, pero no demasiado duchos en lo que hablan. He leído en muchas ocasiones razonamientos muy laxos e imprecisos, en los que se usa el término consciencia con diversos significados (como sentience, representación, estado mental, etc.) sin establecer diferenciación alguna, lo cual conlleva a la postre, confusiones y embrollos muy graves.  Así mismo he visto usar el concepto de autoconsciencia de modo harto equívoco, unas veces asemejándola a la autorepresentación y otras a «mismidad», «subjetividad», «intimidad», etc.  sin tener demasiado claro de qué se está hablando.

Si queremos enfrentarnos de modo científico al problema de la mente, la filosofía tiene una importancia capital. Antes de realizar un experimento tenemos que tener muy claro qué buscamos y cómo hemos de buscarlo, y para eso hay que tener una precisión conceptual de cirujano y unos claros preceptos epistemológicos. Vamos a hacer aquí un ejercicio de clarificación e higiene conceptual para, al menos, saber donde estamos. Definamos los términos clave:

Representación: cuando pensamos en un objeto del mundo que, en estos momentos, no está presente delante de nosotros, imaginamos una «imagen mental» en donde volvemos a presentar en nuestra mente el objeto recordado, re-presentamos el objeto. Hay muchas formas de hacerlo. La más típica es la «imagen visual»: yo vuelvo a «ver» en mi mente el objeto recordado. Pero también puede ser funcional: yo traigo a mi mente alguna información del objeto con la que hago algo. Tiene que quedar claro que representación no implica necesariamente consciencia. Mi ordenador hace muchísimas cosas con información que recoge del exterior y tiene almacenada en su memoria, sin que sea, para nada, consciente de lo que hace con ella.

Autorepresentación: cuando tenemos información de un objeto del mundo, siendo ese objeto algo que consideramos parte de nosotros mismos (habitualmente una parte de nuestro organismo como agente teleológico). Nunca puede confundirse, como a menudo se hace, autorepresentación con autoconsciencia. Mi ordenador tiene un indicador del estado de su batería. Cuando la batería está baja indica que hay que enchufar el cargador. Eso es una forma de autorepresentación que, de ningún modo, implica autoconsciencia. Mi ordenador, creo que todos estaremos de acuerdo, no tiene ningún tipo de autoconsciencia.

Consciencia: en inglés existe la palabra perfecta: sentience, es decir, la capacidad de sentir sensaciones, emociones, etc. Cuando me duelen las muelas soy consciente de ese dolor, siento ese dolor. Este es el gran enigma de la mente: ¿cómo y por qué la mente tiene estados conscientes?  Y esto es, precisamente, lo que los ordenadores no tienen, a pesar de que tengan capacidad de representación y autorepresentación.

Autoconsciencia: más difícil todavía. Se la puede traducir por «mismidad» (y oponerse a «alteridad» u «otredad»). Significa ser consciente de que yo soy el sujeto de mis sensaciones, percepciones, sentimientos o pensamientos. Cuando me duelen las muelas, me duelen a mí y no a cualquier otro. La autoconsciencia es lo más difícil de explicar, principalmente porque saber que yo soy el sujeto de mis estados mentales no es claramente una sensación (tal y como sería el dolor de muelas o el olor de una flor) ni tampoco hace falta una inferencia lógica para deducirlo (no tengo que razonar para saber que las muelas me duelen a mí y no a otro). Es algo muy extraño, más bien fruto de una extraña intuición. Del mismo modo, tal y como criticaban los empiristas, no tengo ninguna percepción de ese sujeto, de ese «Yo» que tiene tal consciencia de sí mismo. Yo solo percibo colores, formas, sonidos… pero nunca a ese «Yo» que percibe. ¿Es una ilusión?

Autoconsciencia biográfica o narrativa: soy consciente de que tengo una historia, de que yo he sido el mismo desde que nací hasta el día de hoy y, en cuanto a tal, me relato a mí mismo mis andanzas biográficas. Téngase en cuenta que esto podría entenderse meramente como «autorepresentación histórica»: mi navegador de Internet tiene un historial en donde se indica todos los lugares de la red que visitó. Ese historial es una especie de «autobiografía» del navegador que no implica ni consciencia ni autoconsciencia. En este sentido, la autoconsciencia biográfica no parece tan enigmática como la autoconsciencia.

Cuando vemos por Internet vídeos de  bebés o de primates reconociéndose ante un espejo, muchos se lanzan a decir que ya poseen autoconsciencia. Se precipitan: bébes o primates pueden tener capacidad de autorepresentación: saben que ese que hay delante del espejo es su propio organismo, pero de aquí, ¿puede deducirse que son autoconscientes tal y como hemos definido la autoconsciencia? No: podríamos diseñar una máquina que se reconociera ante un espejo pero que no fuera ni consciente ni autoconsciente de nada.

La consciencia es solo la punta del iceberg de una infinidad de procesos inconscientes. Cuando me pincho con una aguja, no soy consciente de todo el complejísimo dispositivo que mi sistema inmunitario monta para defenderme de una posible infección. No soy consciente de la actividad de las plaquetas o de los linfocitos. Tampoco soy consciente de la actividad de mis neurotransmisores llevando la información desde la herida hasta mi cerebro. Solo soy consciente de una cosa, de algo simple, poco complicado: el dolor. ¿Y qué es ese dolor? Lo interesante es que no se parece en nada a todos esos procesos inconscientes que supuestamente «representa». El dolor no se parece a nada más que a otros dolores (esto es aplicable a cualquier sensación consciente: ¿a qué se parece el color mas que a otros colores o el sonido más que a otros sonidos?). El dolor aparece en nuestra consciencia, se hace desagradable y nos motiva con mucha fuerza a eliminar las causas que lo propician. Nuestro cuerpo parece informar de forma simplificada, con este particular «lenguaje del dolor», a nuestro «Yo» de que algo va mal para que éste tome el mando y actúe en consecuencia.

Pero según los experimentos de Libet, Gazzaniga o Wegner, nuestro «Yo» no es el agente que decide nuestras acciones ya que éstas se eligen a nivel inconsciente. La consciencia es una central de noticias, una agencia de información en donde se le dice al «Yo» de lo que está pasando, siendo éste un mero espectador que no toma parte ninguna en las decisiones posteriores, aunque vive en la ilusión de que así lo hace. La cuestión se hace peliaguda: ¿Para qué informar a quién? Si nuestro «Yo» no toma partido en nada, ¿para qué perder el tiempo en informarle?

Sin título

Como vemos en el diagrama, para responder ante el pinchazo de una aguja necesitamos tres pasos: los procesos que detectan la aguja atravesando el dedo, el fenómeno consciente del dolor y la respuesta del organismo de apartar la mano. ¿Para qué estos tres pasos cuando solo harían falta dos? ¿Para qué sirve el paso consciente? ¿No sería mucho más económico que los procesos de detección del pinchazo se pusieran directamente en contacto con los procesos de reacción sin tener que perder el tiempo en «informar al yo» de lo que ocurre como sucede con fenómenos como los movimientos de los intestinos o el funcionamiento de los riñones o del páncreas?

Pero supongamos que estos experimentos no llevan razón (es cierto que no son plenamente concluyentes y que hay mucha discusión al respecto), supongamos que nuestro «Yo» sí que toma decisiones. Podría ser, tal como suele pensarse, que las sensaciones conscientes sean un poderoso sistema de incitación a la acción. El dolor que produce el pinchazo me mueve poderosamente a apartar la mano. Evitar el dolor y obtener placer parecen fuertes motivaciones para actuar. Sin embargo, pensemos en que tenemos un robot diseñado para atravesar una habitación evitando los obstáculos que por el camino pueda encontrarse. Nuestro robot tiene la capacidad de aprender mediante ensayo y error cuál es el mejor recorrido y le hemos instalado un contador que funciona restando puntos cada vez que choca con un obstáculo y sumando cada vez que recorre una distancia sin chocar con nada. El objetivo de la máquina es obtener el mayor número de puntos posibles. Podríamos entender entonces que cada vez que choca con algo y resta puntos «recibe dolor» y cuando avanza «recibe placer» buscando obtener la «mayor cantidad de placer posible». Así, intento tras intento, nuestra máquina iría calculando cuál es el recorrido «más placentero» o «menos doloroso». Al final, podría ser muy eficiente realizando su tarea con este sistema de premios y castigos. Sin embargo, nuestro robot no tendría consciencia de placer o dolor algunos, no sentiría realmente nada. ¿Para qué entonces la consciencia si podríamos conseguir el mismo resultado con un ser inconsciente?

Dos soluciones:

1. La consciencia no es una redundancia sino que tiene una finalidad evolutiva precisa. Los seres conscientes pueden hacer cosas que los inconscientes no pueden y por eso la evolución los seleccionó. Lo que ocurre es que aún no sabemos demasiado de su funcionamiento como para entender el por qué de su alta presencia en los seres vivos.

1.a. La consciencia tiene una finalidad evolutiva chapucera. La evolución podría haber encontrado caminos más eficaces para conseguir lo mismo pero no fue así y la consciencia, a pesar de sus defectos, daba ventajas adaptativas a sus poseedores.

2. La consciencia es un epifenómeno, un residuo o efecto colateral de otras adaptaciones que o bien es neutra en términos evolutivos o, aunque sea perjudicial o costosa, no es lo suficiente para que la evolución la haya extinguido. Por ejemplo, el ruido que hace el corazón al latir es una consecuencia sin finalidad evolutiva positiva (más bien negativa: un depredador con fino oído lo puede captar) de la auténtica función del corazón: transportar el flujo sanguíneo. Siguiendo la analogía, la consciencia sería algo así como»el ruido del cerebro».

En la Universidad de Cambridge Nicholas Humphrey estudió junto  con Lawrence Weiskrantz el fenómeno de la visión ciega en una mona llamada Helen, a la que se le extirpó quirúrgicamente casi la totalidad de su corteza visual. Durante siete años se trató a Helen como si no estuviera ciega intentando descubrir si poseía algún tipo de visión residual (ya que las áreas visuales inferiores de su cerebro estaban intactas). Los resultados fueron sorprendentes:

Progresó tanto en los años siguientes que eventualmente ya podía moverse con destreza en una habitación llena de obstáculos y tomar diminutas grosellas del suelo. Podía incluso capturar al vuelo una mosca. Su visión espacial tridimensional y su capacidad de discriminar entre objetos que diferían en tamaño o brillantez se tornó casi perfecta. No obsante, no recuperó la capacidad de reconocer formas o colores; y también de otras maneras su visión siguió siendo extrañamente inepta. Al correr por una habitación  parecía tan confiada como cualquier mono normal. Pero la menor perturbación la desorganizaba por completo: un ruido inesperado, y hasta la presencia de una persona desconocida en el cuarto eran suficientes para reducirla a un estado de confusión ciega. Era como si, incluso después de todos estos años, ella no estuviera aún segura de su propia capacidad… y podía ver siempre que no se esforzara en hacerlo.

A los pacientes ciegos a los que se somete a pruebas en las que, «a ciegas», tienen que localizar un objeto, les da vergüenza y son reacios a participar. Les parece que están haciendo algo absurdo tal como a nosotros nos parecería apagar la luz de una habitación en la que jamás hemos entrado e ir diciendo dónde están colocados los objetos. Y aún sabiendo que poseen algún tipo de visión inconsciente que les hace acertar más veces que si eligieran al azar, les parece absurdo porque, cuando realizan el ejercicio, no tienen ninguna razón consciente para elegir que el objeto está en tal o cual posición. A los seres humanos no nos gusta llevar a cabo acciones sin propósito, sin una razón previa que les dé sentido.

Esta idea refuerza la tesis de que la consciencia es una «central de noticias» cuya principal finalidad es dotar de un sentido narrativo a nuestros actos. La visión de Helen era completamente inconsciente, por lo que funcionaba bien siempre que su consciencia no entrara demasiado en acción. Quizá, como la consciencia de un mono debe ser más rudimentaria que la nuestra, la mayor parte del tiempo Helen podía actuar «viendo» su entorno. Sin embargo, cuando se encontraba ante una nueva situación, ante un nuevo problema que requería que su consciencia se activara, sus visión inconsciente se volvía inoperativa. ¿Por qué? Porque para enfrentarse a un nuevo problema la consciencia requiere realizar acciones con sentido y Helen solo veía, por decirlo de alguna manera, sin razón alguna.

Os dejo el vídeo en donde podéis verla comportarse de modo tan sorprendente:

Falsa identidad

Publicado: 11 abril 2013 en Filosofía de la mente
Etiquetas:,

Hace un tiempo publiqué una entrada en la que pretendía reflexionar sobre «dónde» reside la nuestra identidad con el conocido experimento mental de la teletransportación. Hace unos día Jesús Zamora publicó una entrada en su blog en donde también se reflexionaba sobre el mismo tema. Una de las respuestas que más me llamaron la atención, ya que fueron repetidas por diversos contertulios y, además, parecen contar con cierta base en experimentos neurológicos, fue la negación de la existencia real de tal identidad tachándola como una mera ilusión. Vamos a reconsiderar esta vía de pensamiento que, además, ya hemos mantenido en muchas otras entradas.

Parece que nuestro cerebro funciona de modo discontinuo. Nuestra consciencia de la realidad parece operar como si fuera un scanner que va haciendo barridos cada pocos milisegundos (de forma muy sugerente, todo lo que pasa en menos de ese tiempo no es registrado por nuestra mente, literalmente no existe para nosotros). En cada uno de estos barridos construimos lo que pasa a nuestro alrededor: registramos los colores, las formas, los sonidos, las sensaciones, etc. que ocurren en ese pequeñísimo lapso de tiempo. Cuando éste pasa volvemos a realizar un nuevo barrido tal y como si hiciéramos fotos con una cámara con un obturador muy rápido. Sin embargo, la realidad no se nos muestra discontinua, no se nos muestra como un conjunto de fotografías, una detrás de otra, sino que se nos presenta continua. Esto se ejemplifica de modo muy claro en el conocido Efecto Phi, descrito por Wertheimer en 1912, y que supone la base de todos nuestros sistemas de visionado de imágenes en movimiento.

muybridge

Este conjunto de imágenes sería lo que realmente percibe nuestra conciencia haciendo sus barridos. Sin embargo, nuestra mente crea la ilusión de movimiento y nos hace ver esta secuencia de imágenes como el continuo galopar de un caballo. Donde solo hay discontinuidad, nuestra mente crea la ficción de continuidad.

Entonces el dilema es el siguiente: si entendemos que nuestra identidad, nuestro yo, tiene dos características principales: la mismidad (yo siento ser yo mismo durante toda mi existencia) y la continuidad (yo siento ser yo mismo durante un largo lapso de tiempo, a saber, toda mi vida), ambas quedan dañadas si aceptamos que el modus operandi de nuestra mente no tiene nada de continuo.  De hecho, si comprobamos lo que realmente somos vemos que no hay ninguna continuidad aunque nuestra mente se empeñe en dárnosla. Si pensamos que somos un compuesto de materia (un conjunto de átomos) y forma (esos mismos átomos estructurados de una forma determinada) podemos comprobar que no hay continuidad temporal alguna en ninguno de los dos casos:

1. Materia: nuestro cuerpo se va regenerando, está cambiando constantemente sus compuestos. Al alimentarnos ingerimos compuestos nuevos y mediante la excreción expulsamos los viejos. Seguramente, si comparamos la materia de la que estábamos hechos cuando éramos bebés y la que nos forma al ser ancianos, muy poquito quedará de los primeros en los últimos. La materia no nos define.

2. Estructura: es evidente que cuando yo era un bebé la forma de mi cuerpo y mis habilidades eran completamente diferentes a las que tengo ahora. Y aunque ciertas estructuras se mantengan durante un tiempo prolongado, ya argumentamos aquí que algo no puede solamente ser estructura.

Entonces, si tanto mi materia como mi estructura no han sido continuas a lo largo de mi existencia, ¿por qué nos obstinamos en creer que somos los mismos en todos los momentos de nuestra vida? Porque nuestra mente crea esa ilusión, nada más.

Si pensamos un poquito más podemos llegar a las inquietantes consecuencias que tiene aceptar esta idea. Yo solo soy yo, idéntico a mí mismo y continuo, durante esos milisegundos que mi consciencia fotografía de la realidad. Al siguiente barrido, y a pesar de que mi mente quiera engañarme con la sensación de continuidad, ya dejo de ser el mismo que era, soy otra persona diferente. Dicho de otro modo: nacemos y morimos a cada segundo.

Otra forma de ver esto algo menos radical es pensar que aunque la continuidad que mi consciencia crea no fuera del todo una ilusión, dicha continuidad queda dañada cada vez que la conciencia se apaga, es decir, cada vez que dormimos o quedamos inconscientes. Cuando yo me echo una siesta, la persona que se despierta después es otra diferente a la que se acostó, a pesar de que mi mente se empeñe en engañarme con la sensación de continuidad. La consecuencia es parecida a la de la postura anterior: nacemos y morimos cada vez que dormimos y despertamos.

Es interesante pensar que, a pesar de que esto podría ser cierto, es imposible no vivir así. Yo, aunque sepa que no soy la misma persona que vivió en el segundo anterior o que se acostó hace unas horas, no puedo abandonar esa ilusión, no puedo vivir pensando que soy otra persona, estando obligado mentalmente a seguir siendo yo mismo. Lo mismo pasa con la libertad. Aunque hemos defendido que es otra ilusión de nuestro cerebro, es imposible vivir como si no eligiéramos nuestras decisiones con libre arbitrio. Ambas ilusiones son ficciones de las que no podemos desprendernos aunque sepamos que no son ciertas. Como decía Sartre (en un sentido muy diferente claro) «estamos condenados a ser libres», a lo que habría que añadir también que «estamos condenados a ser nosotros mismos».