Posts etiquetados ‘Michael Graziano’

Leo este artículo de un tal Michael Graziano. Otra propuesta más de cómo construir una máquina consciente, deshaciendo ese gran “pseudoproblema” que es el hard problem. Nada nuevo bajo el sol y la enésima prueba de que no se comprende bien el tema.

Graziano va introduciendo los elementos que habría que implementar en una máquina para que fuera consciente. Pone el ejemplo de ser consciente de percibir una pelota de tenis. En primer lugar hay que darle a la máquina información acerca de la pelota. Graziano insiste, y ahora veremos por qué tanto, en que la información que tenemos del mundo real es tan solo un esquema, una serie de indicadores que nos sirven para reconocer el objeto pero no para tener una información real y completa de él. Percibir una pelota de tenis no es tener en la mente otra pelota de tenis similar a la percibida, es únicamente tener una serie de datos que nos permitan reconocer y utilizar la pelota. La razón es que sería un grandísimo derroche de recursos tener una copa absolutamente fidedigna del mundo en nuestra mente, cuando lo único que nosotros necesitamos es funcionar eficientemente en él, es decir, adaptarnos a él.  Hasta aquí todo correcto.

Graziano dice que si le preguntásemos a la máquina si es consciente de la pelota de tenis, ésta no sabría cómo responder ya que le falta otra parte importante de la ecuación: información sobre sí misma. Para ser consciente de algo hace falta un sujeto, alguien que sea consciente del objeto. La solución es implementar en la máquina información sobre sí misma. Podemos darle información sobre su cuerpo, la posición de sus piezas, etc. De nuevo, esta información es un nuevo esquema. Nosotros no conocemos la posición de todos y cada uno de los átomos de nuestro cuerpo, ni siquiera sabemos muy bien dónde están ciertos órganos ni mucho menos cómo funcionan. Tenemos un mapa borroso e impreciso de nuestro cuerpo. Bien, se lo implementamos.

Si, de nuevo, le preguntamos a la computadora si es consciente de la pelota, volvería a fallar. Tiene información de la pelota y de sí misma, pero no de la relación entre ambas cosas. Graziano cree que la neurociencia estándar ha descuidado por completo esta relación, y parece pensar que ha descubierto América al hacernos caer en la cuenta de su importancia. Sí, en unos veinticinco siglos de historia de filosofía de la mente, a nadie se le había ocurrido pensar en cómo el hombre se piensa a sí mismo pensando. Probablemente habrá cientos de miles de páginas sobre el tema. Pero vale, no seamos malos y perdonémosle a Graziano estos deslices. Sigamos.

Tercer paso y el más crucial: hay que implementar en la máquina esa relación entre el objeto y el sujeto ¿qué le ponemos?  Graziano piensa que, de nuevo, hay que introducirle un esquema (Además, dado que según él la neurociencia no tiene nada que decirnos, no podríamos hacer otra cosa). Habría que implementarle propiedades generales de lo que significa prestar atención a algo. Por ejemplo, podríamos hacer que definiera atención como “poseer mentalmente algo” o “tener algo en mi espacio interior”. No importa que las definiciones pudiesen ser falsas, incompletas o muy imprecisas. Lo importante es sacarlas de la psicología popular, de cómo las personas nos referimos a prestar atención.

Entonces, y aquí viene lo interesante, si nos ponemos a charlar con la máquina, ésta nos dirá que es consciente de la pelota de tenis. Ella no sabe que funciona mediante microchips de silicio, ni que únicamente procesa información pero, en función de los datos que le hemos implementado, ella diría que no es una máquina y que tiene una propiedad no física que es ser consciente de una pelota de tenis, debido a que sus modelos internos son descripciones borrosas e incompletas de la realidad física.

Y ya está, para Graziano a esto se reduce el hard problem. Tenemos una forma útil aunque, en último término falsa, de referirnos a nuestra relación de atención entre los objetos del mundo y el modelo de nosotros mismos. Y de aquí surge la idea de consciencia, una mera forma de hablar que nos resulta muy práctica pero que, realmente no representa nada real. Graziano culmina el artículo hablando de que concebir la conciencia de otro modo es hablar de cosas mágicas. De nuevo volvemos al viejo funcionalismo que niega la existencia real de los qualia. Y, de nuevo, aunque Graziano seguro que no lo sabe, está repitiendo el antiguo esquema del conductismo lógico tan bien representado por Gilbert Ryle: la mente es un mero error en el uso del lenguaje.

Objeción a lo bruto desde el estado de ánimo que me causa leer este artículo: si yo cojo la pelota de tenis y la estrello en la pantalla de la “computadora consciente” ¿a la máquina le dolerá realmente? Y si cojo de nuevo la pelota y la estrello en la cara de Graziano ¿le dolerá igual que a la máquina o de otra manera diferente?

Objeción razonada una vez que me he calmado: Estoy bastante harto de leer teorías que, de uno u otro modo, niegan la existencia de los qualia y los equiparan con conceptos obsoletos como el de “alma” o “espíritu”, sosteniendo que hablar de ellos es hacer metafísica. No, queridos neurólogos e ingenieros varios, los qualia existen con una realidad aplastante. Cuando siento que me duelen las muelas, me duelen. Otra cosa es que el dolor no represente con precisión ninguna lo que ocurre en mis muelas (mi dolor no se parece en nada a millones de bacterias infectando un diente), que solo sea una especie de símbolo convencional para alertarme de que algo malo pasa en mi boca, pero el dolor existe con total plenitud ontológica.

La máquina de Graziano diría que es consciente pero, en realidad no lo sería. No tendría ningún tipo de sensación consciente, nada de nada. Lo único que hace es deducir una serie de conclusiones a partir de unas premisas erróneas que le hemos implementado a propósito. En el fondo, lo único que hemos hecho es programar a una computadora de la siguiente forma:

Premisa 1: Tu relación con la pelota de tenis es de consciencia.

Pregunta de Grazziano: Ves una pelota ¿eres consciente de ella?

Respuesta: En virtud de la premisa 1, deduzco que sí soy consciente.

La máquina solo ha hecho una deducción lógica, un sencillo modus ponens que el ordenador desde el que escribo esto realiza millones de veces por segundo, sin ser nada consciente de que lo hace. Y es que Graziano hace un juego muy tonto. Aunque no lo diga explícitamente y parezca deducirlo del resultado del experimento mental con la máquina, él parte de la premisa de que la consciencia es una ilusión útil. Entonces crea una máquina a la que le pone por premisa creer que es consciente sin serlo. Después, parece fingir sorpresa (dice que le resulta espeluznante) ante que la máquina diga que es consciente.

Lo repetimos: señores ingenieros de IA, psicólogos congitivos, neuorocientíficos y pensadores de diversa índole, no necesitamos máquinas que finjan, simulen, digan o prometan por el niño Jesús que son conscientes. Los qualia son muy reales y tenemos que construir máquinas que realmente los tengan. Entiendo que, de momento, no tengamos ni idea de cómo hacerlo. Pues sigamos estudiando el sistema nervioso, pero no nos lancemos tan deprisa a decir majaderías.