Archivos de la categoría ‘Filosofía de la mente’

Para un trabajo que realicé para la asignatura Bases Neurológicas de la Cognición del Máster en Ciencias Cognitivas que imparte la Universidad de Málaga, tuve que enumerar una serie de características que yo considerada imprescindibles para crear una máquina que imitara el funcionamiento del cerebro humano. Concedo que son principios muy generales, pero creo que no hay que perderlos de vista porque son, esencialmente, verdaderos, y uno se encuentra por ahí, más veces de lo que querría, con teorías de la mente que se alejan, muy mucho, de ellos.

  1. El cerebro es un kludge (klumsy: torpe, lame: poco convincente, ugly: feo, dumb: tonto, but good enough: pero bastante bueno) fruto de la evolución biológica. Tal como defiende el neurocientífico David Linden (Linden, 2006), si aplicamos los principios de funcionamiento de la selección natural, el diseño del cerebro dista mucho de ser una máquina perfecta fruto del trabajo racional de ingenieros, siendo más bien un cúmulo de chapuzas, de soluciones, muchas veces poco eficientes, que lo único que han pretendido es aumentar el fitness del organismo dado un ecosistema concreto. Teniendo en cuenta que los ecosistemas cambian debido, por ejemplo, a cambios en las condiciones climáticas o por aumentos o disminuciones en las poblaciones de competidores, lo que hoy podría ser una excelente adaptación, mañana puede ser una carga inútil. Es por eso que nuestro cerebro puede estar lleno de órganos rudimentarios (adaptaciones que perdieron su función pero que no fueron eliminados) y exaptaciones (antiguas adaptaciones que se están rediseñando en la actualidad para una nueva función), o de las famosas pechinas de Jay Gould y Richard Lewontin (elementos que solo obedecen a necesidades estructurales de auténticas adaptaciones). También hay que tener en cuenta que el cerebro no es una máquina acabada, sino que, al seguir siendo afectado por la selección natural, sigue construyéndose, siempre siendo un estado intermedio. El cerebro, al contrario que cualquier máquina diseñada por el hombre, tiene una larga historia biológica, lo cual, dicho sea de paso, dificulta mucho la labor de ingeniería inversa necesaria para su estudio.
  2. El cerebro como una máquina de movimiento. La gran diferencia entre el reino animal y el vegetal fue, originariamente, la capacidad de movimiento. Se da el hecho de que las plantas no tienen sistema nervioso y esto se explica, precisamente, por su quietud: si apenas te mueves no necesitas un complejo sistema que ligue tu percepción al control del movimiento. Por tanto, el sistema nervioso surge con la función biológica de coordinar la percepción con el sistema motor. Podemos entonces entender que muchas de las funciones cognitivas actuales son exaptaciones de funciones perceptivo-motoras. O dicho de otro modo: nuestro cerebro se construyó a partir de otro que únicamente servía para percibir y moverse, por lo que parece esencial, comprender bien cómo eso puede afectar al diseño del cerebro. Pensemos como sería construir un ordenador personal a partir de las piezas de un automóvil.
  3. El cerebro como máquina de visión. El órgano de los sentidos que mejor servía para moverse eficazmente en el mundo animal, ha sido la visión (con honrosas excepciones como la ecolocalización de los murciélagos). Y es por ello que los animales más evolucionados como los mamíferos superiores tienen los mejores sistemas visuales de toda la biosfera ¿Qué es lo que ve, lo que percibe nuestro cerebro? En este sentido es muy interesante la teoría de la interfaz (Hoffman, 1998 y 2015) del científico cognitivo Donald Hoffman ¿Percibimos la realidad tal cómo es? No. En primer lugar hay que tener en cuenta que el cerebro no es una máquina con infinitos recursos sino que tiende a optimizarlos para competir en situaciones de escasez. Percibir toda la realidad sería un enorme derroche cuando solo tiene que percibir necesario para aumentar sus posibilidades de supervivencia y reproducción: alimento, presas/depredadores y parejas sexuales. Todo lo demás, lo que es indiferente a los factores evolutivos no tiene por qué ser percibido. Y después, tampoco hace falta percibir lo que se percibe tal y como es, sino que nos bastaría con una etiqueta, con un símbolo que, sencillamente, identificara la función de lo percibido. Es por eso que Hoffman nos habla de nuestra percepción como una interfaz, como el típico escritorio de Windows lleno de iconos. Pensemos que cada icono es un símbolo que representa una función (Abrir el programa determinado), pero ese símbolo no tiene nada que ver (no se parece en nada a su función), pero es muy práctico y eficiente: un pequeño dibujito vale como etiqueta para indicarme que debo hacer clic en ella para ejecutar un programa (el cual puede ser tremendamente complejo en sí mismo). Por otro lado, el órgano de los sentidos que más información proporciona al ser humano, es con diferencia, la visión (el córtex visual ocupa casi un tercio del volumen del cerebro), por lo que a la hora de establecer cómo procesamos la información y cómo realizamos acciones cognitivas o conductuales, habría que tener muy en cuenta que, principalmente, trabajamos con información visual, por lo que habría que tener muy en cuenta sus propiedades y peculiaridades con respecto a otros tipos de información.
  4. La división entre rutinas y subrutinas. En su famosa obra The society of mind (1986), el informático Marvin Minsky nos describía el cerebro como un gran conjunto de pequeños módulos funcionales que realizan tareas relativamente sencillas pero que, trabajando coordinadamente, hacen emerger una conducta muy inteligente. Esto nos da dos ideas: en primer lugar nos sirve para establecer la distinción entre procesos conscientes y subconscientes. La tarea de esos sencillos módulos funcionales (que quizá podrían identificarse con clusters de redes neuronales) ocurriría a nivel inconsciente, siendo únicamente el resultado, lo que aparece a nivel consciente (o, si no, solo el trabajo de ciertos tipos de módulos encargados, precisamente, de los procesos conscientes). Y, en segundo lugar, da pie a todo el programa de investigación conexionista (en redes neuronales artificiales): buscar modelos matemáticos del funcionamiento del cerebro centrados en sus unidades básicas (la neurona) y en sus relaciones (las redes). Una neurona es una célula relativamente sencilla, pero millones de ellas funcionando en paralelo podrían dar lugar a comportamiento complejo. Como Rodney Brooks (Brooks, 1991) demostró en sus investigaciones en robótica, es posible hacer emerger comportamiento inteligente mediante un conjunto de dispositivos sin que exista ningún módulo de control que dirija la acción. Serían dispositivos automáticos que actúan siguiendo el patrón percepción-acción sin apenas procesamiento de la información. En este sentido la metáfora del funcionamiento de los programas informáticos actuales es perfecta: un programa llama constantemente a otros (llamados subrutinas) para que le den un valor, un resultado. El programa principal no sabe qué hacen ni cómo funcionan cada uno de estos subprogramas, pero le son útiles porque le dan el resultado que necesita para acometer una determinada tarea. Incluso puede ser el caso de que funcionen sin ningún tipo de comunicación con ningún centro de mando, sencillamente realizando una tarea de forma completamente autónoma.
  5. Conocer es actuar. Ha sido un gran error histórico (quizá el mayor error de la historia de la filosofía) entender el conocimiento desde la gnoseología platónico-aristotélica, es decir, entender que conocer consiste en volver a presentar (re-presentar) el mundo exterior a nosotros, abstrayendo una especie de esencia incluida en el objeto conocido y “colocándola dentro” de nuestro entendimiento. Esta concepción mixtifica, sobrenaturaliza la acción de conocer y, evidentemente, saca el estudio del conocimiento del ámbito científico. Conocer no es repetir el mundo exterior dentro de nuestro mundo interior, ya que eso nos llevaría a una cadena infinita de homúnculos. Conocer es un acto biológico con finalidades evolutivas que no tiene nada que ver con representar el mundo. Sería absurdo que nuestra percepción fuera como una cámara de fotos que solo intenta hacer una réplica lo más fidedigna posible de lo fotografiado porque ¿qué hacer luego con la foto? ¿Para qué queremos, solamente, una foto realista? La información obtenida mediante los sentidos es procesada, manipulada o transformada simbólicamente, para hacer cosas con ella, para intervenir en la realidad y no para describirla. Conocer es un proceso que tiene que entenderse exactamente igual que cualquier otro proceso biológico como la digestión o la acción del sistema inmunitario. Y, en un nivel inferior, el acto de conocimiento es una acción físico-química como cualquier otra. Cuando percibimos mediante la vista, el primer paso se da cuando fotones golpean las capas de discos membranosos de los fotorreceptores de nuestra retina, generando una cascada de disparos neuronales que forman patrones que posteriormente serán procesados por redes neuronales. En toda esta compleja red de procesos no se atrapa ninguna esencia ni se repite ni siquiera una supuesta estructura de la realidad, sino que se elabora un mapa funcional, se elabora todo un sistema para tomar decisiones de modo eficiente.
  6. Módulos cerebrales de reconocimiento de patrones (Kurzweil, 2013) Parece que lo que mejor saber hacer las últimas herramientas de la IA conexionista, las redes neuronales convolucionales, es encontrar patrones en entornos poco (o nada) formalizados, es decir, muy difusos. Así están venciendo uno de los grandes obstáculos de la IA: la visión artificial. Ya existen redes neuronales que distinguen rostros con suma fiabilidad, o que reconocen cualquier tipo de objeto que observan, estando ese objeto en diferentes posiciones, iluminado con diferentes intensidades de luz, incluso en movimiento. Esto sirve como fuerte indicio para apostar por una teoría computacional de la percepción y del conocimiento: si al utilizar redes neuronales artificiales conseguimos hacer máquinas que ven de una forma, aparentemente, muy similar a la nuestra, será porque nuestro cerebro también funciona así. Además, una de las teorías de la percepción más influyentes del siglo XX, la famosa Gestalt, ya afirmaba que la percepción no consistía en la suma de todos los estímulos visuales (como sostenía la escuela elementarista), sino en dar sentido, en comprender una estructura profunda de la imagen vista (en, según sus propios términos, obtener una gestalten). Ese sentido que otorga significado a lo observado bien puede entenderse como el reconocimiento de un patrón. Además, esta forma encaja perfectamente con la teoría de la interfaz de Hoffman: no percibimos todo ni lo real, sino una información (que será deseablemente la mínima) suficiente para responder adecuadamente.

Imagen del artista Pablo Castaño.

El conductismo, en cualquiera de sus versiones, siempre me ha parecido algo extravagante. En su versión débil, el conductismo epistemológico, sostiene que si bien la mente puede existir, la psicología ha de centrarse exclusivamente en la conducta observable y renunciar per secula seculorum a hablar de la psique humana en términos mentales. Debido a que el concepto de mente no se antoja muy científico a nuestros instrumentos de observación habituales, y el principal método de análisis mental, la introspección, no es muy fiable, prescindimos radicalmente de él, y solo observamos la conducta. Esto, ya de primeras, se intuye como un total despropósito pues… ¿cómo explicar la conducta de una persona prescindiendo absolutamente de lo que ocurre dentro de su cabeza? Pero es más, está la versión fuerte, el conductismo ontológico, el cual no solo no permite estudiar lo mental, sino que sostiene sin ambages, que la mente no existe. Algunos autores afirmarán que la mente es un pseudoconcepto, como antes lo fueron el flogisto, el calórico o el éter. Cuando la ciencia avanzó, fue desechándolos. Así, cuando las neurociencias progresen, toda la conducta humana podrá explicarse en su totalidad sin tener que hablar, en absoluto, de la mente.

De primeras, ya digo, todo parece muy exagerado, muy forzado. Sin embargo, cuando lees que pensadores del calibre de Rudolf Carnap, Gilbert Ryle, Dan Dennett, o incluso el mismísimo Ludwig Wittgenstein, lo han defendido, la idea no puede ser tan mala. Bien, vamos a ver qué virtudes puede tener:

  1. Eliminar una idea de mente mitológica y pseudocientífica. Parece muy saludable extirpar de la práctica científica conceptos como “alma”, “espíritu” o cualquier otra entidad “inmaterial, eterna e inmortal” que la tradición metafísica occidental ha usado continuamente.
  2. Prescindir de cualquier tipo de dualismo y de sus problemas. El conductismo ontológico es monista: solo existe la conducta observable, por lo que no hay que intentar explicar las, siempre controvertidas, relaciones entre mente y cuerpo. Así, para el conductista no hay ningún abismo ontológico entre la mente y el mundo (pues solo hay mundo), ni tampoco existe el escepticismo hacia las otras mentes (está en el mismo plano decir “Yo me siento triste” que “Él se siente triste”: ambas son conductas externas observables). El conductismo es radicalmente anticartesiano y al serlo se quita de todas sus dificultades.
  3. Se permite a la psicología ser independiente de las neurociencias. La conducta, y no el cerebro, es su objeto de estudio exclusivo. Así, la psicología puede ser una ciencia por derecho propio.

De acuerdo, ¿pero cómo soluciona el conductismo algo tan evidente como la causalidad mental? Si yo creo que va a llover y, en consecuencia, salgo a la calle con un paraguas, lo único que un conductista puede observar es mi salida a la calle con el paraguas ¿Cómo puede explicar el que yo cogiera el paraguas si no es apelando a mi creencia en que va a llover, algo que no es una conducta sino un pensamiento, algo tradicionalmente mental? Gilbert Ryle nos ofrece una solución: las creencias, deseos, etc. (lo que los filósofos llamamos actitudes proposicionales), son tan solo disposiciones conductuales, es decir, propensiones a realizar o no realizar una conducta. Por ejemplo, mi creencia en que va a llover queda definida como la disposición a realizar la conducta de coger un paraguas. Es una jugada maestra: todo lo que antes se consideraría como un contenido mental, pasa a ser definido exclusivamente en términos de conducta y, así, el conductismo sale airoso de lo que parecía ser su principal problema. Además, por si acaso nos encontráramos con la dificultad de explicar la variedad de conductas humanas que se dan ante la misma creencia (por ejemplo, mi creencia en que va a llover podría haber causado que yo cogiera un chubasquero en vez de un paraguas), Ryle nos habla de disposiciones conductuales de múltiples vías: una misma disposición puede manifestarse en diferentes conductas.

El segundo Wittgenstein hacía hincapié en el aspecto normativo de la disposición.  Mi creencia en que va a llover estipula qué conductas serían correctas o incorrectas. Si en vez de sacar un paraguas, salgo a la calle con una trompeta, evidentemente, habré ejecutado una conducta errónea. Muy interesantes son, al respecto, las consecuencias para la teoría de la verdad: que algo sea verdadero o falso no tiene nada que ver con ninguna adecuación de mis representaciones mentales a la realidad, ya que no existe ningún tipo de representación mental sensu stricto, sino en un ajuste entre mi conducta y la conducta correcta.  El debate, claro está, estará en determinar de dónde surge y quién determina qué es y qué no es correcto.

Bien, la propuesta es ingeniosa y tiene virtudes pero, sin embargo, sigue siendo terriblemente contraintuitiva ¿De verdad que no existe nada que podamos considerar mental? ¿De verdad que puede reducirse todo contenido mental, únicamente, a conducta? ¿De verdad que no tenemos mente? Hillary Putnam nos ofrece un sencillo experimento mental pare evidenciar lo difícil que se nos hace eliminar nuestra mente interior. Imaginemos un grupo de antiguos guerreros espartanos. Durante mucho tiempo se han entrenado en la habilidad de resistir el dolor sin realizar acción alguna más que la consecuente conducta verbal consistente en informar a los demás de que se siente dolor. Así, esos superespartanos, pueden ser gravemente heridos en combate pero no mostrarán más conducta de dolor que mover sus labios y decir “Me duele”. Hasta aquí no hay ningún problema con el conductismo. El dolor seguiría siendo una disposición conductual a proferir una determinada conducta verbal. Putnam nos dice entonces que imaginemos a los super-superespartanos, una élite dentro de los superespartanos que, tras durísimos entrenamientos, habrían conseguido incluso eliminar cualquier necesidad de proferir palabra alguna para referirse al dolor. Los super-superespartanos serían tan duros que, a pesar de que les sacarán una muela sin anestesia, no mostrarían el más mínimo indicio externo de dolor. Y aquí sí que hay problemas para el conductismo: si no hay ni conducta externa observable ni propensión conductual alguna, no hay nada; sin embargo, nos parece evidente que los super-superespartanos sentirían dolor igual que cualquier otro ser humano. Ergo, la mente no es reductible a conducta.

El conductismo se parece a un zapatero que quiere meter un pie muy grande (la mente) en un zapato muy pequeño (la conducta), e intenta mil y un peripecias para que encaje pero nunca lo consigue. El conductismo es un nuevo ejemplo de la expresión intentar meter con calzador.

Ilustración de Emmanuel MacConnell.

Cuando Descartes abre la Edad Moderna con su cogito ergo sum, nos viene a decir que el único punto indestructible, el único cimiento lo suficientemente sólido para construir el gran edificio del saber es el “Yo”, entendido como la totalidad del mundo psíquico de una persona. Todo lo que pienso puede ser falso, pero el hecho de que pienso es indudable, una verdad claradistinta.

Esta idea se ha tendido a interpretar, demasiadas veces, como que, aunque no tengamos certeza ni siquiera de la existencia de los objetos percibidos, sí que la tenemos con respecto de sus cualidades subjetivas, es decir, de lo que “aparece en mi mente” cuando yo percibo el objeto. Es posible que la manzana que percibo como roja no sea realmente roja, pero “la rojez” que yo percibo es absolutamente real y nadie podría negarme que, al menos en mi representación mental, la manzana es indudablemente roja. Sería posible que en el universo no hubiera nada rojo, pero yo estoy completamente seguro de que “en algún lugar de mi mente” yo estoy viendo algo rojo. En consecuencia, los informes introspectivos que un sujeto hace sobre sus representaciones mentales, sobre su mundo subjetivo, solían considerarse como infalibles. Nada más lejos de la realidad o, como mínimo, tendría que decirse que los informes introspectivos son tan dudosos como los informes del mundo exterior. No hay ninguna razón para darles esa primacía epistemológica. Hagamos un pequeño experimento.

El ángulo de nuestro foco de atención visual es muy pequeño. Fije el lector la vista en la letra X del centro de la tabla. Ahora intente identificar las letras que hay alrededor sin mover los ojos. Lo normal será que no pueda pasar de las ocho letras inmediatamente circundantes a la X. El resto de la tabla queda completamente borrosa.

Ahora apliquemos este pequeño descubrimiento a la percepción de una imagen real. Cuando observamos, por ejemplo, las Meninas de Velázquez, creemos que vemos algo así:

Cuando, verdaderamente, si nuestra atención se centra en la infanta Margarita, lo que vemos se parece más a esto:

Nuestro campo visual es mucho más borroso y desenfocado de lo que creemos experimentar y, por tanto, la cualidad de “claridad”, “enfoque”, “límite preciso” que parece tener nuestra experiencia visual, es tan solo una ilusión. Ergo, no podemos fiarnos, al menos siempre, de la veracidad de nuestras propias representaciones. Aunque parezca muy extraño, es posible no percatarse de lo que uno cree que se está percatando.

Pero podemos indagar un poco más. No solo ocurre que no puedo estar seguro de que veo lo que veo, sino que el informe lingüístico que hago cuando hablo de ello tiene serias limitaciones. Es lo que los filósofos de la mente llaman la inefabilidad de los qualia. Fíjese el lector en la siguiente escala de azules. En general, podemos distinguir bien unos tonos de otros.

Sin embargo, si queremos explicar a otra persona la diferencia entre unos colores u otros, pronto nos encontramos con que nuestro lenguaje es paupérrimo para esta tarea. Solamente se nos ocurre decir que unos colores son levemente más claros que otros o, en el caso de este ejemplo, podríamos referirnos a otros colores, diciendo que tal o cual azul tiene un toque más verdoso o más violeta. Ya está, no hay más palabras ¿Es nuestra ignorancia a nivel pictórico la causante de esta pobreza léxica? No, un profesional del color tampoco tiene muchas más expresiones que nosotros. Y es que la única forma de saber qué es un color (a nivel fenomenológico) es percibirlo directamente, porque sus propiedades son inefables. El ejemplo que siempre se utiliza por su calidad ilustrativa es que no podemos enseñarle a un ciego de nacimiento qué es el color azul. Imagine el lector cómo podríamos explicarle las diferencias entre los distintos tonos de azul ¡Imposible!

Una de las razones de ello es que las diferentes modalidades sensoriales (vista, olfato, tacto, etc.) son absolutamente irreductibles las unas a las otras. A no ser que seamos sinestésicos, no podemos explicar una experiencia sonora en términos de colores, sabores u olores. Solo podemos hablar de cada modalidad sensorial apelando a elementos dentro de la propia modalidad: puedo hablarle a alguien de un grupo de música que me gusta, refiriendo a la música de otros grupos musicales parecidos, pero no de otra manera.

Según un, ya clásico, estudio de Hasley y Chapanis de 1951, los humanos somos capaces de discriminar  unos 150 tonos de color subjetivamente diferenciados entre los 430 y los 650 nanómetros. Sin embargo, si se nos pide identificarlos con precisión, solo somos capaces de hacerlo con unos 15 tonos. Por ejemplo, si miramos la escala de azules somos perfectamente capaces de distinguir unos tonos de otros. Pero si se nos pidiera que seleccionáramos un color (por ejemplo el PMS 293) y después se nos mostrara otra escala con muchos otros tonos de color azul desordenados con ese color entre ellos, nos resultaría difícil encontrarlo. De la misma manera pasa con el sonido: un oyente promedio es capaz de discriminar unas 1.400 variaciones de tono, pero solo puede reconocer de forma aislada unas 80. Somos muchísimo mejores diferenciando colores o tonos musicales que reconociéndolos. En la percepción hay mucho de lo que no sabemos, o no podemos, hablar.

El problema de la inefabilidad supone un gran desafío a la ciencia. Si solo tenemos acceso a nuestros estados subjetivos mediante la introspección, y si tanto ésta puede ser engañosa (El filósofo Daniel Dennett compara la consciencia con un hábil ilusionista), como nuestro lenguaje incapaz de hablar de ella, tendremos serios problemas para generar conocimiento de algo que, curiosamente, es lo más cercano e inmediato que tenemos.

Suele decirse que un buen método para saber si estás soñando consiste en pellizcarse. Si duele estás despierto y si no, estás soñando. Nada más lejos de la verdad: si estás soñando, a no ser que hayas sido entrenado en sueños lúcidos por Stephen Laberge, no sabes que estás soñando y no hay forma de saberlo. Por decirlo poéticamente, los sueños son unas prisiones perfectas: no puedes escapar de ellos porque, precisamente, no sabes que estás en uno de ellos. A esta propiedad la llamamos en filosofía de la mente transparencia.

La transparencia no es única de los sueños, sino que también es propia de nuestra percepción de la realidad. Todos nosotros nacemos realistas ingenuos (Naïve realism), pensamos que lo que observamos por nuestros sentidos es la auténtica y pura realidad al desnudo. Creemos que el árbol que tenemos delante de nuestros  ojos tiene esas formas y colores de un modo absolutamente objetivo. Es por eso que si viviéramos en la matrix de las Wachowski, no habría forma de escapar de allí hasta que Morfeo viniera a rescatarnos (solo pueden salvarte desde fuera, tú nunca podrías salir desde dentro). Pero, ¿es que acaso lo que percibimos no es el mundo real? ¿El árbol que veo delante de mis ojos no está, realmente, delante de mis ojos? No.

El primer argumento contra el realismo ingenuo va referido al tiempo. Creemos que lo que percibimos visualmente ahora mismo, está pasando, realmente, ahora mismo. Creemos que tenemos un acceso directo al presente. Sin embargo, esto es imposible: el cerebro necesita un tiempo para  procesar la información. Cuando vemos cualquier objeto, desde que la información visual golpea la retina y viaja por el nervio óptico, pasando por distintas áreas visuales y por el hipotálamo, hasta llegar a las zonas de asociación, pasan, como mínimo, unas milésimas de segundo. Por tanto, la representación mental que emerge en mi consciencia tiene, necesariamente, cierto lag, llega con retraso. No tenemos acceso directo al presente, sino solo a un pasado reciente. El árbol no está delante de nosotros, tan solo estaba delante de nosotros.

Otro argumento que a mí me parece muy sugerente (en la historia de la filosofía hay multitudes de ellos) es el basado en la teoría de la evolución que ya trajimos aquí con la teoría de la interfaz de Donald Hoffman.  Si la evolución biológica termina por premiar diseños eficientes, parece mucho más eficiente que no gastemos tantos recursos en percibir toda la realidad tal y cómo es, sino que utilicemos señales, símbolos, iconos, etiquetas, esquemas que nos permitan saber delante de qué estamos sin tener que saberlo todo. Si un tigre dientes de sable viene a devorarme, no hace falta que perciba todo lo que realmente es un tigre dientes de sable, sino solo lo necesario para saber que tengo que huir rápidamente de allí. Hoffman sostiene que nuestra mente es como el escritorio de nuestro ordenador, en donde los iconos representan los objetos que percibimos. El icono del reproductor de vídeo no se parece en nada a toda la serie de procesos electrónicos que suceden dentro del ordenador cuando ves un vídeo. Verdaderamente, a no ser que seamos ingenieros, no tenemos ni idea de cómo funciona todo ese mecanismo interno de voltajes, circuitos y transistores. Sin embargo, el icono funciona: cuando yo hago clic en él, el vídeo se escucha.

Pero aquí cabe otra pregunta: ¿por qué la evolución nos hizo realistas ingenuos? ¿Por qué hizo que la realidad se nos hiciera transparente? ¿Por qué engañarnos cual genio maligno cartesiano? Una posible respuesta nos la da Thomas Metzinger en la misma línea que Hoffman: porque requeriría un nuevo coste metabólico sin una finalidad evolutiva clara ¿Para qué me sirve saber que el icono “Tigre dientes de sable” no representa a un tigre dientes de sable real? Lo único que tengo que saber es que es muy peligroso y que hay que huir.

Aunque claro, aquí podemos entrar en un peligroso círculo vicioso: ¿Por qué yo he sido capaz, ahora, de darme cuenta de que no percibo la realidad tal y como es? ¿Por qué la evolución ha permitido que Hoffman y Metzinger lleguen a esta conclusión si no hay finalidad evolutiva alguna para ello? La respuesta está en que esta conclusión es el efecto colateral o secundario de otras habilidades que sí que tienen función evolutiva clara: nuestra capacidad de razonamiento, el lenguaje, la imaginación, etc. nos valen para sobrevivir, pero también para hacer otras cosas que no nos valen para nada. Es lo que llamamos el excedente cognitivo, si bien, para desarrollar esta idea convincentemente, requeriríamos muchas más explicaciones. Dese cuenta el lector que estamos ante una teoría no falsable en términos popperianos: afirmamos que todo tiene un origen biológico evolutivo, cuando lo encontramos todos contentos, pero cuando no, decimos que es un efecto colateral, exaptación, órgano rudimentario, etc. con un origen, igualmente, evolutivo. Siempre tenemos respuestas para todo y así siempre tenemos razón. Sospechoso. Hay que mejorar las explicaciones, afinar más: hay que profundizar mucho más en la teoría de la evolución. No me canso de afirmar que solo hemos tocado su superficie.

La transparencia solo se aplica a la observación directa de la realidad, al mundo que percibimos. Los demás contenidos de nuestra mente no son transparentes: cuando pienso, recuerdo, imagino, hablo… en los contenidos de esos procesos mentales no hay transparencia. Diferenciamos perfectamente la imagen mental de un coche de un coche de verdad. De la misma forma, la palabra “coche” no es un coche. Aquí la función evolutiva es clara: difícilmente sobreviviríamos si no supiésemos diferenciar el recuerdo de un tigre dientes de sable de uno de verdad. Y gran parte de la disfuncionalidad que causan ciertos trastornos psiquiátricos va en esta línea: los objetos mentales se vuelven transparentes, no hay forma de saber que no son reales.

 

Hoy un cuentecillo de ciencia ficción:

 

Macbeth:

She would have died hereafter.

There would have been a time for such a word-

Tomorrow, and tomorrow, and tomorrow,

Creeps in this petty pace from day to day,

To the last syllable of recorded time;

And all our yesterdays have lighted fools

The way to dusty death. Out, out, brief candle!

Life’s but a walking sahdow, a poor player

That struts and frets his hour upon theistage

And hen is heard no more. It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

***

Michael Chorost tenía un implante coclear en el interior de su cráneo que captaba una señal de radio de un pequeño receptor de audio instalado en su oído, la procesaba electrónicamente y transmitía la información al cerebro por medio de los nervios auditivos. Chorost podía desconectar el receptor de audio y conectar el dispositivo a un teléfono o reproductor de CD. Eso le permitía experimentar el sonido sin la presencia de ninguna onda de sonido en la sala en la que se encontraba. El sonido solo se reproducía en su cerebro sin ninguna vibración del aire, no existía fuera de él.

***

En 2013, el equipo de neurocientíficos del MIT dirigido por Xu Liu, consiguió introducir recuerdos falsos en el cerebro de ratones. Mediante una técnica denominada “optogenética”, que permitía activar o desactivar neuronas utilizando luz, consiguieron que los ratones sintieran miedo ante la posibilidad de una descarga eléctrica que jamás habían recibido y que, por tanto, era imposible que recordaran. Resulta llamativo que el primer recuerdo falso creado en un organismo fuera el miedo.

***

“Somos mirlos en los ojos de otros mirlos que se van”

Fragmento de la canción Héroes del sábado de la M.O.D.A.

***

¿Qué narrativa le ponemos al 22-43?

Vale, es difícil. Tiene treinta y cuatro capas. Si borramos a su mujer y a sus dos hijas tenemos que irnos muy atrás. Conoció a su esposa hace doce años, lo que nos lleva veinte capas al completo. El problema está en que tenemos que corregir muchísimas posibles incoherencias. El indicador de coherencia Veiger-Kuznets está a -0.24. A ver cómo cuadramos el hecho de trabajar como alto ejecutivo en la empresa de su suegro sin tener titulación académica ni para entrar como empleado de limpieza.

¿Qué te parece ésta, la 34A-3.765 a partir del vector 5.687.432? Se dio cuenta de que había perdido el tiempo, volvió a retomar los estudios. Para disminuir la incoherencia lo convertimos en una rata de biblioteca: en todos sus años de universidad no conoció a casi nadie.

Espera, su grado de extroversión es de 2.92, no encaja ¿Tenemos el permiso para modificar módulos nucleares de personalidad?

Sí, lo tenemos. El tío estaba realmente jodido. No le importaba nada con tal de olvidarlo todo.  Podemos convertirlo en tímido e introducirle trazas de fobia social.

Vale, pero no te pases. Recuerda que el cliente paga para ser más feliz. Si ahora lo convertimos en un agorafóbico no quedará muy contento. Que sea algo suave: sencillamente, se encuentra incómodo en lugares atestados de gente y disfruta mucho de su soledad.

Bien, cargo narración en los sectores 6C y 2WW ¿Correcto? Vamos también a borrar dos años completos aquí y aquí. Esos no parecen haber tenido demasiadas consecuencias en ningún hecho trascendente posterior.

Carga despacito. Recuerda lo sensible que es el hipotálamo. No queremos que el cliente termine con amnesia anterógrada.

Hay que meterle también el pack plus, la narrativa de Eduardo Vaquerizo. Es realmente magnífica. Es que Vaquerizo es el mejor escritor de narrativas neurales del mundo. Recrea emociones y sensaciones con una vivacidad increíble. Yo mismo me implanté un minipack de fin de semana. Ese de esquiar en Aspen y conocer a esa jovencita bielorrusa.

Y lo más interesante: sin que tu mujer se enterara. Jajaja.

Es que técnicamente, nunca he sido infiel a mi esposa ¿Por qué va a ser infidelidad acostarme con una chica que no existe? Jajaja.

Nunca he entendido lo de implantarte recuerdos manteniendo la consciencia de que son falsos ¿No te parece raro acordarte de cosas que nunca pasaron?

No pasa nada. Lo recuerdas exactamente igual que si hubiera ocurrido. Recuerdo perfectamente la montaña, los tejados nevados de las casas, los álamos, el viento frío en mi cara, los profundos ojos azules de la chica, el tacto de su pecosa piel… Mi mente no diferencia ese fin de semana de cualquier otro.

Ya, pero, no es verdad. Al implantarte falsos recuerdos estas creando conexiones causales en tu personalidad que vienen de la nada. Actuamos con respecto a nuestra experiencia pasada, esas narraciones configuran nuestro ser actual ¿No te parece inquietante modificarte a ti mismo a raíz de sucesos que nunca sucedieron?

No. De hecho, ese recuerdo me hace más feliz. No veo nada de malo en implantarnos falsos recuerdos si eso nos mejora. De hecho, gracias a ese fin de semana falso sé esquiar mejor.

¿Y no te lías? Cuando ya te has implantado un montón de falsos recuerdos… ¿No te perturba no saber cuáles fueron reales y cuáles no?

Tampoco es tan importante. Pero ya sabes que los recuerdos falsos están etiquetados, llevan la F-tag, de modo que siempre sabes que son falsos.

No sé… yo siempre digo con orgullo que soy cien por cien real: no tengo ni un solo recuerdo falso.

Tú lo que eres es virgen. Jaja. Te estás perdiendo un montón de cosas. La vida real es, en la mayoría de las veces, tan sombría y aburrida ¿Por qué no aliñarla con un toque de fantasía?

Es que no es exactamente fantasía, no es como leer un libro o ver una película, es meter en tu mente historias que nunca sucedieron… Es interferir en tu identidad biográfica.

¿Y qué haces cuando lees un libro? ¿Es que lo que lees no te influye? ¿No interfiere en tu identidad biográfica? Implantarse falsos recuerdos solo es dar un paso más.

Vale, terminamos. La historia es la de siempre: le han ascendido y comienza una nueva vida en una ciudad diferente. Se despertará en el vuelo que le lleva destino a Osaka. Las clásicas molestias cerebrales serán achacadas, como siempre, al jet lag. Terminamos por hoy. Mañana chequeamos las líneas de conexión interperiféricas, reparamos el daño neuronal y hacemos el análisis de niveles bioquímicos.

Cierro el compilador. Apagamos la consola y lo dejamos toda la noche cargando.

Vamos, te invito a una cerveza en el Diamond.

No, hoy no puedo. Mi mujer está muy pesada con el embarazo. Se ha vuelto bastante más territorial que de costumbre, así que nada de amigotes por un tiempo.

¿Seguro? Vamos, solo una birra y a casa.

No, no me tientes. De verdad que luego no hay quien la soporte.

Oye, una cosa: ¿cómo se llama?

¿Quién?

Tu mujer.

¿Mi mujer?

Sí, tu mujer.

Ya lo sabes, la conoces desde hace años ¿Por qué me lo preguntas?

Por nada, pero respóndeme, ¿Cómo se llama tu mujer?

¿Mi mujer?

Sí.

Jajaja… pues… joder… pues… espera.

El nombre de tu mujer.

Espera… jajaja… Eh… se me ha ido… espera…

Vamos, es muy fácil: su nombre.

Ya… no sé… lo tengo en la punta de la lengua.

Nada, chicos, otra vez, no ha funcionado.

No, pero… ¿qué pasa? ¿Por qué no la recuerdo?

Habrá que empezar de nuevo desde el vector 34.765.009 ¿Por qué falla siempre a partir de esa zona?

Un momento… explica… ¿qué pasa?

Lo siento tío. La chica de Aspen no es un falso recuerdo en tu mente sino al contrario: tú eres un falso recuerdo en la suya.

¿Cómo? No puede ser… jajaja. Venga tío no tiene gracia.

Sí, el nuevo minipack de fin de semana romántico para mujeres de Eduardo Vaquerizo. Tú eres el atractivo ingeniero de subjetividad infiel que conocen en la estación de esquí. Estamos probando tus líneas de coherencia.

Sí claro… venga tío… No puede ser… yo… yo…

Lo siento. Venga chicos, parar la simulación, vamos a ver si podemos depurar a partir del tercer breakpoint.

No puede ser… veo mi mano, es real… Yo… lo siento… siento el mundo que me rodea… yo… estoy vivo… o… existo… yo existo…

Una pena. Ha sido un placer. Reiniciamos.

 

It is a tale

told by an idiot, full of sound and fury,

Signifying nothing.

 

Estimados lectores, ya tenéis en Amazon la tercera recopilación de las mejores entradas de este blog. Así podréis leer lo más florido de la Máquina de Von Neumann cómodamente, en formato físico. Reconozco que aunque tengo mi e-reader y las ventajas de un cacharro así son alucinantes (eso de tener una biblioteca completa metida dentro está muy bien), me sigue gustando más leer en papel, y me sigue encantando el concepto de biblioteca clásica. Me gusta ver un libro, tocarlo, olerlo… Quizá me estoy volviendo obsoleto en una época en la que todo es evanescente, en la que todo está en la nube. A lo mejor es mi querencia cartesiana de, precisamente, que exista algo fijo y estable en un mundo que fluye a una velocidad inalcanzable. O quizá es porque es muy cierto el dicho “En casa del herrero cuchara de palo”, entendiendo que un filósofo que se dedica a pensar sobre lo digital, en su casa sigue anclado a lo material. O quizá es que me he dejado contagiar de la estúpida moda vintage: videojuegos retro, vinilos y libros… El caso es que me apetece que todo lo que aquí escribo exista materialmente (No obstante, también lo podéis conseguir en e-book). Espero que lo disfrutéis. Muchas gracias por todo.

 

Supe hace unos días del oráculo de Aaronson a través de un breve artículo de Microsiervos. Se trata de un experimento sencillísimo: tienes que elegir entre pulsar la tecla “d” o la “f” las veces que quieras. El oráculo consiste en un algoritmo que intentará predecir qué tecla vas a pulsar. Ya está, no hay más ¿Una estupidez? Para nada.

La idea es la siguiente: actuar sin libertad de elección o libre albedrío suele entenderse como actuar de modo determinado por causas anteriores. En tal caso, conociendo las causas anteriores debería ser fácil predecir la futura elección. En caso contrario, no poder predecir la elección puede entenderse como evidencia a favor de que se actúa con libre albedrío. Podría objetarse que no tiene por qué: si yo me echo a la siesta todos los días a las tres de la tarde, mi conducta puede ser muy predecible pero eso no quita que yo elija libremente siempre hacer lo mismo. De acuerdo, pero de lo que trata el oráculo de Aaronson es de intentar, a propósito, no ser predecible. Si, verdaderamente, somos libres no deberíamos tener demasiados problemas en ser impredecibles, deberíamos ser buenos generando cadenas aleatorias.

Sin embargo, el oráculo parece demostrarnos lo contrario. Cuando probé la versión web de Aaronson me pareció curioso lo que me costaba generar secuencias impredecibles. La mayor parte de las veces que he jugado el oráculo me ganaba y, muchas veces, incluso con porcentajes superiores al sesenta por ciento. Bien, ¿y cómo funciona el algoritmo? Analiza las 32 posibles secuencias diferentes de cinco letras. Entonces, cuando el jugador sigue una de ellas, el algoritmo memoriza cuál ha sido la elección para, cuando vuelva a repetirse la secuencia, apostar por ella.

Casi por puro divertimento, me puse a programar en Phyton una versión con diferentes algoritmos. Y los resultados me han dejado, cuanto menos, inquieto. Mi programa está formado por cuatro algoritmos. El primero, funciona, simplemente por azar, y está implementado de modo simbólico para establecer la comparación entre los resultados del mero azar (que, evidentemente, se acercarán siempre al cincuenta por ciento) y los resultados de los demás algoritmos. La idea básica es que cualquier algoritmo que no mejore los resultados del azar no predice absolutamente nada. El segundo algoritmo (llamado Glob), sencillamente calcula cuántas veces se ha pulsado “d” y cuántas “f”, y apuesta por la letra que más veces se ha repetido. El tercero (3U) cuenta las veces que han pulsado “d” o “f” en las últimas tres jugadas, y apuesta por la que más veces se ha iterado. Y el cuarto (5U) hace lo mismo que el anterior pero contando a partir de las cinco últimas jugadas.

Os pego aquí los resultados de mi mujer:

Jugó 383 veces. El algoritmo azaroso solo acertó en torno al 51%, pero ya  Glob acertó un 56%, 5U un 64% y, lo más llamativo, 3U acertó un 70%. Todas las veces que yo he jugado los resultados han sido muy parecidos (aunque, evidentemente, para que esto tenga validez científica habría que hacer el experimento como Dios manda).

Los algoritmos de este oráculo son más simples que el de Aaronson (que tampoco es que sea muy complicado). De forma elemental, cuentan las veces que se repite un determinado resultado y apuestan por él sin más estrategia. Lo único que hacen es detectar rachas, apostar por tendencias a la repetición.  Ya es llamativo que algoritmos tan estúpidos tengan mejores resultados que el azar, pero lo tremendamente interesante es que algo tan estúpido como 3U sea tan bueno. He comparado muchas veces sus resultados con los del algoritmo de Aaronson, y 3U es muchísimo mejor. De hecho, he visto muy pocas veces a 3U bajar del 60% ¿Cómo puede ganarme una cosa tan tonta? O dicho de otro modo ¿Cómo puedo ser tan sumamente predecible?

He pensado seguir ampliando el oráculo. El mismo Aaronson nos dice que podríamos cambiar su algoritmo para secuencias de tres en vez de cinco letras, o que podríamos utilizar la cadena creada por un jugador como modelo predictivo con la esperanza de que los demás jugadores hicieran lo mismo. Sería muy interesante, y lo haremos, ir probando diferentes algoritmos y comparar los resultados (sería, cuanto menos, divertido probar uno basado en la sucesión de Fibonacci o en el triángulo de Tartaglia). Otra opción es modificar el propio juego. Lo primero que he hecho ha sido añadir una tercera letra a elegir por el jugador, para hacer más compleja la predicción. He aquí los resultados:

763 jugadas. El azar, como era de esperar, está en torno al 33% con un 31%; Glob funciona a un 38% (un 7% mejor que el azar); 5U ya empieza a ser competitivo con un 49%; y, espectacularmente, 3U sigue ganándome con más de un 55%. Si, a ojo, calculo cómo ha bajado su rendimiento del juego anterior (con solo “d” y “f”), podría rondar un 10% (de 65 a 55). Ante tres opciones, 3U me sigue ganando (aunque reconozco que yo no valdría como sujeto experimental ya que conozco su algoritmo. El esfuerzo por jugar como si no lo conociera no hace que no contamine el resultado).

Estos días ha corrido como la pólvora por la red, el vídeo de una mujer que sufría una amnesia global transitoria. Según cuenta su hija, con la que habla, mantuvo esta misma conversación en bucle durante unas nueve horas y media. Afortunadamente, tras unas veintiséis horas, la amnesia cesó y Mary Sue se ha recuperado sin secuelas apreciables.

 

Este caso, el cual no es para nada una excepción ya que los casos de amnesia anterógrada de este tipo son bastante frecuentes y están bien documentados, es muy significativo para tratar el tema que nos ocupa. El gran problema que impide resolver la cuestión de si una decisión se tomó libremente o estaba determinada de antemano, es que no podemos retroceder en el tiempo para comprobar si, verdaderamente, pudo darse otra elección diferente a la que realmente ocurrió. Sin embargo, Mary Sue, entra en una especie de bucle temporal. Al sufrir amnesia anterógrada no puede generar nuevos recuerdos, por lo que, continuamente resetea, es decir, vuelve al principio. En la excelente película de Christopher Nolan, Memento, el protagonista sufre de una dolencia parecida (si bien mucho más trágica, la suya es incurable y no desaparece a las pocas horas) y se enfrenta a una situación terrible: perdió la memoria justo en el momento en que su mujer era asesinada, por lo que continuamente vuelve al momento del asesinato. En una inconmensurable escena de la película dice “No me acuerdo de olvidarte”, haciendo referencia al hecho de que, para un enfermo de amnesia anterógrada, el tiempo no pasa y, por tanto, el tiempo no cura las heridas por lo que Leonard, el protagonista, nunca podrá superar la muerte de su esposa.

Entonces, con esta repetición temporal, tanto Mary Sue como Leonard  nos sirven para estudiar el libre albedrío. Su vuelta hacia atrás se asemeja a un viaje en el tiempo y, por ello, podemos comprobar si, ante la misma situación (la misma cadena causal desencadenante), hacen algo diferente cada vez. Y el resultado, tal y como comprobamos viendo el vídeo, es que no es así. Mary Sue repite la mismas palabras una y otra vez. Las mismas causas conectan con los mismos efectos: determinismo clásico. El oráculo de Aaronson o 3U acertarían en un 100% de los casos. No somos libres.

Y por si quedaba alguna duda, un nuevo artículo en Nature vuelve a aportar más evidencia. Utilizando resonancia magnética funcional, el equipo de Joel Pearson predecía la decisión de los sujetos experimentales, con hasta once segundos de antelación de que éstos fueran conscientes de su propia elección.

PD.: mientras no me canse, seguiré haciendo pruebas con el oráculo. Cuando refine más el programa lo subiré para que podáis jugar vosotros también.

Un titular: “Redes neuronales logran traducir pensamientos directamente en palabras”.  La noticia es de Europa Press y tiene incluido el artículo de Scientific Reports, por lo que se le presupone cierto crédito. Parece alucinante ¡Hemos sido capaces de descodificar el pensamiento humano! Jerry Fodor nos contaba que debajo del lenguaje cotidiano que utilizamos para pensar (nuestro idioma), existía una estructura más profunda (ya que existe pensamiento sin lenguaje). Hay, por así decirlo, un lenguaje en el que está programado el cerebro (Fodor lo llamó mentalés) y la tarea de todo científico cognitivo que se precie será descubrirlo. Entonces, ¿lo hemos hecho ya?

De ninguna manera. Aunque en esta noticia no veo una mala intención amarillista, una lectura descuidada puede llevar a cierto engaño.

Examinemos lo que verdaderamente nos dice la investigación. Cuando realizamos cualquier actividad cerebral ocurren procesos bio-físico-químicos variados que pueden ser registrados por diferentes técnicas de monitorización. Algunas como, por ejemplo, la resonancia magnética funcional, observan el aumento de flujo sanguíneo en una determinada región cerebral. Entonces, presuponemos que si cuando yo estoy escuchando música, esa determinada área aumenta su flujo, será porque esa zona tiene que ver con mi capacidad para escuchar música. Otros sistemas de monitorización, como el electroencefalograma, detectan las distintas ondas cerebrales que surgen de la actividad eléctrica: ondas delta, theta, alfa, beta y gamma. En el caso del estudio en cuestión se basaron en datos obtenidos por la medición de frecuencias, en concreto de bajas y altas de tipo gamma. Y lo que han hecho Nima Mesgarani y su equipo, es utilizar un cierto tipo de red natural artificial para que encuentre relaciones entre las frecuencias obtenidas y las palabras que un sujeto estaba escuchando en un determinado momento, de modo que mediante un sintetizador de voz o vocoder, la red traducía los patrones cerebrales a palabras sonoras.

El caso es que la traducción de patrones de ondas a voz puede darnos la impresión de que estamos traduciendo pensamientos (mentalés), de modo que desciframos el código secreto de nuestra mente. No, lo único que estamos haciendo es transformar huellassombras, residuos que nuestro cerebro deja cuando piensa, en palabras. Y es que hay una clara confusión. Lo que los métodos de monitorización actuales captan no son los pensamientos mismos sino, por usar una metáfora fácil, el ruido que hacen. Y ese “ruido” podría, incluso, no ser información importante para comprender lo que es el pensamiento. El patrón de ondas detectado cuando se piensa en tal o cual palabra, podría no tener ningún papel causal en todo el procedimiento cerebral mediante en el que se piensa dicha palabra, podría ser un simple epifenómeno. De hecho, el gran problema para los métodos de monitorización cerebral es que es tremendamente complejo observar en directo el funcionamiento del cerebro de alguien sin dañarlo. Por eso se buscan lo que se llaman técnicas no invasivas, pero el problema, aún sin solucionar, es que estas técnicas son todavía muy imprecisas y no nos permiten el nivel de detalle que necesitamos. A día de hoy solo escuchamos ecos, sombras de la mente, y sobre ellos solo cabe la especulación.

Lo explicaremos con una metáfora. Supongamos que tenemos un coche. No sabemos nada de cómo funciona el motor pero podemos escuchar el ruido que hace. Entonces, a partir de ese ruido entrenamos a un algoritmo matemático para que nos diga en qué marcha va el coche en un determinado momento. El algoritmo es muy preciso y no falla nunca a la hora de decir en qué marcha está.  Ipso facto, la prensa saca el titular: “Hemos descubierto el código secreto del motor de explosión y una inteligencia artificial nos permite traducir su funcionamiento”. Si lo pensamos, realmente este descubrimiento sólo nos informaría de una pequeñísima parte  del funcionamiento real de un motor (en este caso que el motor tiene marchas), pero nada de lo verdaderamente significativo: el funcionamiento del cilindro, la explosión de combustible, etc.

Para que, realmente, hubiésemos descubierto el auténtico código del cerebro, deberíamos tener una equivalencia razonable entre un proceso mental y lo que monitorizamos y, con total evidencia, aún no lo tenemos, principalmente, porque no sabemos bien qué ocurre dentro de nuestros cráneos cuando pensamos. Noticias de este tipo pueden dar la impresión de que nuestro conocimiento del cerebro es muchísimo más alto de lo que, realmente, es. Y hay que dejarlo muy, muy claro: estamos todavía, únicamente, tocando la superficie de su funcionamiento y no sabemos, prácticamente, nada.

Eso sí, esto no quita nada a la importancia del descubrimiento de Mesgarani y de su gran utilidad clínica. Será maravilloso que un paciente con síndrome de enclaustramiento pudiera comunicarse con los demás, además de que abrimos las puertas a formas de comunicación “telepáticas”, y a un enorme abanico de posibilidades en el campo de la interfaz hombre-máquina.

Uno de los mitos de la modernidad fue la búsqueda de un punto cero, un pilar sólido, irrefutable, libre de sesgos y prejuicios, de presupuestos y de ideas infundadas. Eso fue lo que intentaron Descartes y Bacon: encontrar esa nuda veritas, certeza absoluta a partir de la cual, si utilizabas el método adecuado, el recto pensar, podrías construir la totalidad del edificio del saber. Los positivistas actuales caen de nuevo en ese mito cuando hablan de los hechos, como si éstos representaran la realidad pura (si bien lo que a mí me molesta más es caer en el otro extremo: que, a partir de aquí, se concluya con estupideces como que la verdad no existe, o que la propia ciencia es literatura). Es imposible enfrentarse a la realidad metafísicamente desnuda, pero eso no quita que existan caminos mejores que otros para acercarse a ella.

Este debate, punto central de la historia de la filosofía, me ha venido a la cabeza cuando de nuevo oigo hablar del impresionante Alpha Zero (ahora que los de Deepmind han publicado un nuevo artículo en Science), la IA de Google que, partiendo del único conocimiento básico de las reglas del ajedrez, no teniendo ni un solo dato sobre táctica, estrategia, ni alguna base de datos de partidas clásicas, machacó a uno de los mejores programas de ajedrez de la actualidad: Stockfish 8 ¿Cómo ha sido posible algo así?  Alpha Zero comienza como un niño pequeño que acaba de aprender a jugar y no sabe nada más del juego (parte de una tabula rasa). Entonces, empieza a jugar contra sí mismo, con movimientos en principio aleatorios, pero siguiendo un clásico aprendizaje reforzado: las jugadas que llevan a la victoria en una partida serán más probables en las siguientes, y las que llevan a la derrota menos.

El programa decide la jugada mediante un árbol de búsqueda de Monte Carlo (no usa la poda alfa-beta de Stockfish). Ante la insuperable explosión combinatoria que supone predecir todos los movimientos posibles desde una posición hasta el final de la partida, Alpha Zero simula y elige, aleatoriamente, solo algunas y, de entre ellas, escoge la más prometedora. Nótese que eso no le hace tomar una decisión óptima, pudiendo, perfectamente, perder muchísimas jugadas mejores e, incluso, si tuviese la mala suerte de escoger un grupo de jugadas mediocres, hacer una mala jugada. Sin embargo, para que eso no ocurra (o, al menos, no ocurra demasiadas veces), es aquí donde la red neuronal artificial profunda orienta al árbol de decisión sobre qué caminos son los mejores y cuáles son rápidamente desechables en virtud del conocimiento previo atesorado tras todas las partidas anteriores (Alpha Zero, al contrario que versiones previas que funcionaban con aprendizaje supervisado, utilizaba solo una red y no dos).

Tras solo 4 horas de auto-entrenamiento, Alpha Zero derrotó a Stockfish 8, programa con un Elo ponderado de 3.400 (El mejor jugador humano, Magnus Carlsen, tiene un Elo de 2.835 a diciembre de 2018), lo cual no deja de ser absolutamente impresionante, simplemente, como logro dentro de la creación de programas de ajedrez. En el reciente artículo se publican nuevas partidas entre ambos y los resultados no dejan lugar a dudas sobre el poder de Alpha Zero: ganaba a Stockfish incluso cuando solo contaba con una décima parte del tiempo del otro. Incluso ganó también a la nueva versión de Stockfish, la 9.

Pero lo realmente espeluznante es que Alpha Zero comenzó, valga la redundancia, de cero, solo sabiendo las reglas y nada más… Es muy instructivo el gráfico de aperturas que nos ofrecieron en el primer artículo publicado (Mastering Chess and Shogi by Self-Play with a General Reinforcement Learning Algorithm, de diciembre del 2017), en el que se ve cómo el programa va utilizando unas y rechazando otras según avanza en el juego.

Vemos como la apertura española o la defensa siciliana, tan populares entre los profesionales del ajedrez, son desechadas rápidamente, mostrando una clara predilección por la apertura inglesa y por las de peón de dama. Alpha Zero va aprendiendo en soledad las jugadas que la humanidad ha entendido tras siglos (o quizá milenios) de estudiar el ajedrez, y las desecha para jugar a su manera. Demis Hassabis dijo que Alpha Zero no juega ni como un humano ni como una máquina, sino casi como un alienígena. Y es cierto, esa forma de jugar no ha sido vista hasta la fecha y los analistas están perplejos comprobando alguna de las extrañas y, aparentemente ininteligibles, jugadas de esta singular IA. Lo cual, además, saca a la palestra el tema de las diferentes formas de inteligencia o estilos cognitivos posibles. Hasta ahora, cuando hablábamos de diferentes estructuras cognitivas, teníamos que irnos a los animales, a los que, tradicionalmente, se considera con muchos menos recursos cognitivos que nosotros. Ahora tenemos una máquina endiabladamente superior, que hace las cosas de una forma muy diferente a todo organismo conocido.

Pero es más, la interpretación más evocadora de su increíble aprendizaje es que el conocimiento humano le estorba.  Stockfish es muy bueno, pero es demasiado humano: su forma de jugar está muy lastrada por su conocimiento de partidas entre humanos. Pero, ¿y qué tiene de malo el conocimiento humano? Que su comprensión del juego está limitada por las capacidades humanas, por nuestra débil memoria y por nuestra escasa capacidad de razonamiento para componer jugadas. Alpha Zero tiene una perspectiva mucho más amplia sobre el ajedrez (se está viendo ya que parece que no valora las piezas del modo tradicional, haciendo continuos sacrificios en pos de ventajas posicionales a largo plazo).

Bien, pues preguntémosle a Alpha Zero cómo juega y mejoremos nuestro juego. No podemos, la red neuronal de Alpha Zero es una caja negra total: su conocimiento se encuentra distribuido entre los valores numéricos de los pesos de sus nodos neuronales… Abriendo su interior no podemos entender nada, pues el deep learning tiene este grave defecto: no podemos pasar su conocimiento a fórmulas lineales tal que podamos entenderlo y traducirlo en estrategias de juego. O sea, hemos creado el ente que mejor juega al ajedrez de todos los tiempos y no sabemos cómo lo hace. Solo nos queda verlo jugar y, externamente, intentar comprender por qué hace lo que hace como si observáramos a un jugador que no quisiera desvelar los secretos de su juego.

Algunos han destacado el dato de que Alpha Zero analiza solamente unas 60.000 posiciones por segundo en comparación con los 60 millones de Stockfish, anunciando, a mi juicio muy apresuradamente, el fin de la fuerza bruta. En primer lugar a mí 60.000 jugadas por segundo me sigue pareciendo fuerza bruta. No sé al lector, pero a mí en un segundo casi no me da ni para darme cuenta de que estoy jugando al ajedrez. Y en segundo, el funcionamiento de Alpha Zero es engañoso en cuanto a la potencia de cómputo que necesita. Si bien, una vez entrenado, necesita bastante menos que cualquier módulo competente de ajedrez, para su entrenamiento previo necesita muchísima. De hecho, necesita jugar muchas más partidas que cualquier gran maestro humano para llegar a su nivel.

Y es que, a nivel teórico, Alpha Zero no es demasiado novedoso. De modo muy general, no es más que un árbol de decisión que Monte Carlo (inventado desde mediados del siglo pasado) más una red neuronal convolucional que no parece tener nada fuera de lo que ya sabemos desde hace tiempo. Entonces, ¿por qué no se ha hecho antes? Precisamente porque hacía falta una potencia de cómputo de la que no se disponía. Las redes neuronales artificiales siguen teniendo el mismo defecto de siempre: su lentitud de entrenamiento, hacen falta millones de ejemplos para que vayan aprendiendo. Entonces, la fuerza bruta que no necesitan para funcionar, sí que la necesitan para entrenarse. No obstante, el avance es, a nivel práctico, muy significativo: una vez entrenado ya no necesita más de dicha potencia.

Otro aspecto, seguramente el más importante, es la polivalencia que prometen y que nos hace soñar con la añorada IAG (Inteligencia Artificial General). Alpha Zero no solo es invencible al ajedrez, sino al Go y al Shogi ¿En cuántas tareas podrán desenvolverse a nivel sobrehumano esta nueva generación de máquinas? Prudencia: las máquinas ya nos machacaban desde hace tiempo en muchas ocupaciones, siempre y cuando éstas fueran fácilmente formalizables. El ajedrez, el Go o el shogi, aunque sean juegos muy complejos, son trivialmente formalizables: tablero de juego delimitado con precisión y solo unas pocas reglas de juego, igualmente, muy precisas. En entornos más complejos y confusos  tienen problemas. A pesar de que, precisamente, la IA conexionista se mueve mejor que la simbólica en ellos, todavía tiene muchas dificultades. Pensemos que un coche autónomo, aunque sepa desenvolverse en ambientes muy cambiantes, lo único que hace es moverse por vías, habitualmente, bien delimitadas (su “micromundo” es casi  de dos dimensiones). Moverse competentemente en un determinado nicho ecológico es de lo primero que saben hacer los organismos vivos más sencillos. Aunque estamos hablando de excelentes avances, todavía queda mucho por hacer.

Desde el Círculo de Ajedrez José Raúl Capablanca, se nos presenta un problema que los módulos tradicionales no son capaces de solucionar, precisamente, porque no son capaces de planes generales a muy largo plazo ¿Sería capaz Alpha Zero de solucionarlo? Juegan blancas y ganan.

La solución en este vídeo.

 

Estoy con la versión inglesa de Real Humans y no estoy viendo nada que no haya visto antes y mucho mejor. Y que los synths (robots humanoides) parezcan maniquíes con movimientos acartonados… ¡Uffff! Bueno, le daremos unos dos, a lo sumo tres, capítulos más de oportunidad a ver si aparece algo decente.

El caso es que en Humans, y en prácticamente todas las series o películas que han tratado el tema de la IA futura repiten un tópico que es completamente falso. En todas se nos describe un mundo en el que las máquinas se han incorporado con suma normalidad a nuestra vida cotidiana. Y, en todas, se destaca el hecho de que son nuestros sirvientes y esclavos, y siempre se nos ofrece la clásica escena de un humano siendo cruel con un indefenso y sumiso robot.  Se busca que el espectador empatice con las máquinas y que, cuando éstas se rebelen, se vea bien que hay una causa justificada y que no está claro cuál es el bando de los buenos y cuál de los malos. No obstante, para no confundir a un espectador ávido de seguridades narrativas, aparte de situar con claridad meridiana a un villano evidente (los dueños de gigantescas multinacionales suelen hacer muy bien este papel), también entran en escena humanos buenos que son capaces de comprender el sufrimiento de los oprimidos electrónicos. El caso es que llega un momento en el que aparece una máquina diferente, una máquina que es capaz de sentir, de tener consciencia, de ser creativa o, vete a saber tú que indefinido factor x que adquiere, que lo hace despertar de su letargo maquinal.

Entonces, vemos variadas escenas que anuncian ese despertar. Por ejemplo, en Humans aparecen un montón de androides colocados en filas regulares (para crear la sensación de mercancía almacenada) y, aparentemente, todos ellos están apagados o desconectados. De repente, uno abre los ojos y mira la luna por una rendija abierta del techo. Ya está, está despertando, mira la luna como preguntándose por el misterio de su existencia. Ya no es una máquina, ahora ya es un humano o, incluso, algo mejor. En los siguientes episodios o escenas de la serie/película iremos contemplando el progresivo despertar de otros robots hasta llegar al clímax final: el gran enfrentamiento entre la humanidad y las máquinas ¿Será verdaderamente así cuando la auténtica consciencia artificial llegue a nuestro mundo? Rotundamente NO.

La razón es bastante clara. El día en que seamos capaces de crear consciencia sintética, momento, por cierto, bastante lejano dado el actual estado del arte, y consigamos que una máquina u organismo artificial del tipo que sea, pueda darse cuenta del mundo que le rodea, será porque hemos descubierto los mecanismos físico-químico-biológicos que hacen que la consciencia se genere en nuestros sistemas nerviosos. Ese día, después de décadas, o incluso siglos, de investigación del funcionamiento cerebral, seremos capaces de replicar ese mecanismo en una máquina o en cualquier sustrato físico necesario para conseguir algo así. Entonces, cuando esto suceda no será un hecho sorprendente en la “mente positrónica” (por hacer un guiño a Asimov, quizá el principal culpable del error) de un robot que funciona mal. Cuando repliquemos consciencia, los científicos o ingenieros que lo consigan, tendrán muy claro que lo están consiguiendo. Afirmar lo contrario sería como decir, a mediados del siglo XIX, que la bombilla eléctrica incandescente iba a surgir, en un determinado momento azaroso, de alguna vela encendida en cualquier hogar de Newcastle. No, Wilson Swan tardó unos veinticinco años experimentando con diferentes tipos de materiales, técnicas, métodos y teorías hasta que pudo fabricar una bombilla funcional y eficiente.

Creer que la consciencia despertará sin más dentro de avanzadas inteligencias artificiales como fruto accidental de su complejidad es no comprender bien el funcionamiento de la ciencia y la tecnología, que viene de no entender la propia IA. Un programa de ordenador solo realiza cálculos, y los cálculos, por muy complejos, sofisticados y sobrehumanos que sean, solo dan resultados numéricos. Y creo que todos estamos de acuerdo en que los números no son objetos ni procesos físicos reales, por muy bien que los describan. Es por eso que el ejemplo de John Searle es muy ilustrativo: aunque tuviésemos un programa que simulara con una precisión casi absoluta el funcionamiento de una vaca, dicho programa seguiría sin poder darnos leche que pudiésemos beber. Así, para tener consciencia real no solo se necesita un ordenador que replique matemáticamente su funcionamiento, sino un organismo que tenga las propiedades físico-químico-biológicas que se necesiten para generar consciencia ¿Cuáles son? Lo ignoro, ya que si lo supiera estaría en Estocolmo recogiendo un Premio Nobel muy merecido.

Explicado de otra forma: ya hemos conseguido hacer robots que se muevan muy eficazmente en entornos muy irregulares (véanse todas las maravillas de Boston Dynamics). Cuando los vemos caminar y correr sorteando obstáculos nadie dice: “Mira, el programa de ordenador se mueve”. Nadie atribuye movimiento al sofware que dirige el robot, sino al robot en su totalidad, es decir, a los motores, baterías, engranajes, extremidades, etc. que hacen posible el movimiento. Igualmente, para decir que una máquina piensa o es consciente, no podemos decir “Mira, el programa de ordenador es consciente”, porque al hacerlo estamos omitiendo todo lo demás que hace falta para que ocurra una consciencia real. En cierto sentido estaríamos diciendo que una mente puede existir sin cuerpo cuando, evidentemente, no es así. Lo que realmente nos hace falta es saber mucho, mucho más, sobre los cuerpos que albergan consciencias.

Así que no, la consciencia no va a despertar en un androide doméstico que, un día, se pone a oler la fragancia de una flor.