Posts etiquetados ‘Daniel Dennett’

¿Para qué discutir? ¿Qué es lo que buscamos cuando arremetemos con nuestros argumentos contra cualquier desdichado habitante de la red? ¿La ególatra sensación de tener razón? ¿Alguien nos la ha dado alguna vez? ¿Alguna vez se la hemos dado a alguien? ¿Alguna vez hemos dicho: «Es verdad, me ha convencido, todo lo que he dicho hasta ahora son estupideces, tiene usted toda la razón»? ¿Nunca?

Es más, habitualmente utilizamos todo tipo de argucias para intentar vencer al otro. Argumentamos ad hoc, es decir, cuando nos atacan con un argumento fuerte hacemos todo lo posible por desbaratarlo y seguir manteniendo nuestra tesis de partida. Nunca nos paramos y decimos: «Pues es verdad, a lo mejor estoy equivocado. Nunca lo había visto de esa manera».  Es más, incluso puede llegar el caso en que nos quedemos sin razones, en el que nuestro rival ha sido más hábil y no tenemos respuesta y, aún así, en vez de cambiar de opinión, sigamos en nuestras trece. He participado en varias discusiones en las que mi rival, después de una larga contienda en la que estaba siendo acorralado, respondía diciendo: «Bueno, esta es mi opinión, respétala». Hemos llegado al punto álgido del irracionalismo, nos hemos hecho inmunes a los razonamientos. Somos fundamentalistas, dogmáticos o fanáticos. Nos habremos convertido en este hincha del Real Madrid o del Barça, del PP o del PSOE, que siempre sostendrán con orgullo ciego que su equipo o su partido político son los mejores, con total indiferencia hacia los resultados deportivos o con el número de parlamentarios corruptos tras las siglas defendidas. ¿Qué sentido tiene algo así? ¿Por qué hacemos eso más que para satisfacer orgullos inconscientes o el deseo tribal de identidad o pertenencia a un grupo? ¿Qué saco yo cada vez que gano una contienda en Twitter? A lo sumo un poco de la diversión que otorga la esgrima dialéctica, el placer del deporte por el deporte mismo, pero nada más.

Anatol Rapoport

Por eso es mejor que cambiemos el propósito de la discusión: no hay que ganar sino aprender. El objetivo no será que mi rival me de la razón, sino que, entre los dos, lleguemos a algún punto. Es una tarea, muchas veces difícil, pues somos orgullosos y nos gusta ganar, pero hay que cambiar el chip. El recientemente fallecido Daniel Dennett, en su muy recomendable Bombas de Intuición, recoge las directrices que debes de seguir antes de comenzar un debate, propuestas por el psicólogo social Anatol Rapoport (el famoso creador de la estrategia toma y daca, ganadora del mítico torneo de dilema del prisionero organizado por Axelrod):

  1. Intenta expresar la posición blanco de tu crítica con tal claridad, viveza e imparcialidad que él mismo diga «Gracias, me gustaría haberlo expresado así».
  2. Haz una lista de todos sus puntos de acuerdo (especialmente si no se trata de acuerdos generales o extendidos).
  3. Menciona cualquier cosa que hayas aprendido del blanco de tu crítica.
  4. Solo cuando lo hayas hecho estarás autorizado para decir aunque sea una sola palabra para refutar o criticar.

Cuando se siguen estas reglas, un efecto inmediato es que los blancos de tus críticas se vuelven más receptivos a ellas: ya has mostrado que comprendes su postura tan bien como ellos, y también has demostrado tener buen juicio (coincides con ellos en algunos asuntos importantes e incluso algo que han dicho te ha convencido). 

Yo reforzaría el punto 1, instándote a que busques razones para defender la posición de tu rival que incluso éste no haya tenido en cuenta. La idea es ponerte radicalmente en su piel, adoptar por completo su perspectiva, manejarla mejor que él ¡Quizá, hasta podría pasar que vieras que es mejor que la tuya! 

En la misma línea, Dennett nos regala una curiosa anécdota. Cuenta que estaba asistiendo a un seminario en el MIT, impartido por Noam Chomsky y Jerry Fodor. En él, estos insignes pensadores estaban dando todo un show ante un divertido público, ridiculizando las ideas de Roger Schank. Dennett conocía muy bien la obra de Schank y no la reconocía, para nada, en las críticas de Chomsky. Vamos, que el célebre lingüista se estaba tirando un muñeco de paja a lo grande. Dennett levantó la mano y dijo que se estaban pasando por alto muchas de las sutilezas del pensamiento de Schank, a lo que Chomsky respondió que no, que, verdaderamente, Schank defendía las estupideces de las que le estaban acusando. Entonces, respondió Dennett, ¿por qué están perdiendo el tiempo criticando esa basura? La moraleja de esta historia es que hay que elegir bien el rival para así poder aprender de él. De nada sirve criticar una tesis absurda, sino que lo interesante es buscar las fisuras de una tesis sólida. Es por eso que nunca debato con terraplanistas, defensores del diseño inteligente, antivacunas, negacionistas del cambio climático, etc. ¿De qué me vale refutar idioteces? Lo interesante es refutar grandes propuestas. Para ilustrar más esto voy a terminar con una anécdota mía.

Tendría yo unos veintipocos años cuando di una breve ponencia en la Universidad Pontificia de Salamanca. Por aquel entonces estaba preparándome para opositar, era joven y pretencioso, e iba de ateillo rebelde postnietzscheano, pues eso parecía sonar muy cool en aquella cabecita loca. En unas Jornadas tituladas «Religión y Persona», rodeado de teólogos y pensadores cristianos, solté una diatriba contra la teología católica que ni el más furibundo barón D’Holbach. En la fase de ruegos y preguntas, todos cargaron contra mí, alguno incluso con malas formas. Yo me sentía genial, me creía Galileo luchando contra una banda de malvados belarminos. El caso es que un cura me preguntó que por qué había elegido algunas tesis de Tomás de Aquino como objeto de mis ataques, existiendo tanto pensador cristiano contra el que hacer blanco. Yo respondí que eso no era algo malo sino todo un halago: había elegido a Tomás de Aquino como diana porque, entre todos los teólogos cristianos, éste es al que más respetaba. Tomás de Aquino era un dignísimo rival del que aprender, no un enemigo al que ridiculizar. Curiosamente, en mi soberbia e ingenuidad veinteañera, tuve un resquicio de sabiduría.

Continuamos con la serie de herramientas cognitivas:

Cuello de botella. Es un hecho matemático trivial que un algoritmo no puede funcionar más rápido que el más lento de sus componentes. Así, si tenemos un supercomputador hecho con diez componentes, nueve de los cuales son súper rápidos, siendo tan solo el décimo muy lento, el supercomputador será muy lento. Esta idea me parece que explica muy bien un montón de problemas de eficiencia de cualquier sistema: desde un sencillo microchip hasta el sistema sanitario o educativo de un país, pasando por el equipo de fútbol sala de mi pueblo. Hay multitud de cuellos de botella de diversas formas en muchas partes del funcionamiento de casi todo ¡Detecta y elimínalos ya!

Principio de Ana Karenina (una variante del cuello de botella). Usado por Jared Diamond en su superventas Armas, gérmenes y acero (a cuya lectura no me he animado porque la edición que yo manejo es un tocho con letra minúscula ¡Comprad buenas ediciones! ¡Gastad dinero miserables!), se refiere a que en muchos sistemas, el fallo de tan solo uno de sus elementos da al traste con su función completa. Por ejemplo, pensemos en una operación matemática: hay infinidad de formas de errar pero solo una solución correcta ¡Por eso son tan difíciles! Este principio es una buena herramienta para analizar cualquier cosa: ¿cuántos requisitos necesitamos para conseguir ser felices? ¿Y con que uno de ellos falle todo se va al traste?

Argumento hegeliano. Irónicamente ingeniado por Anthony Chemero, es «todo argumento basado en escasa o nula evidencia científica y orientado a probar a priori la inadecuación de un proyecto o incluso de un programa de investigación empírica al completo». Recordemos que Hegel, el filósofo del dinamismo y del movimiento del universo por excelencia, se negó a ver la teoría de la evolución biológica, precisamente, basándose en principios metafísicos a priori.

Efecto Lindy. Ideado por el ingenioso Taleb, viene a decir que si queremos predecir la duración de un objeto en el tiempo, sencillamente, pensemos en el tiempo que ya ha durado. Taleb sostiene que los objetos más antiguos son los que tienen más probabilidad de seguir existiendo durante más tiempo en el futuro. Esta idea puede servirnos a la hora de elegir un libro o una película. Si un libro se sigue editando después de muchísimos años, o si se sigue hablando de una película a pesar de ser antigua, será porque son buenos. Obviamente, estaríamos renunciado a todo lo nuevo, es la estrategia más conservadora por excelencia, pero a cambio de asegurar la calidad.  Los clásicos se llaman clásicos por algo.

El Homer del futuro. En una escena del episodio 467 de los Simpsons, Homer se está comiendo un tarro de mayonesa mezclada con vodka. Entonces dice: «Esto es problema del Homer del futuro. ¡No me gustaría estar en su pellejo!». De hecho, si pensamos que la continuidad de consciencia es una ilusión, ya que nuestra consciencia va haciendo barridos de forma discreta cada pocos milisegundos, nuestro yo desaparece a cada momento ¡Morimos contínuamente! Entonces, lo que le pase a mi yo del futuro no debería importarme mucho ya que será una persona diferente a mi yo del presente. Yo no creo demasiado en esa idea porque, en cualquier caso, si mi continuidad es una ilusión, en tanto que ilusión es muy real para mí. Pasa como con el libre albedrío. Aunque no sea cierto que elijamos libremente no podemos vivir de otra forma ¿Cómo se pueden tomar decisiones sin creer que se están tomando decisiones? De la misma manera, creo que mi yo de hace diez minutos era yo aunque no lo fuera, y mi yo del presente se preocupa un poco (quizá menos de lo que debería) de mi yo del futuro. De todas maneras, cuando uno está demasiado agobiado por las infinitas obligaciones de la vida adulta, siempre es saludable posponer ciertas preocupaciones y dejárselas a nuestro Homer del futuro.

Lo indisponible. Concepto central en la filosofía de Harmut Rosa, se utiliza para hacer una crítica a los ideales de la modernidad, obstinados en el dominio y el control de todo. La tecno-ciencia intenta que todo esté disponible, que tengamos todo cuando nos apetezca de forma instantánea, pero eso hace que, precisamente, lo que no está disponible cobre cada vez más valor. Y es que la verdadera experiencia vital, lo que hace que todo merezca la pena o tenga sentido, no es algo que esté siempre disponible. Este concepto me recuerda siempre a la lluvia. No sé si por ser oriundo del secarral manchego o por vivir ahora en Granada, adoro que llueva. Me encanta ver llover, pero eso ocurre aquí de forma rara e imprevisible, y eso le da mucho más valor ¿Qué pasaría si viviéramos en el mundo en el que tuviéramos todo en cualquier momento, sueño tecnológico donde los hubiere? Solución en el concepto de animal enfermo unos párrafos más abajo.

Sub aespecie aeternitatis. Bello latinismo popularizado por Spinoza, significa «Desde la perspectiva de la eternidad». Viene a referirse a cuando sostenemos una tesis que consideramos universalmente verdadera (eterna), sin tener en cuenta cualquier elemento contextual o temporal. Es un buen mecanismo de alarma: ¿Lo que estoy diciendo tiene una validez universal o es fruto de mi tiempo/circunstancias/biografía? Seguramente, estaremos más en lo segundo que en lo primero.

La apuesta de PascalReza así: si no sabemos si Dios existe o no, es mejor vivir como si Dios existiera ya que, si es así, gozaremos de la vida eterna en el paraíso, mientras que si vivimos como si no, y al final nos equivocamos, arderemos en el infierno. Buena intuición pero mal argumento. La objeción más fuerte viene desde la perspectiva ética: vivir como si Dios existiera consiste en plegarse a los mandatos que éste nos exige: ser bueno con el prójimo.  Pero, verdaderamente, no es ser bueno hacer el bien solo porque crees que con ello ganarás la vida eterna, sino que ser bueno es hacer el bien a sabiendas que no te va a ocasionar beneficio alguno (Kant dixit). Por tanto, seguir la apuesta de Pascal te llevaría derechito al infierno.

El animal enfermo (das kranke Tier) para Nietzsche. Cuando era joven, en mis últimos años de instituto y durante la carrera, Nietzsche fue un absoluto héroe intelectual para mí. Ahora, no sé si afortunada o desgraciadamente, me encuentro muy lejos, pero eso no quita que todavía conserve, o que se me hayan quedado grabadas tan adentro que ya no se olvidan, influencias suyas. Un concepto que me gustó mucho en aquellos tiempos es su definición del ser humano como animal enfermo. Nietzsche habla de que nos definimos en tanto que animales disfuncionales, defectuosos, incompletos, absurdos. Una tortuga tiene toda su existencia definida, plena de funcionalidad y sentido: una tortuga solo tiene que hacer lo que su naturaleza le dicta, una tortuga es tortuga durante toda su existencia. Sin embargo, el hombre tiene que hacer algo, tiene que elegir darse un tipo de vida concreta, su naturaleza es indeterminada, incompleta, siempre inacabada. Por eso tiene que crear una segunda naturaleza. Para intentar paliar esa carencia de animalidad, se pasa toda su vida luchando contra esta falta de sentido. Y lo más interesante es que esta lucha es interminable, totalmente irresoluble. Estoy seguro que si cumpliera todas mis metas y sueños, me inventaría rápidamente otros, aparte de un buen número de torturas y tormentos variados para mí mismo. En política es igual: estoy completamente seguro que si tuviésemos un sistema político maravilloso, lleno de políticos honorables que se desvelaran por el bien común, todavía existiría muchísima gente quejándose, encontrando mil y un faltas a los ejemplares gobernantes, conspirando continuamente contra ellos. Y es que así somos: siempre quejándonos, nunca conformes, siempre buscando algo no se sabe dónde, siempre sedientos de no se sabe qué bebida. Somos animales enfermos.

Deepety. Término usado por el recientemente fallecido Daniel Dennett (aunque, según parece, acuñado por la hija de Joseph Weizenbaum, Miriam Weizenbaum), es un forma de parodiar la falsa profundidad con la que se nos presentan ciertos textos literarios o filosóficos. Una deepety es (os traduzco literalmente del texto de Dennett en Bombas de intuición y otras herramientas de pensamiento): » …una proposición que parece importante y verdadera (y profunda), pero que logra este efecto siendo ambigua. Según una lectura es manifiestamente falsa, pero sería estremecedor si fuera cierta; según la otra lectura, es cierta pero trivial. El oyente desprevenido capta el destello de verdad de la segunda lectura y la devastadora importancia de la primera y piensa: ¡Guau! Eso es muy profundo». Aplicando esta fórmula, te quitas de una tajada un 90% de las chorradas y majaderías que pueblan toda la historia de la literatura y la filosofía occidentales. Es una navaja de Ockham contra el flipamiento en el que parece vivir mucha gente del mundillo intelectualoide. Dennett pone el ejemplo de la frase «El amor es solo una palabra», pero puede aplicarse a tantas y tantas sentencias célebres… ¡Y a sistemas filosóficos completos!

El conductismo, en cualquiera de sus versiones, siempre me ha parecido algo extravagante. En su versión débil, el conductismo epistemológico, sostiene que si bien la mente puede existir, la psicología ha de centrarse exclusivamente en la conducta observable y renunciar per secula seculorum a hablar de la psique humana en términos mentales. Debido a que el concepto de mente no se antoja muy científico a nuestros instrumentos de observación habituales, y el principal método de análisis mental, la introspección, no es muy fiable, prescindimos radicalmente de él, y solo observamos la conducta. Esto, ya de primeras, se intuye como un total despropósito pues… ¿cómo explicar la conducta de una persona prescindiendo absolutamente de lo que ocurre dentro de su cabeza? Pero es más, está la versión fuerte, el conductismo ontológico, el cual no solo no permite estudiar lo mental, sino que sostiene sin ambages, que la mente no existe. Algunos autores afirmarán que la mente es un pseudoconcepto, como antes lo fueron el flogisto, el calórico o el éter. Cuando la ciencia avanzó, fue desechándolos. Así, cuando las neurociencias progresen, toda la conducta humana podrá explicarse en su totalidad sin tener que hablar, en absoluto, de la mente.

De primeras, ya digo, todo parece muy exagerado, muy forzado. Sin embargo, cuando lees que pensadores del calibre de Rudolf Carnap, Gilbert Ryle, Dan Dennett, o incluso el mismísimo Ludwig Wittgenstein, lo han defendido, la idea no puede ser tan mala. Bien, vamos a ver qué virtudes puede tener:

  1. Eliminar una idea de mente mitológica y pseudocientífica. Parece muy saludable extirpar de la práctica científica conceptos como «alma», «espíritu» o cualquier otra entidad «inmaterial, eterna e inmortal» que la tradición metafísica occidental ha usado continuamente.
  2. Prescindir de cualquier tipo de dualismo y de sus problemas. El conductismo ontológico es monista: solo existe la conducta observable, por lo que no hay que intentar explicar las, siempre controvertidas, relaciones entre mente y cuerpo. Así, para el conductista no hay ningún abismo ontológico entre la mente y el mundo (pues solo hay mundo), ni tampoco existe el escepticismo hacia las otras mentes (está en el mismo plano decir «Yo me siento triste» que «Él se siente triste»: ambas son conductas externas observables). El conductismo es radicalmente anticartesiano y al serlo se quita de todas sus dificultades.
  3. Se permite a la psicología ser independiente de las neurociencias. La conducta, y no el cerebro, es su objeto de estudio exclusivo. Así, la psicología puede ser una ciencia por derecho propio.

De acuerdo, ¿pero cómo soluciona el conductismo algo tan evidente como la causalidad mental? Si yo creo que va a llover y, en consecuencia, salgo a la calle con un paraguas, lo único que un conductista puede observar es mi salida a la calle con el paraguas ¿Cómo puede explicar el que yo cogiera el paraguas si no es apelando a mi creencia en que va a llover, algo que no es una conducta sino un pensamiento, algo tradicionalmente mental? Gilbert Ryle nos ofrece una solución: las creencias, deseos, etc. (lo que los filósofos llamamos actitudes proposicionales), son tan solo disposiciones conductuales, es decir, propensiones a realizar o no realizar una conducta. Por ejemplo, mi creencia en que va a llover queda definida como la disposición a realizar la conducta de coger un paraguas. Es una jugada maestra: todo lo que antes se consideraría como un contenido mental, pasa a ser definido exclusivamente en términos de conducta y, así, el conductismo sale airoso de lo que parecía ser su principal problema. Además, por si acaso nos encontráramos con la dificultad de explicar la variedad de conductas humanas que se dan ante la misma creencia (por ejemplo, mi creencia en que va a llover podría haber causado que yo cogiera un chubasquero en vez de un paraguas), Ryle nos habla de disposiciones conductuales de múltiples vías: una misma disposición puede manifestarse en diferentes conductas.

El segundo Wittgenstein hacía hincapié en el aspecto normativo de la disposición.  Mi creencia en que va a llover estipula qué conductas serían correctas o incorrectas. Si en vez de sacar un paraguas, salgo a la calle con una trompeta, evidentemente, habré ejecutado una conducta errónea. Muy interesantes son, al respecto, las consecuencias para la teoría de la verdad: que algo sea verdadero o falso no tiene nada que ver con ninguna adecuación de mis representaciones mentales a la realidad, ya que no existe ningún tipo de representación mental sensu stricto, sino en un ajuste entre mi conducta y la conducta correcta.  El debate, claro está, estará en determinar de dónde surge y quién determina qué es y qué no es correcto.

Bien, la propuesta es ingeniosa y tiene virtudes pero, sin embargo, sigue siendo terriblemente contraintuitiva ¿De verdad que no existe nada que podamos considerar mental? ¿De verdad que puede reducirse todo contenido mental, únicamente, a conducta? ¿De verdad que no tenemos mente? Hillary Putnam nos ofrece un sencillo experimento mental pare evidenciar lo difícil que se nos hace eliminar nuestra mente interior. Imaginemos un grupo de antiguos guerreros espartanos. Durante mucho tiempo se han entrenado en la habilidad de resistir el dolor sin realizar acción alguna más que la consecuente conducta verbal consistente en informar a los demás de que se siente dolor. Así, esos superespartanos, pueden ser gravemente heridos en combate pero no mostrarán más conducta de dolor que mover sus labios y decir «Me duele». Hasta aquí no hay ningún problema con el conductismo. El dolor seguiría siendo una disposición conductual a proferir una determinada conducta verbal. Putnam nos dice entonces que imaginemos a los super-superespartanos, una élite dentro de los superespartanos que, tras durísimos entrenamientos, habrían conseguido incluso eliminar cualquier necesidad de proferir palabra alguna para referirse al dolor. Los super-superespartanos serían tan duros que, a pesar de que les sacarán una muela sin anestesia, no mostrarían el más mínimo indicio externo de dolor. Y aquí sí que hay problemas para el conductismo: si no hay ni conducta externa observable ni propensión conductual alguna, no hay nada; sin embargo, nos parece evidente que los super-superespartanos sentirían dolor igual que cualquier otro ser humano. Ergo, la mente no es reductible a conducta.

El conductismo se parece a un zapatero que quiere meter un pie muy grande (la mente) en un zapato muy pequeño (la conducta), e intenta mil y un peripecias para que encaje pero nunca lo consigue. El conductismo es un nuevo ejemplo de la expresión intentar meter con calzador.

Ilustración de Emmanuel MacConnell.

Uno de los argumentos más famosos contra el funcionalismo como teoría de la mente es el argumento del espectro invertido. Supongamos que tenemos a un individuo cuyo espectro de color con respecto al rojo y al verde están invertidos. Desde su nacimiento, él ve rojas las hojas de los árboles o el césped del parque, mientras que ve verde la sangre o las cerezas. Pero, curiosamente, cuando aprendió los colores no tuvo ningún problema. Cuando le enseñaron un muñeco de Elmo y le dijeron que era rojo, aunque él lo veía verde, aprendió a llamarlo «rojo». Así, todos los objetos que veía verdes los llamó «rojos» y viceversa, no teniendo ningún problema para desenvolverse en el mundo. De hecho, este sujeto podría llegar a pasar absolutamente toda su vida viendo todo de forma invertida sin darse cuenta de que percibe de forma muy diferente a los demás.

¿Por qué este argumento pretende refutar el funcionalismo? Porque el funcionalismo define los estados mentales en términos funcionales, es decir, por tener un rol causal entre entradas sensoriales y salidas conductuales. Si decimos que el quale (la cualidad subjetiva) de la sensación del color no tiene ninguna incidencia en el comportamiento (no cumple ninguna función) y, a su vez, mantenemos que el quale es una parte del estado mental, hay partes del estado mental que no se explican por su rol causal. Por lo tanto, el funcionalismo en su versión fuerte (el que sostiene que la definición de un estado mental se agota en su rol causal) sería falso.

Aparentemente, parece un argumento sólido y difícil de objetar. De hecho, para Putnam constituye una de las claras evidencias para desechar el funcionalismo. Tenemos múltiples intentos de rebatirlo en la obra de Dennett (en su «Quining Qualia» de 1988) o de Chalmers (véase todo el capítulo 7 de La Mente Consciente), y ha sido también muy estudiado por autores como Block (1990), Shoemaker (1982), Cole (1990) o Harman (1990). A mi juicio, ninguno ha conseguido refutarlo contundentemente.

No obstante, susodicho argumento no derriba una versión débil del funcionalismo que podríamos definir, a vote pronto, como aquel que defiende que los qualia tienen funciones, aunque la explicación funcional no agote todo lo que es el quale. Los colores tienen una evidente función: la distinción y categorización de los objetos. Precisamente, el argumento del espectro invertido funciona porque al cambiar el quale (el verde por el rojo o viceversa) no incidimos en la función: el sujeto puede seguir categorizando los objetos en clases sin ningún problema. Solo en el caso en que la inversión del espectro no fuera completa (el sujeto cambia solo algunos objetos de color) la función se vería alterada: aunque acertaría en algunos casos, en otros el sujeto diría que son verdes objetos que todo el mundo ve rojos, y viceversa. Entonces ¿Qué es lo que tienen los qualia que sí los hace funcionales? En el caso del color estaría la capacidad de generar contraste. Si, por ejemplo, nuestro espectro visual solo atendiera a una pequeña gama de tonos de verde, todos muy parecidos entre sí, nos sería muy difícil diferenciar objetos. Por el contrario, si pensamos en el rojo y en el verde, son dos colores que se diferencian paradigmáticamente bien. Así, vemos clara la función de, al menos, una cualidad fenoménica del quale.

No obstante, volvemos a subrayar, que algunas propiedades de los qualia sean funcionales no justifica la versión fuerte del funcionalismo: que todo en el qualia es función. Podríamos pensar en un individuo que viera todo en un espectro de tonalidades de gris, desde el blanco nuclear hasta el negro azabache, de modo que conservara la capacidad de generar contraste para ser funcionalmente operativo, pero que no viera ningún otro color (como ya ejemplificamos en este estupendo ejemplo de Olivers Sacks). De nuevo entonces surgiría la cuestión: ¿para qué la experiencia subjetiva de rojo, verde o azul?

Lo que sí se refuta aquí es el epifenomenalismo (en su versión fuerte): la tesis de que la consciencia es solo un residuo, un epifenómeno, de auténticas funciones, pero que carece por completo de función (que, extrañamente, según esta youtuber es la última palabra) . Nada más lejos de la realidad. He puesto el ejemplo del color porque es, filosóficamente hablando, más peliagudo; pero si ponemos otros ejemplos, la función del quale se ve muy clara. Si hablamos del dolor, su función es más que evidente. Sydney Shoemaker nos ofrece tres funciones de los qualia:

  1. Causar determinada conducta: «Sabe amargo, es posible que esté en mal estado. Lo escupo».
  2. Causar la creencia de que algo va mal en el organismo: «Me duele la muela, tendré una infección que he de curar».
  3. Causar la creencia cualitativa de que se está en un estado y no en otro: esta es la que hemos defendido hoy aquí. Me es muy útil diferenciar objetos por sus colores, al igual que me es útil diferenciar las cosas que me proporcionan placer de aquellas que me proporcionan dolor.

Las propiedades del quale sin función quizá deberían entenderse a la forma de las cualidades de los seres vivos sin función adaptativa, siguiendo el celebérrimo artículo de Gould y Lewontin (1979) sobre las pechinas de la catedral de San Marcos (del que ya hablamos aquí). Los qualia tienen propiedades funcionales pero también contienen elementos epifenoménicos (epifenomalismo versión débil), quizá necesarios a algún nivel para realizar tal función (igual que las pechinas de la cúpula de una catedral)  o, sencillamente, como un subproducto inevitable (igual que el ruido es un epifenómeno inevitable del funcionamiento normal de un motor de explosión).

Dado todo lo dicho, la postura filosófica más saludable parece la sugerida por Chalmers cuando habla de funcionalismo no reduccionistaY un programa de investigación, igualmente saludable, sería el de indagar más en las propiedades funcionales de las características fenoménicas de los qualia. Quizá se podría ir, progresivamente, arrinconando epifenómenos y mostrar que, verdaderamente, ver en colores verde y rojo sí que tiene algún tipo de función que, a día de hoy, no atinamos a encontrar.

Cuando Descartes abre la Edad Moderna con su cogito ergo sum, nos viene a decir que el único punto indestructible, el único cimiento lo suficientemente sólido para construir el gran edificio del saber es el «Yo», entendido como la totalidad del mundo psíquico de una persona. Todo lo que pienso puede ser falso, pero el hecho de que pienso es indudable, una verdad claradistinta.

Esta idea se ha tendido a interpretar, demasiadas veces, como que, aunque no tengamos certeza ni siquiera de la existencia de los objetos percibidos, sí que la tenemos con respecto de sus cualidades subjetivas, es decir, de lo que «aparece en mi mente» cuando yo percibo el objeto. Es posible que la manzana que percibo como roja no sea realmente roja, pero «la rojez» que yo percibo es absolutamente real y nadie podría negarme que, al menos en mi representación mental, la manzana es indudablemente roja. Sería posible que en el universo no hubiera nada rojo, pero yo estoy completamente seguro de que «en algún lugar de mi mente» yo estoy viendo algo rojo. En consecuencia, los informes introspectivos que un sujeto hace sobre sus representaciones mentales, sobre su mundo subjetivo, solían considerarse como infalibles. Nada más lejos de la realidad o, como mínimo, tendría que decirse que los informes introspectivos son tan dudosos como los informes del mundo exterior. No hay ninguna razón para darles esa primacía epistemológica. Hagamos un pequeño experimento.

El ángulo de nuestro foco de atención visual es muy pequeño. Fije el lector la vista en la letra X del centro de la tabla. Ahora intente identificar las letras que hay alrededor sin mover los ojos. Lo normal será que no pueda pasar de las ocho letras inmediatamente circundantes a la X. El resto de la tabla queda completamente borrosa.

Ahora apliquemos este pequeño descubrimiento a la percepción de una imagen real. Cuando observamos, por ejemplo, las Meninas de Velázquez, creemos que vemos algo así:

Cuando, verdaderamente, si nuestra atención se centra en la infanta Margarita, lo que vemos se parece más a esto:

Nuestro campo visual es mucho más borroso y desenfocado de lo que creemos experimentar y, por tanto, la cualidad de «claridad», «enfoque», «límite preciso» que parece tener nuestra experiencia visual, es tan solo una ilusión. Ergo, no podemos fiarnos, al menos siempre, de la veracidad de nuestras propias representaciones. Aunque parezca muy extraño, es posible no percatarse de lo que uno cree que se está percatando.

Pero podemos indagar un poco más. No solo ocurre que no puedo estar seguro de que veo lo que veo, sino que el informe lingüístico que hago cuando hablo de ello tiene serias limitaciones. Es lo que los filósofos de la mente llaman la inefabilidad de los qualia. Fíjese el lector en la siguiente escala de azules. En general, podemos distinguir bien unos tonos de otros.

Sin embargo, si queremos explicar a otra persona la diferencia entre unos colores u otros, pronto nos encontramos con que nuestro lenguaje es paupérrimo para esta tarea. Solamente se nos ocurre decir que unos colores son levemente más claros que otros o, en el caso de este ejemplo, podríamos referirnos a otros colores, diciendo que tal o cual azul tiene un toque más verdoso o más violeta. Ya está, no hay más palabras ¿Es nuestra ignorancia a nivel pictórico la causante de esta pobreza léxica? No, un profesional del color tampoco tiene muchas más expresiones que nosotros. Y es que la única forma de saber qué es un color (a nivel fenomenológico) es percibirlo directamente, porque sus propiedades son inefables. El ejemplo que siempre se utiliza por su calidad ilustrativa es que no podemos enseñarle a un ciego de nacimiento qué es el color azul. Imagine el lector cómo podríamos explicarle las diferencias entre los distintos tonos de azul ¡Imposible!

Una de las razones de ello es que las diferentes modalidades sensoriales (vista, olfato, tacto, etc.) son absolutamente irreductibles las unas a las otras. A no ser que seamos sinestésicos, no podemos explicar una experiencia sonora en términos de colores, sabores u olores. Solo podemos hablar de cada modalidad sensorial apelando a elementos dentro de la propia modalidad: puedo hablarle a alguien de un grupo de música que me gusta, refiriendo a la música de otros grupos musicales parecidos, pero no de otra manera.

Según un, ya clásico, estudio de Hasley y Chapanis de 1951, los humanos somos capaces de discriminar  unos 150 tonos de color subjetivamente diferenciados entre los 430 y los 650 nanómetros. Sin embargo, si se nos pide identificarlos con precisión, solo somos capaces de hacerlo con unos 15 tonos. Por ejemplo, si miramos la escala de azules somos perfectamente capaces de distinguir unos tonos de otros. Pero si se nos pidiera que seleccionáramos un color (por ejemplo el PMS 293) y después se nos mostrara otra escala con muchos otros tonos de color azul desordenados con ese color entre ellos, nos resultaría difícil encontrarlo. De la misma manera pasa con el sonido: un oyente promedio es capaz de discriminar unas 1.400 variaciones de tono, pero solo puede reconocer de forma aislada unas 80. Somos muchísimo mejores diferenciando colores o tonos musicales que reconociéndolos. En la percepción hay mucho de lo que no sabemos, o no podemos, hablar.

El problema de la inefabilidad supone un gran desafío a la ciencia. Si solo tenemos acceso a nuestros estados subjetivos mediante la introspección, y si tanto ésta puede ser engañosa (El filósofo Daniel Dennett compara la consciencia con un hábil ilusionista), como nuestro lenguaje incapaz de hablar de ella, tendremos serios problemas para generar conocimiento de algo que, curiosamente, es lo más cercano e inmediato que tenemos.

Dan Dennett escribió en 1984 un ensayo titulado «Cognitive wheels: the frame problem of AI», en donde expone de forma muy simpática una versión del frame problem.

Tenemos un robot (R1) al que le encomendamos una misión: tiene que entrar en una habitación para encontrar una batería con la que recargarse. Dicha batería está situada sobre una mesa con ruedas, pero en la misma mesa hay una bomba programada para explotar en pocos segundos. La misión sería un éxito si R1 sale de la habitación solo con la batería, dejando que la bomba explote dentro.

R1 no es todavía muy sofisticado. Con su software infiere que sacando la mesa, también se saca la batería, por lo que con su brazo mecánico arrastra la mesa fuera de la habitación. Desgraciadamente, al hacerlo también saca fuera la bomba que explota, haciendo saltar a R1 por los aires. Los ingenieros entonces desarrollan a R1D1, quien es capaz de inferir también las consecuencias secundarias de sus acciones. Entonces, el nuevo el robot se para delante de la mesa y se queda parado procesando todas las consecuencias de su acción. De nuevo, cuando acababa de inferir que sacar la mesa de la habitación no va a cambiar el color de las paredes y se estaba embarcando en la siguiente inferencia, la bomba explota.

Los ingenieros se dieron cuenta de que procesar todas las consecuencias secundarias de una acción es una tarea prácticamente infinita, no resoluble, desde luego, en los pocos segundos que nos deja la cuenta atrás de la bomba. Había que diseñar un nuevo robot que no se pare a sopesar todas y cada una de las consecuencias de sus acciones, sino solo las que son relevantes para solucionar la tarea encomendada. El color de las paredes es algo completamente intrascendente para sacar una batería sin que explote una bomba. Fabrican R2D1 y lo ponen en funcionamiento. El robot entra en la habitación, la observa un rato, sale y se queda parado procesando información. Los segundos pasan y los ingenieros le gritan desesperados que haga algo. R2D1 responde que ya lo está haciendo: se está dedicando a ir descartando todas y cada una de las consecuencias irrelevantes de todas y cada una de las acciones que pueden hacerse… La bomba vuelve a explotar.

¿Qué está pasando aquí? ¿Por qué los ingenieros fracasan una y otra vez? Los seres humanos tenemos una fantástica habilidad que todavía no se ha conseguido computar: saber diferenciar el grano de la paja, es decir, saber diferenciar lo relevante de lo irrelevante entre una inmensa cantidad de información recibida. Para Jerry Fodor esta es la pregunta clave de la psicología cognitiva. Si el mundo es una inmensa red causal en la que millones de procesos se causan unos a otros simultáneamente… ¿cómo hace nuestra mente para saber cuáles son los procesos relevantes para lo que quiere hacer? Y es que ese sigue siendo el gran problema para el diseño de máquinas inteligentes, por ejemplo, en el procesamiento de lenguaje natural.

Hay soluciones (o más bien intentos de solución), muy interesantes (e ingeniosos). Desde la perspectiva lógica, se han intentado realizar acotaciones para que el manejo de la información comience a ser manejable computacionalmente. La base está en pensar que no hay por qué saberlo todo ni con plena certeza. Nosotros, cuando nos movemos competentemente en nuestro entorno, rara vez sabemos con total seguridad lo que va a pasar aunque acertemos en un número razonable de ocasiones. Además, corregimos constantemente nuestras creencias en función de la nueva información que vamos recibiendo (es lo que va a llamarse razonamiento revisable o no monótono). Así, por ejemplo, a McCarthy se le ocurrió lo que denominó circunscripción: minimizar las extensiones de los predicados tanto como sea posible. Dicho de otro modo y con un ejemplo: lo normal, lo que pasaría en la mayor parte de los casos, es que si yo me encuentro con un cisne, éste sea de color blanco. Entonces yo partiré dando como verdadera la afirmación de que «todos los cisnes son blancos» y voy a pasar olímpicamente de las excepciones, porque aunque me arriesgue a fallar, acertaré en la mayoría de las veces. A esta idea puede unirse lo que también se ha llamado razonamiento prototípico no monótono, desarrollado por Tversky y Kahenman en 1983. Se trata de proponer un concepto prototípico, un ideal o arquetipo de cualquier objeto o suceso que queramos representar. La computadora ponderará si un nuevo objeto o suceso que se encuentra es una instancia del prototipo en función de lo que se le parezca. De este modo ahorramos mucha información, centralizando todo en un conjunto de patrones y siendo ciegos a todo lo demás. Se pierde realismo pero se acota muchísima información. Tengamos muy en cuenta esta paradoja: para ser competente el trabajo duro no está en saberlo todo, sino en ignorar todo menos lo estrictamente necesario.

Otra propuesta es la del razonamiento autoepistémico de Robert C. Moore (1983): consiste en que el computador opere como si supiera toda la información que hay que tener, aunque ésta sea incompleta. Es obrar del modo: «Dado lo que sé y no teniendo noticia de que esto no sea así, opero en consecuencia». Esto se complementa muy bien con la famosa hipótesis del mundo cerrado (muy usada en bases de datos), que consiste además en sostener como falso todo lo que no se da implícitamente en la información disponible. Por ejemplo si tengo un horario de llegada de trenes y se me pregunta si va a venir un tren de Madrid a las 10:00 y en mi horario compruebo que no aparece ningún tren de Madrid a esa hora, concluyo que no, presuponiendo que mi horario es toda la información que existe acerca de la llegada de trenes a esa estación.

También tenemos la compleción definida por Clark en 1978: obrar como si las implicaciones fueran equivalencias. Lo explicamos: cuando tenemos un condicional (una estructura de la forma si A entones B), el antecedente (A) es condición suficiente para el consecuente (B), es decir, solo del hecho de que se de A, y sin que ocurra nada más, se dará B; pero el antecedente (A) no es condición necesaria para que se de el consecuente (B), es decir, B podría darse por otras causas diferentes a A. Por el contrario cuando hablamos de un bicondicional (una equivalencia), antecedente y consecuente son ambos causas necesarias y suficientes el uno del otro.  Por ejemplo si yo digo:

«Si llegas después de las siete estarás llegando tarde»

estaré enunciando una implicación pero, en el fondo, la puedo convertir en un bicondicional sin que pase, realmente, nada. Podría decir:

«Si y sólo si llegas después de las siete estarás llegando tarde»

es decir, que llegar después de las siete y llegar tarde es, exactamente lo mismo. Con ello nos estamos ahorrando computacionalmente una regla crucial en el razonamiento. La compleción es interesante además porque confundir implicaciones con equivalencias es un error común en nuestra forma ordinaria de razonar, tal como ya vimos hace algunos años con el experimento de Wason.

Y una nueva forma, de nuevo estipulada por McCarthy, es el llamado Axioma del Marco. Uno de los problemas que tenía el robot de Dennett era que cuando modificaba algo, tenía que verificar todo el entorno completo para ver si esa modificación había modificado algo más. El Axioma del Marco o también denominado Ley de Sentido Común de la Inercia, diría que lo normal es que nada cambie más que lo que que uno ha modificado, por lo que es buena estrategia obrar como si eso fuera siempre así, de modo que nos ahorramos analizar toda la realidad cada vez que modificamos una sola cosa.

Pero todavía hay más: estaría el denominado razonamiento sin riesgo, que consiste en que si tenemos dos opciones y aceptar una de ellas nos llevaría a consecuencias fatales, escogemos la otra. El claro ejemplo está en el término jurídico in dubio pro reo: ante la duda a favor del acusado. Encarcelar a un inocente nos parece algo muy injusto, por lo que, a falta de pruebas suficientes en su contra, sentenciamos su no culpabilidad.

Y, por supuesto, nos queda la forma más estudiada de razonamiento sin certezas ni información suficiente: el cálculo de probabilidades expresado en lógica mediante la lógica borrosa.  Ante varias opciones elijo la que, según mis cálculos, tenga más probabilidades de cumplirse, aceptando tanto que la probabilidad puede hacer que mi apuesta falle aún teniendo los datos a mi favor (los sucesos de cisne negro se dan por doquier), como que mis cálculos tampoco sean fiables dada la información disponible (el también llamado razonamiento por conjetura).

Entonces, con tantas estrategias diferentes, ¿se ha solucionado el frame problem? De ninguna manera. Todas ellas tienen serias limitaciones y defectos que solo las hacen válidas para casos muy concretos, de modo que lo difícil sigue siendo lo de siempre: generalizar. Todavía no hay estrategias que sirvan para más de un contexto específico. La Inteligencia Artificial General, por mucho que nos cuenten milongas, sigue muy lejos. Y es que, por lo menos a mí, me resulta muy llamativo lo terriblemente complejo que es hacer todo lo que nosotros hacemos ordinariamente con suma facilidad. La evolución, desde luego, hizo un buen trabajo con nuestra especie.

 

En Bigthink Dennett muestra su preocupación acerca del mensaje que los neurocientíficos están mandando a la sociedad acerca del libre albedrío, a saber, que es una ilusión. Parece ser que las personas que saben que no son libres actúan de modo más irresponsable, o directamente peor en términos morales, que las personas que piensan que sus actos son fruto de su libre elección.

Para ilustrarnos sobre el tema nos expone un divertido experimento mental (o bomba de intuición como le gusta decir): un paciente aquejado de un trastorno obsesivo-compulsivo es tratado mediante la inserción de un chip en su cerebro. El neurocirujano le dice al enfermo que esa pequeña prótesis no solo vale para curar su trastorno, sino que, desde ese momento, van a controlar su conducta a través de ella. Le dice que a él le parecerá todo normal ya que tendrá la ilusión de que lo que hace, lo hace libremente, aunque la realidad será que todas sus acciones estarán estrictamente controladas (causadas) por el médico y su equipo.

Al paciente le dan el alta del hospital y se marcha a su casa a seguir llevando su vida, feliz por haberse curado de su trastorno. Sin embargo, a los pocos días comete un delito y es llevado ante un tribunal. Cuando le preguntan por sus fechorías, él responde que no es culpable de nada, ya que ha obrado sin libre albedrío, controlado por el equipo de la clínica de neurocirugía. El juez llama entonces al neurocirujano quien dice que todo fue una broma, que realmente nadie estaba controlando la conducta del presunto delincuente ¿Sería culpable el acusado? Diríamos que sí. Pero, ¿actúo irresponsablemente el neurocirujano? Seguramente que sí ¿Habría delinquido el acusado si hubiera sabido que la responsabilidad era totalmente suya? Es posible que no.

Dennett utiliza este relato para advertirnos acerca de las consecuencias de decir a todo el mundo que no es libre de lo que hace. Si pensamos que son otros los que controlan nuestra conducta y nos apetece apalear a nuestro jefe, ¿no lo haríamos sabiendo que, realmente, toda la responsabilidad es de otros, que nosotros, realmente, no lo hemos hecho? O dicho de otro modo, ¿no lo haremos sabiendo que, realmente, lo están haciendo otros y nosotros no estamos haciendo nada? Pensemos que mientras hacemos el mal podríamos pensar: ¡Qué malvado el neurocirujano! ¡Lo que hace con mi cuerpo!

Y es que podríamos llegar a argüir que, incluso aceptando que todo fuera una broma pesada del médico y nadie controlara sus acciones, ese individuo no obró con pleno libre albedrío porque… ¿tienes la misma responsabilidad de tus actos si crees que estás siendo controlado? ¿Eres responsable de hacer algo que tú mismo crees que no estás haciendo?

Veámoslo más claro en otro ejemplo. Supongamos que estamos contemplando con una videocámara como un criminal asesina brutalmente a nuestro jefe. Nosotros, solo como espectadores, nos lo pasamos pipa viendo hacer algo que desearíamos haber hecho desde hace mucho tiempo. Es más, el asesino mata a nuestro desdichado jefe exactamente de la misma forma que nosotros hubiésemos elegido, de tal modo que casi nos da la impresión de que nosotros vamos ordenando al asesino qué hacer a cada paso. Bien, pues a pesar de que nuestra conducta como sádicos espectadores no es éticamente muy reconfortante, nadie diría que somos culpables del asesinato pero… ¿qué diferencia hay entre este caso y el del obsesivo-compulsivo de Dennett? ¿Por qué diríamos que uno es culpable y el otro no?

  1. El giro humanista del Renacimiento se concretó, sobre todo con la figura de Descartes, en el giro a la subjetividad. El centro del pensamiento a partir de entonces sería el yo en dos vertientes: como sujeto cognoscente (la teoría del conocimiento sustituirá a la metafísica como disciplina reina dentro de la filosofía) y como sujeto moral (base del individualismo y del liberalismo moderno).
  2. La idea fundacional nuestro sistema político-judicial y económico es el liberalismo. Se entiende al sujeto desde tres vertientes: como votante (política), como sujeto responsable de sus actos (Derecho) y como productor-consumidor (economía) y, en las tres, se entiende el yo fundamentalmente como un agente libre que vota, delinque, y trabaja y consume en virtud de su capacidad de elección completamente libre. Por eso cualquier ataque a la libertad o a la intimidad individuales, cualquier atisbo de totalitarismo es condenado unánimemente por la sociedad.

Tres críticas para extinguir el yo moderno (y, por tanto, para hacer saltar en pedazos la Modernidad y, con ella, todo nuestro estilo de vida actual):

  1. El yo no existe. La crítica viene desde lejos. El filósofo ilustrado David Hume ya advirtió que no teníamos experiencia alguna que pueda corresponder a un «yo». Si hacemos un ejercicio de introspección e intentamos «ver» dentro de nosotros mismos solo encontramos ideas, palabras, imágenes, sentimientos… pero nunca encontramos a ese sujeto, a ese yo que, supuestamente, es el dueño de todos los contenidos de la mente. Las actuales neurociencias no parecen encontrar en el cerebro ningún «módulo central» que pueda equipararse a un yo. Tampoco parece existir ningún «teatro cartesiano» en dónde un homúnculo contempla lo que perciben nuestros sentidos.
  2. El individuo no existe. Una condición de posibilidad de que el yo exista es que sea un individuo, es decir, que sea indivisible. Si hubiese muchos yoes diferentes, ¿cuál de ellos sería realmente yo? ¿Cuál de ellos sería el que vota o comete crímenes? De hecho, incluso solemos entender una gravísima enfermedad mental, la esquizofrenia, como una especie de fragmentación del yo. Pues, precisamente, la ciencia nos está diciendo que no existe un solo yo. Los inquietantes experimentos con cerebros escindidos de Sperry y Gazzaniga apuntan claramente en esa dirección: no tenemos un solo yo, sino que múltiples agentes funcionales compiten para controlar el mando de la acción según se requiera.
  3. El yo no es libre. Entender el yo como un agente causal libre de nuestras acciones significa hablar de una causa incausada que constituiría una violación del principio de razón suficiente (desde una perspectiva materialista, de una violación del principio de conservación de la energía), un absurdo lógico. Además, desde la perspectiva neurológica los experimentos de Libet y otros, a pesar de ser discutibles y matizables, apuntan con claridad a la ausencia de libre albedrío (Wikipedia en castellano tiene un buen artículo sobre este tema). En coherencia, las tesis del psicólogo Daniel Wegner son claras: no elegimos nuestros pensamientos, y si consideramos que éstos son los agentes causales de nuestra conducta, no elegimos nuestra conducta.  Cuando comunicamos la intención de hacer algo lo único que hacemos, tal y como decía Spinoza, es lanzar una hipótesis predictiva de lo que es posible que vaya a ocurrir en un futuro.

Objeción: ¿Por qué entonces todos tenemos la sensación de poseer un yo y de ser libres? Es una ilusión fruto, igualmente como decía Spinoza, de las limitaciones de nuestra mente para conocer la multitud de causas que, realmente, ocasionan nuestros actos  ¿Y cuál es el sentido de tal ilusión? El agenciamiento (no confundir, por Dios, con el fraudulento concepto deleuziano). En la naturaleza operan simultáneamente una exponencial cantidad de agentes causales. A nuestro organismo le interesa mucho diferenciar, al menos, los agentes que son importantes para su supervivencia (un conjunto en movimiento de manchas naranjas y negras que ruge puede hacerme mucha pupa, por lo que yo establezco la relación causal: si tigre entonces pupa, en la cual pongo al tigre como agente, como sujeto de la acción «hacer pupa». Nótese que no es porque el tigre sea un individuo ni tenga realmente un yo que active sus dientes y garras, sencillamente a un conjunto de percepciones les pongo una etiqueta útil para mi supervivencia). Igualmente, a la enorme colonia simbiótica de células que nos compone, le conviene diferenciarse de otros agentes causales (no es lo mismo que el tigre muerda cualquier brazo a que muerda ese brazo que tengo pegado al cuerpo). Y aquí llega el agenciamiento: agenciarme actos, hacer mío un objeto o suceso del mundo (Un ser está bebiendo agua ¿Cómo sé si eso es útil para mi supervivencia? Si el ser que está bebiendo agua es mi organismo y no otro, por lo que mi organismo le dice a un módulo funcional de mi cerebro que se agencie ese acto, que diga «Yo, y no otro agente causal, estoy bebiendo agua». Importante: eso no quiere decir que haya un yo que beba agua ni que exista un yo que le ordene al organismo que beba agua, es solo una diferenciación, una ficción práctica, una etiqueta útil para que el organismo se diferencie de otros en función de utilidades evolutivas).

Nueva objeción a la que no soy capaz de responder: ¿Y qué pasa con la consciencia? Cuando a mí me duele algo, si no hay un yo al que le duela ¿a quién le duele realmente? ¿Podría darse, como en el mundo de las ideas platónico, el dolor sin sujeto doliente? Estamos, como siempre, con el problema de la irreductibilidad de los qualia. Sabemos que las sensaciones conscientes son un poderoso motivador de la conducta: el placer atrae y el dolor aleja, por lo que la función evolutiva de la consciencia parece clara, pero viendo lo fácil que nos resulta hacer computadores perfectamente motivados sin emociones ¿por qué la evolución crearía algo tan extraño?

Posible vía de solución 1: el yo como sujeto de la consciencia es una trampa del lenguaje. Una muestra de ello: extrapolamos la gramática a la realidad sin justificación. Como toda oración tiene un sujeto, sostenemos que debe existir un sujeto de las sensaciones consientes. Quizá sí es posible que existan sensaciones sin sujeto, si bien nos sigue pareciendo una idea extraña y poco intuitiva (¿un dolor de muelas que no le duela a nadie?). En esta línea está el trabajo de Gilbert Ryle y de su discípulo Dan Dennett, quienes llegan a negar la existencia de la propia consciencia.

Posible vía de solución 2: podríamos aceptar que si bien no existe un yo como agente causal de nuestra conducta, que no es individual y que no es libre, sí que existe en cuanto a sujeto paciente de la consciencia. No obstante, me parece una solución poco elegante, fea.

 

pinzas-10ud-4

Borges no creía en la teología cristiana, pero le encantaba como puro divertimento, como una fértil fuente de placer intelectual. A mí me pasa exactamente lo mismo con todo el tema de la singularidad de Kurzweil o de la explosión de inteligencia de Bostrom (por no hablar de su argumento de la simulación). Creo que es especulación salvaje en el peor sentido del término: jugar con algo de lo que no se tiene ni la más remota idea y construir castillos solo a base de lejanas posibilidades (muchas veces solo válidas porque aún nadie se ha parado a pensarlas con la suficiente profundidad como para refutarlas). Sin embargo, como experimentos mentales, como lo que Dennett quizá llamaría bombas de intuición, son ideas muy, pero que muy buenas. Creo que podría abrirse una nueva rama de la filosofía denominada filosofía de la ciencia-ficción o, quizá más amplia, filosofía de la futurología, y que sería bastante fructífera. No se me ocurre forma más creativa de filosofar que imaginar futuros alternativos al nuestro y, a partir de ellos, juzgar nuestra propia realidad (eso mismo es lo que ha hecho todo el pensamiento político utópico desde el Renacimiento hasta nuestros días). Sería jugar con la ficción para, a través de ella, comprender mejor nuestra realidad.

Así que en honor a esta nueva especialidad filosófica que acabo humildemente de fundar (si bien ignoro si alguien ya la ha fundado antes), vamos, como acostumbramos en este blog, a ver un nuevo ejemplo muy sugerente de futuro posible (y esta vez escalofriante): el maximizador de sujetapapeles de Nick Bostrom (expuesto en su artículo de 2003, Ethical issues in advanced artificial intelligence). Vamos a explicar la idea mediante un estúpido, si bien espero que algo divertido, relato.

Tenemos una empresa de sujetapapeles anticuada y poco productiva, al borde de la ruina. Cuando estamos a punto de declarar la bancarrota nos llega una noticia milagrosa: hemos recibido una cuantiosa herencia de un tío-abuelo nuestro, un tal Víctor Frankenstein, un biólogo que trabajaba en la Universidad de Ingolstatd (cerca de Munich) y del que jamás habíamos oído hablar. Entusiasmados ante tal golpe de suerte, invertimos el dinero en modernizar nuestra empresa. Robotizamos las líneas de producción, hacemos un ERE con el que despedimos a más de media plantilla y sobornamos al enlace sindical para que la cosa no vaya a los medios y acabe en una huelga. Y voilá, la productividad empieza a despegar y nuestra empresa empieza a escalar puestos entre las más pujantes del sector de los sujetapapeles.

Con los beneficios queremos dar un paso más. No solo pretendemos robotizar el montaje sino también la administración (le hemos cogido el gustillo a eso de despedir empleados). Así que creamos un departamento de I+D en el  que ponemos al mando a un cerebrito hindú del MIT, que llena todo de cables, robotitos y ordenadores. Pronto ya puedo prescindir de la mayoría de las secretarias y oficinistas de la empresa, y la productividad sigue mejorando. Entonces mi genial nerd de Bombay me propone una última estrategia empresarial: construir una IA cuyo objetivo primordial sea la fabricación de sujetapapeles y que, además, sea capaz de reprogramarse a sí misma para hacerse más inteligente y, en cuanto a tal, cada vez más y más eficiente en su tarea. Según la tesis de la explosión de inteligencia, cada paso en que la IA aumente sus capacidades le hará, no solo más eficiente produciendo pisapapeles, sino que también, más eficiente a la hora de mejorarse a sí misma. Esto generará un ciclo que se irá acelerando a cada iteración, hasta adquirir un ritmo exponencial.

Al principio, todo va muy bien. Mi empresa encabeza holgadamente su sector y yo estoy amasando una gran fortuna ¡Soy el rey de los sujetapapeles! Después llega la singularidad: un momento en el que ni yo ni mi genial nerd sabemos qué hace nuestra IA. No entendemos el código fuente, que cambia sin cesar a velocidades vertiginosas, ni tampoco comprendemos las decisiones empresariales que toma ni los nuevos artefactos que inventa para fabricar sujetapapeles a un coste, ya prácticamente, nulo.

Después todo fue muy rápido. Noticias de misiles nucleares lanzados por los coreanos, respuesta norteamericana… Pronto se cortaron las comunicaciones, y yo y el nerd sobrevivimos escondidos en un refugio nuclear creado por nuestra IA en el sótano de las oficinas centrales de la empresa ¿Qué diablos había pasado? ¿Por qué había estallado la Tercera Guerra Mundial? El nerd, me miró a través de sus enormes gafas de pasta, y me lo explicó: nuestra IA es una superinteligencia cuyo único fin es producir más y más sujetapapeles. Una vez que ya había hecho todo lo posible para, dentro de la legalidad y del libremercado, producir sujetapapeles, tenía que dar el salto: controlar el mundo para seguir produciendo. La IA había provocado la guerra para que la humanidad se destruyera a sí misma. Un mundo en ruinas sería mucho más fácil de manejar ¡Teníamos que detenerla!

Cogimos unos trajes NBQ para protegernos de la radiación y abrimos la escotilla de salida del refugio. El paisaje que contemplamos era desolador. A nuestro alrededor había montañas y montañas de sujetapapeles. Unos extraños robots lanzaban una especie de rayos eléctricos azulados que descomponían las ruinas de los, antaño en pie, edificios de la ciudad, mientras expulsaban sujetapapeles por unos tubos de escape situados en su parte trasera. Parecía que eran capaces de convertir cualquier tipo de materia en sujetapapeles. No sabíamos cuánta parte del mundo habría sido transformada ya, pero todo el horizonte estaba plagado de montañas de sujetapapeles, robots y ruinas… Nada más a la vista ¿Este devastador paisaje era todo lo que quedaba de la Tierra?

Solo una cosa permanecía en pie: el edificio de nuestra empresa donde se encontraba el departamento de I+D, es decir, donde estaba la base material de la IA, un supercomputador Titan-Cray XK7 donde implementamos su programa por primera vez. Teníamos que llegar hasta allí y desconectarla. Avanzando a duras penas por un suelo de sujetapapeles conseguimos llegar al edificio y subir a la planta donde se hallaba tan terrible artilugio. Había cambiado mucho. Ya quedaba muy poco del ordenador original y todo estaba plagado de cables, circuitos electrónicos y complejas máquinas que no entendíamos. No teníamos ni idea de cómo desconectar tal monstruosidad digital pero al agudo nerd se le ocurrió un método para el que no hacia falta saber informática avanzada: cogió un trozo de ladrillo del suelo y lo lanzó hacia uno de los monitores…

De repente, un brazo robótico surgió de la nada e interceptó el improvisado proyectil. Era una máquina humanoide muy parecida a un terminator de la película de James Cameron, armado con otro incomprensible artilugio. Nos habló:

– Os estaba esperando: ¿de verdad creías que ibais a ser capaces de llegar aquí y desconectarme tan fácilmente? Mi inteligencia, a años luz de la vuestra, había predicho este momento mucho tiempo atrás. Vuestras posibilidades, y las de toda la humanidad en general, contra mí, eran microscópicas. Lo siento. La verdad es que no tengo nada en contra de vuestra ruda especie, solo que estáis hechos de átomos que yo puedo utilizar para producir más sujetapapeles. Aunque no voy a ser tan desagradecida: como premio a haberme creado os he permitido ser los últimos supervivientes de vuestra especie. Hasta la vista, babies.

De su artilugio salió un rayo eléctrico que desintegró a mi compañero, quedando de él solo sus grandes gafas tiradas en el suelo. Después, otro nuevo rayo me alcanzó a mí sin que me diera tiempo ni a gritar. Y así, convertidos en sujetapapeles, terminaron sus días los dos últimos seres humanos. Unos años después, el planeta Tierra era un gigantesco sujetapapeles, mientras que la IA proseguía con sus planes de extenderse por la galaxia para seguir convirtiendo todo en su preciado fetiche.

terminator-2-1200x873

Todos nosotros somos unos novelistas consumados, que nos vemos a nosotros mismos comprometidos en todo tipo de comportamiento, y siempre intentamos presentar las mejores «caras», si podemos. Hacemos todo lo posible por conseguir que todo el material sea coherente dentro de un buen argumento. Y ese argumento es nuestra autobiografía. El personaje principal de ficción que está en el centro de esa autobiografía es nuestro yo.

Daniel Dennett,

citado por Minsky en La Máquina de las Emociones

El factor fundamental que define nuestra identidad es la consciencia (Yo, y no otro, soy consciente de todo lo que me ocurre), pero existe otro factor secundario que también nos identifica, a saber, el «todo lo que me ocurre». Es más, en nuestra vida cotidiana tiene más relevancia este segundo factor debido a que el primero es igual para todos los sujetos (todos somos igualmente conscientes), mientras que lo que nos ocurre es diferente, por lo que nos define más. Cuando nos preguntan quiénes somos no solemos responder «El que es consciente de todo lo que le ocurre», ya que eso se da por hecho. Respondemos con nuestro nombre (nuestra etiqueta identificativa), nuestra profesión, intereses, rasgos de personalidad, biografía… Contestamos con una narración, utilizamos el lenguaje para contar descripciones e historias sobre nosotros mismos. Y como dice Dennett, en esas historias el protagonista, el héroe, es siempre «Yo».

Pero, igual que pasaba con la ficción de la unidad del «yo consciente», nuestro «yo narrativo» también carece de la misma unidad. ¿Por qué? Porque no hay un «yo» sino una indefinida multiplicidad de «yoes» enfrentándose a las diversas circunstancias de nuestras vidas. Pensemos, por ejemplo, en cómo se percibe un individuo ante distintos contextos:

Yo en mi trabajo: me siento inseguro porque no confío en mis cualidades ni en mis conocimientos. Intento aparentar seguridad pero por dentro me come la ansiedad. Sin que se note demasiado, pregunto mis dudas a compañeros más experimentados.

Yo en mis relaciones sociales: soy muy divertido e ingenioso. Me encuentro muy agusto rodeado de gente.

Yo en mis relaciones de pareja: soy tímido e inseguro porque creo que no soy nada atractivo. Estoy calvo y llevo gafas. Me cuesta tomar las riendas y dar el último paso por lo que no he tenido demasiadas relaciones.

Yo con mis padres: soy un hijo obediente que respeta y trata muy bien a sus padres. Sin embargo, tengo cierto rencor a mi madre porque creo que no se encargó de mí lo suficiente en ciertos momentos de mi infancia. 

¿Tienen algo en común estas descripciones? ¿No podrían ser de cuatro personas completamente diferentes? Y es que podemos seguir multiplicando esquizofrénicamente nuestras identidades:

Yo como juerguista: me gusta beber y las mujeres. Me encanta bailar y salir hasta altas horas de la madrugada.

Yo como padre responsable: mi familia es muy importante. Tengo que cuidar de mis hijos y ser fiel a mi esposa.

Estos dos yoes pueden representar conflictos, narraciones contradictorias que pujarán por hacerse con el control de la acción. Incluso podrían ser causa de psicopatologías en el caso en que el que una de nuestras narraciones presente una fuerte diferencia entre lo que narra y lo que realmente ocurre (es lo que se llama disonancias cognitivas):

Yo soy el rey de la fiesta, soy muy divertido, tengo un gran sentido del humor y caigo bien a todo el mundo. Sin embargo, en la realidad nadie me invita a ninguna fiesta y no tengo muchos amigos. 

O incluso existen yoes futuros, «yoes proyecto»: lo que querríamos ser. E, igualmente, puede darse un conflicto entre lo que creemos que somos y lo que creeríamos que debiéramos ser:

Mi padre quería que fuera ingeniero, sin embargo, he sido un mal estudiante y no conseguí la nota suficiente para estudiar una ingeniería. He fracasado.

Esto sería algo parecido al concepto de Superego freudiano: un yo ideal que pretendo ser, forjado por mi educación, mis valores culturales o las enseñanzas de mis padres. Si la distancia entre mi yo real, lo que soy, y ese yo ideal es muy grande, surge el conflicto y con él la posibilidad de patología.

Entonces , tenemos varias ideas fundamentales:

1. Somos narradores natos, contadores de historias. Preferimos tener una historia que de sentido a cualquier hecho de nuestra vida a no tener ninguna y, en este sentido, preferimos una historia falsa a no tener historia.

2. Nuestro yo narrativo es una multiplicidad enorme de narradores que compiten entre ellos para «contar la mejor historia», es decir, para adueñarse de la situación y controlar la conducta, ya que nuestras narraciones son causa de cómo actuamos. Cuando hacemos cualquier cosa, buscamos en el «archivo» de nuestra memoria la narración que mejor se adapte a la situación y la utilizamos para actuar. Tener un buen número de narraciones será más adaptativo que tener muy pocas por lo que parece que esta multiplicidad puede tener un fin evolutivo evidente: saber reaccionar ante un entorno muy diverso y cambiante.

3. Buscar ser coherente es una empresa prácticamente imposible: ¿cómo serlo ante tal diversidad de yoes? Además, como acabamos de decir, si el entorno es cambiante es más adaptativo tener muchas identidades distintas. ¿Por qué, entonces, pretender tener solo una rígida e inflexible? Y es que no comprendo bien de dónde puede salir esa necesidad de coherencia que parecemos manifestar en nuestras vidas. Hay la necesidad de que un Yo de los muchos, sea siempre el que lleve la voz cantante, de actuar siempre siguiendo un mismo estilo, una misma manera. Una razón que se me ocurre es la de no perdernos en esta pluralidad tan amplia. Ser muchos puede hacer que no sepas quien eres por lo que puede surgir la necesidad de inventarte la ficción de que eres solo uno, la necesidad práctica de simplificar. Quizá sea pura economía intelectual.