Archivos de la categoría ‘Física’

d24761f22b323791765a7392056c0de3

Algo así ocurre en la película En algún lugar del tiempo, de 1980. El protagonista (que interpreta Christopher Reeve) recibe un reloj de oro de una mujer mayor. Luego viaja hacia atrás en el tiempo y entrega el reloj a la misma mujer cuando era joven, el mismo reloj que ella le dará unas décadas después ¿Cómo llegó a existir ese reloj? En toda su existencia, que solo abarca unas pocas décadas, nunca ha estado en una fábrica de relojes. Existe aunque no tiene creador. Parece ser causa sui.

Jim Holt, ¿Por qué existe el mundo?

Rompemos con el principio de conservación de la materia y la energía, creando un objeto físico de la nada… un reloj de oro… ¿de qué marca? ¿Podríamos utilizar así la máquina del tiempo para crear cualquier objeto imaginable? No porque es cuando la mujer mayor le da el reloj, cuando él decide viajar al pasado a dárselo a la joven. Pero entonces, ¿quién decidió crear el reloj? El viajero, al escoger viajar al pasado después de recibir el reloj, crea el bucle pero no puede decidir crear el objeto que él quisiera, sino solo el reloj que ha recibido. Nadie, no hay nadie detrás de la intención de crear concretamente un reloj. Es una creación sin creador, un objeto realmente incausado.

Le echamos un poquito (o bastante) más de imaginación. La mujer mayor lo que me entrega es el mismo universo… ¿tendríamos un auténtico universo incausado sin necesidad de explicación de ningún tipo? ¿Será así como surgiría el nuestro?

No obstante, muy a mi pesar,  las extrañísimas consecuencias de esta paradoja temporal lo que vienen a mostrar es la imposibilidad de los viajes temporales al pasado. Por mera lógica básica, si algo te lleva a paradojas o absurdos, su contrario será verdadero. Si los viajes temporales al pasado nos llevan a locuras, será porque no son posibles.

Anuncios

Plantean-nueva-teoria-del-origen-del-Universo-no-fue-el-Big-Bang

Uno de los temas más densa, a la par que infructuosamente, tratados por la tradición filosófica occidental ha sido el de la posibilidad de la nada. Si Leibniz establecía como pregunta fundamental de la metafísica “¿Por qué existe algo en vez de nada?”, parecía primordial definir de algún modo qué significa que algo sea una nada. Para Parménides, el primer metafísico de Occidente, la nada era un contrasentido lógico ya que decir que existía ya era sostener que era algo y, precisamente, la nada se define por no ser nada. Así, la nada era algo en lo que ni siquiera cabía pensar puesto que no podía tener existencia ni siquiera como un objeto mental. La nada era imposible.

Aristóteles, con su sensatez y cordura habituales, siguió a Parménides y expulsó la nada de su física. No existe, todo está lleno de ser. Incluso los aparentemente vacíos espacios interplanetarios estaban llenos de una sustancia divina denominada éter. Todo estaba saturado de ser, sin el más mínimo espacio para la no existencia. Filósofos y científicos siempre han sufrido de horror vacui. Incluso cuando Torricelli produjo por primera vez vacío de forma experimental, se podía seguir argumentando a favor de la no existencia de la nada ¿Cómo?

Si dado un espacio cualquiera quitamos todos los objetos que lo pueblan, incluso el aire, tal y como hizo Torricelli, ¿no estamos ya ante puro y genuino vacío, es decir, ante la nada? No, porque queda el espacio, queda un continente tridimensional donde flotan las cosas. Y de eso no podemos prescindir porque, pensaban todos los físicos de la Edad Moderna, este espacio es inmutable… No hay forma de interactuar con él. Pero es más, no solo no podíamos hacer nada a nivel ontológico sino que tampoco lo podíamos hacer a nivel mental. Para Kant, el espacio era una condición de posibilidad de la percepción de cualquier objeto físico. Sin espacio no podemos imaginar siquiera un objeto en nuestra mente. Intente el lector pensar en una pelota de fútbol sin las categorías de altura, longitud y volumen… absolutamente imposible.

Pero todo cambió con la Relatividad de Einstein. Ahora el espacio era algo que se podía modificar, se estiraba y se contraía como el chicle. El espacio ya no es sencillamente un contenedor, un vacío abstracto en el que está todo, sino que cobra una nueva entidad ontológica: parece ser algo, ya es menos una nada. Edwin Hubble nos dio además un nuevo e importante dato: el universo se expande, es decir, el espacio se hace cada vez más y más grande. Para entender esto todo el mundo recurre a la idea de un globo que se infla, siendo nuestro universo solamente su superficie. Pero aquí se empieza a complicar nuestra comprensión intuitiva de las cosas. Esta metáfora tiene la virtud de mostrarnos visualmente como todos los objetos se alejan a la vez de todos los demás, es decir, lo que realmente significa la expansión del espacio en todas direcciones. Si en el globo dibujamos puntos simulando ser estrellas, al inflarlo todos los puntos crecerán a la vez que se irán alejando de todos los demás puntos. Sin embargo, la limitación de la metáfora está en ver que, realmente, la superficie del globo no puede ser todo lo que existe: hay un interior y un exterior del globo. Nuestro universo globo se estaría expandiendo en un espacio, no sería todo el espacio.

Es por eso que, igualmente, falla la metáfora del Big Bang entendida como una gran explosión. Cuando decimos que, al principio, todo el universo estaba comprimido en una diminuta singularidad, ya estamos fallando en algo pues, ¿qué había fuera de esa singularidad? Nada, podría responderse, ya que todo lo existente se encontraba allí. Pero entonces, ¿qué sentido tiene decir que el universo se expandió? ¿Hacia dónde lo hizo si no había más a donde ir? Todo el mundo suele visualizar en su mente un pequeño punto que, a gran velocidad, va aumentando su radio pero… si queremos aumentar cualquier longitud necesitamos un espacio en el que alargarla… ¿No es entonces un sinsentido hablar de expansión del universo?

El cosmólogo ruso Alexander Vilenkin intentó definir la nada como un espacio-tiempo esférico cerrado de radio cero, cayendo en este mismo problema: si esa nada se transforma en algo y, por lo tanto, aumenta su radio, ¿ese radio se expande hacia dónde? Kant veía estos problemas irresolubles y quizá lo sean. Dentro de la historia de la filosofía y de la ciencia, no he visto otros temas donde las respuestas hayan sido más escasas y precarias.

Pensemos de otra manera. Un universo esférico como el globo de Hubble tiene una propiedad muy interesante. Su superficie es ilimitada pero finita, al igual que la de una cinta de Moebius. Tú puedes estar dando vueltas y vueltas a un globo que jamás encontraras nada que pare tus pasos, ninguna frontera ni muro que ponga un límite a tu trayectoria. Sin embargo su superficie es finita, es decir, que podemos calcularla y nos dará un número finito normal y corriente (4πr²). En la visión de Vilenkin, y de muchos otros, está la idea de que nuestro universo puede ser algo así: finito (con una longitud y una cantidad de materia y energía finita) pero ilimitado (no hay un muro detrás del cual esté la nada). Tiene sentido pero nos encontramos con que es difícil (más bien imposible) extrapolar la metáfora del globo de Hubble a un mundo tridimensional ¿Cómo podemos imaginar un espacio con altura, longitud y volumen que sea finito pero ilimitado? Yo no encuentro el modo.

Por otro lado la infinitud del universo, la alternativa a la nada, también parece compleja. El mismo Kant pensó que si el pasado era temporalmente infinito nunca podríamos llegar al día de hoy, ya que para que éste llegara deberían pasar infinitos días. Según Holt nos cuenta, Wittgenstein argumentaba igual con un divertido chiste: Nos encontramos a un tipo que recita en voz alta: “9… 5… 1… 4… 1… 3… ¡Fin!” ¿Fin de qué?, le preguntamos. “Bueno – dice aliviado -, he enumerado todos los dígitos de π desde la eternidad hacia atrás, y he llegado al final”.

Ni contigo ni sin ti. Mal concepto éste de la nada.

 152-moebius-klein-formas-simbolicas-universo-digital_2_723951

1. La baja participación, no por no ser peor que en las europeas del 2009, deja de ser preocupante. Que el 54,16% del censo electoral se haya quedado en casa, deslegitima bastante las mismas elecciones y la representación de los partidos participantes. Esto puede leerse de dos formas: una enorme apatía política fruto de una sociedad con una gran incultura política que piensa que lo que se hace en Europa, o en política en general, no tiene ni la más mínima importancia. Habría mucha gente que vive muy feliz pasando olímpicamente de la política. Están en su derecho, pero es pésimo que sea así. La solución pasa por potenciar la educación política en los centros educativos, cosa que no parece tenerse mucho en cuenta en la nueva ley Wert. La otra lectura es que la gente que no vota muestra su desacuerdo total con el mismo sistema democrático; no solo no se sienten representados por ninguno de los casi cuarenta partidos (ya que aquí tienen la opción del voto en blanco o incluso nulo) sino que no creen en el sistema de elección. Esto es, igualmente, muy grave: mucha población no creería en la misma democracia. No obstante, pienso que esta opción no es mayoritaria. Los ciudadanos que no han votado han confundido la opción del voto en blanco con la abstención; sencillamente, no se sienten identificados con los políticos en general.

2. El Partido Popular ha sufrido el mayor varapalo desde que entró en el poder por segunda vez. Tengamos en cuenta que con algo más de cuatro millones de votos, solo representa el 26% de los votos y un pingüe 14% sobre el total del censo electoral. La conclusión es dura: el partido gobernante solo ha sido votado por algo más de uno de cada diez censados. De nuevo, el resultado deslegitima su mandato y muestra su escasa representatividad.

3. El PSOE se hunde irreversiblemente. Parece increíble que pierdan nueve diputados, uno más que el PP, estando en la oposición y con el gran descontento social hacia las políticas de su rival. Y es que este partido escribió su carta de defunción  en la última etapa de ZP cuando aplicó medidas neoliberales, confesando que dado el actual sistema económico no cabe hacer otras políticas. En este caso, mejor que las haga el PP, que está en su papel. No creo que ni siquiera la dimisión de Rubalcaba y la renovación de rostros vaya a mejorar la situación de este partido a medio plazo.

4. El fenómeno Podemos tiene tan solo un 2,7% del censo, es decir que a pesar de su fulgurante comienzo, su representación es nimia. Puede vaticinarse que subirá y que, quizá, pueda aglutinar el voto de la izquierda, absorbiendo a IU y a los sectores más izquierdistas del PSOE. Se les ha acusado de populismo de izquierdas y hay parte de razón en eso. Si miramos su programa electoral, la mayor parte de las medidas que proponen son muy agradables al oído, pero si pensamos en su viabilidad la cosa cambia bastante. Por poner un ejemplo, plantean que las empresas que tengan dinero en paraísos fiscales sean duramente sancionadas. El problema es que si esto se hace así, no habrá empresa alguna que invierta en España. Si yo soy un empresario y lo que quiero es ganar dinero, aunque no sea muy honesto ingresar dinero en un paraíso, si es legal, lo ingresaré. La solución pasaría con un pacto transnacional que prohibiera a nivel mundial la existencia de los paraísos, cosa que está lejísimos de ocurrir. Por lo tanto, la medida propuesta por Podemos es inviable pero efectista a nivel electoral, es decir, populista.  Sin embargo, si el realismo político consiste en jugar eficazmente dentro del sistema empobreciendo sistemáticamente a su población tampoco queremos seguir jugando. Esta es la gran paradoja: la utopía nos hace perder en un juego injusto y el realismo nos hace ahondar más en la injusticia. Por eso creo que la solución a nuestros acuciantes problemas no está, evidentemente, en más derecha, pero tampoco está en más izquierda. La solución tampoco vendrá, desgraciadamente, en dos días, sino en un cambio progresivo que refunde el sistema desde nuevos puntos de vista.

5. En esta línea me parecen más interesantes otras opciones como UPyD, Ciutadans o RED, entre otros. Dentro de ámbitos más realistas pretenden, igualmente, romper el bipartidismo y, lo que me parece aún mejor, terminar con las ideologías, cosa que creo que es el futuro de la política: tomar medidas buscando el bien común con independencia de su color político. UPyD, por ejemplo, propone el patriotismo constitucional como alternativa al nacionalismo independentista (algo mucho mejor que responder con nacionalismo españolista), o RED, el partido el Elpidio Silva, propone medidas muy concretas contra la corrupción jurídica, defendiendo, ante todo, la separación y equilibrio de poderes (condiciones esenciales y necesarias como base de un sistema democrático). También hay que tener en cuenta a los ecologistas (PACMA o Equo), siempre ignorados en España (que no en Europa), nos alertan de los graves peligros que el deterioro medioambiental conlleva (igualmente ignorados, sobre todo, por la derecha española).

6. Muchos medios nos están avisando de que una cosa son las elecciones europeas y otras las generales. Los votantes no votan con el mismo criterio y es verdad. Creo que nos estamos precipitando mucho al diagnosticar el fin del bipartidismo y al ilusionarnos con nuevos tiempos. De momento, lo único que legítimamente podemos deducir es que ha sido un serio aviso para los dos grandes, pero nada más. Paciencia.

Hamlet

El fisicalismo, postura muy aceptada en los últimos tiempos, es una posición ontológica que sostiene que todo objeto existente es un objeto físico. Sin entrar en la innumerable cantidad de problemas que encierra definir “físico” o “material” (el materialismo y el fisicalismo se parecen mucho), el fisicalismo entiende que cualquier descripción de la realidad puede reducirse a una descripción de los procesos físicos que subyacen detrás de ella. Una obra de teatro, por ejemplo, podría explicarse en último término apelando a interacciones a nivel átomico y subatómico. Si toda la realidad es un compuesto de átomos (o de lo que sea que exista por debajo del nivel atómico), todo suceso comenzará por un acontecimiento atómico y terminará en otro de la misma naturaleza. La fantástica interpretación de Hamlet que acabo de contemplar puede explicarse solamente recurriendo a toda la compleja red de sucesos cuánticos que se dan en el brazo del actor principal mientras sujeta la calavera y todo lo demás que ocurre a ese mismo nivel mientras pronuncia “to be or not to be”.

La primera objeción que viene a la mente es pensar que el lenguaje de la física parece insuficiente para explicar lo que realmente significa contemplar la obra de Hamlet en un teatro. La cantidad de sensaciones, sentimientos, reflexiones, ideas, posturas metafísicas, etc. que pueden surgir de contemplar tan fastuoso evento parece no quedar suficientemente explicada solo apelando a términos como “spin del electrón” , “fuerza nuclear débil”, “cuanto de energía”, etc. Da la impresión de que hace falta más lenguaje, más palabras que las estrictamente físicas para dar una descripción completa a lo que puede representar Hamlet. En una línea similar va la crítica de Putnam al fisicalismo:

Supongamos que tenemos un tablero con un agujero redondo de 6 pulgadas de diámetro. Intentamos pasar por el agujero una clavija cuadrada de 6 pulgadas de lado y no lo conseguimos ¿Cómo hemos de explicar el hecho de que la clavija no pase por el agujero? Putnam dice que el tamaño y la forma del agujero proporcionan la explicación obvia. Llamémoslas macropropiedades del sistema. Otra alternativa sería caracterizar la posición y otras propiedades de cada uno de los átomos de la clavija y del tablero ¿Explican estas micropropiedades por qué la clavija no pasa por el agujero?

Las macropropiedades supervienen a partir de las micropropiedades. La posición de los átomos del tablero y la clavija determinan las macroformas y tamaño, pero no a la inversa. Si las macropropiedades explican por qué no pasa la clavija por el agujeto, ¿explican también este hecho las micropropiedades? Putnam dice que no. La lista exhaustiva de micropropiedades aporta una gran cantidad de información irrelevante. La posición exacta de cada átomo no importa: la microhistoria no es explicativa, según Putnam, porque se refiere a hechos que no son esenciales.

[…] El argumento de Putnam descansa en el supuesto siguiente: si C no es necesario para la ocurrencia de E, entonces C no es relevante para explicar E. Putnan dice que la posición de los átomos es explicativamente irrelevante sobre la base de que la clavija tampoco habría pasado por el agujero aunque la organización de átomos hubiese sido distinta.”

Elliott Sober, Filosofía de la biología

Pero Putnam se equivoca. Hay que diferenciar que una explicación contenga una gran cantidad de explicación irrelevante o que sea larga y tediosa, con que una explicación sea válida en el sentido de explicar completamente (o de manera satisfactoria) un hecho. Cuando yo digo “He movido el brazo para coger la manzana” estoy explicando de una manera muy eficaz y económica un hecho. Si tuviera que explicar el mismo hecho a nivel cuántico, me llevaría siglos enumerar las millones de interacciones físicas que han ocurrido en mi cuerpo para que yo pudiera coger mi manzana. Sería una explicación aburrida en la que, además, habría un montón de información irrelevante: seguramente saber la posición de los electrones de todos los átomos de las fibras musculares de mi brazo no sirva de mucho ya que no tendrá mucha importancia para explicar el movimiento del brazo. Pero es que nadie ha dicho que la explicación fisicalista tenga que dar cuenta de todo lo que sucede a nivel físico para explicar algo. Aquí solo nos estamos preguntando si esta explicación es suficiente para explicar todo lo que hemos dicho en la frase “He movido mi brazo para coger la manzana”. Y es que lo esencial de la explicación (el movimiento del brazo) sí que puede explicarse apelando únicamente a una serie de interacciones físicas (y no a todas). No entiendo porque Putnam parece sobreentender que la explicación fisicalista tenga que explicar absolutamente todas las micropropiedades para explicar una macropropiedad. Insisto en que la idea principal es que no hace falta explicar todo el movimiento de todas las moléculas de todos los objetos físicos que se ponen en juego cuando se interpeta Hamlet. El error consiste en pensar que la explicación fisicalista no resume, no va a procesos esenciales, es decir, en tener un mal concepto de lo que es una explicación.

Y es que si ponemos otro ejemplo lo veremos muy claro. Supongamos que tomo LSD. Para explicar mi conducta posterior a la ingesta parece que será esencial explicar las interacciones físicas que han tenido lugar entre mis receptores sinápticos y las moléculas de ácido lisérgico. En este caso la explicación micro explica sin irrelevancia alguna toda mi conducta a nivel macro.

Putnam no da en el clavo porque creo que el problema va en otra línea. La cuestión principal es: ¿Hay sucesos a nivel macro que no puedan ser explicados de ninguna manera apelando exclusivamente a los sucesos de nivel micro, es decir, al nivel al que opera la explicación fisicalista? Una primera cuestión que nos surge es por qué hay que explicarlo todo a este nivel: ¿qué tiene la física que no tengan la historia, la sociología o la biología para que su explicación tenga el privilegio de poder contener todas las demás explicaciones? La física lo explica todo a partir de movimientos de partículas, de fuerzas y energías que interaccionan con esas partículas. ¿Por qué una serie de conceptos aparentemente tan básicos pueden explicarlo todo? La respuesta es que la física es la ciencia con mayor éxito predictivo de todas y es que, de hecho, una ingente cantidad de sucesos macro se explican perfectamente desde el nivel físico. Esto constituye la razón por la que la física se haya erigido como la reina de las ciencias y pretenda explicarlo todo desde su particular óptica. Si hasta ahora hemos tenido mucho éxito haciendo las cosas así, ¿por qué no vamos a tener éxito adentrándonos en explicar áreas que no son genuinamente el campo de la física?

Pero supongamos que no puede, supongamos que hay propiedades a nivel macro que parecen resistirse mucho a la explicación micro. Esas propiedades se han denominado tradicionalmente como propiedades emergentes. Un ejemplo que suele citarse mucho es el de la digestión (o, a veces, la misma mente). El proceso digestivo obedece a la cooperación de un montón de procesos físicos muy diferentes (¿qué tiene que ver el proceso de la masticación con el proceso del metabolismo?), de tal manera que si solo apelamos a cada uno de ellos por separado, no podemos explicar el resultado final o global. Así, se alega que la digestión no es una propiedad estrictamente física ya que no puede definirse apelando a procesos físicos. Sin embargo, yo aquí no veo problema alguno pues, ¿por qué no podemos apelar al conjunto de todos los procesos físicos que forman parte de la digestión para definirla por muy diferentes que éstos sean? Si para mover mi brazo se dan un montón de procesos físicos a la vez… ¿diríamos que el resultado final, el movimiento del brazo, no es un proceso físico ya que no podemos explicarlo solo apelando a, por ejemplo, una única contracción de una fibra muscular del biceps? Se podría objetar: es que el conjunto de muchos procesos físicos no tiene por qué ser un proceso físico. Vale, pero, ¿qué más da? Podemos decir que el concepto “digestión” no es nada ontológicamente existente, sino que solo es una etiqueta para mencionar una serie de procesos físicos. No tenemos por qué recurrir a la existencia de entidades o explicaciones no físicas para poder hablar de la digestión. Pero no hace falta ni llegar a eso porque creo que es lícito decir que la digestión sí que tiene existencia ontológica como proceso físico. De modo inverso a como lo hemos dicho antes: que algo sea el conjunto de una serie de procesos físicos no hace que no sea un proceso físico también. Igual decimos cuando hablamos de un programa de ordenador. Los programas suelen estar constituidos por un montón de subprogramas a los que el programa general llama para que solucionen una serie de tareas concretas (se les suele llamar subrutinas). Windows está compuesto por muchos subprogramas…  ¿diríamos entonces que Windows es una propiedad emergente no explicable desde sus componentes? ¿Windows no es un programa por el hecho de estar compuesto por muchos programas?

Pero sigamos erre que erre. Supongamos que existen casos diferentes a la digestión de propiedades que no hay forma de explicar recurriendo a propieades microfísicas. Tenemos, de repente, una extraña propiedad que surge de un sistema físico pero que resulta muy extraña porque no hay forma de deducirla de nada de lo que sucede a nivel micro. De primeras, podríamos decir que el problema simplemente es que aún no conocemos suficientemente bien la naturaleza de esa propiedad o del nivel microfísico subyacente para poder explicarla. No obstante, esto sería un subterfugio y sí que dañaría la postura fisicalista, al menos hasta que pudiéramos encontrar la solución (sería recurrir a la falacia ad ignorantiam). Pero, de segundas, ¿qué razón hay para decir que esa propiedad emergente, a pesar de no ser explicable, no es también un proceso físico? ¿Qué tiene esa propiedad para que no pueda ser denominada física? Esa propiedad será algo parecido a las demás propiedades macro que yo observo habitualmente en el mundo y que sí puedo explicar en términos micro. Entonces, ¿qué tendrá ella que no tengan las otras propiedades macro para que no podamos decir que estamos ante algo no físico o no reductible a explicación fisicalista?

Invito a mis lectores a que traigan ejemplos de propiedades emergentes que no sean reductibles a propiedades físicas.

Desde que Libet publicara sus controvertidos experimentos sobre el libre albedrío se han vertido ríos de tinta sobre el tema. ¿Qué tomemos consciencia de nuestra decisión medio segundo después de que nuestro cerebro se active para realizar la acción es signo inequívoco de que nuestra acción no es libre? De primeras, los deterministas se frotaban las manos pues parece que sí: una decisión libre ha de ser fruto de un proceso consciente pues… ¿no parece absurdo pensar en una decisión inconsciente como auténticamente libre? Pero, de segundas, revisiones de los supuestos del experimento y pruebas posteriores pusieron en tela de juicio tan clarividentes resultados. Christoph Hermann, catedrático de psicología general de la Universidad de Carl von Ossietzky, critica las conclusiones de Libet y aporta nuevas e interesantes perspectivas desde las que afrontar el problema.

El equipo de Hermann realizó nuevos experimentos en los que a los sujetos se les daba la opción de pulsar dos teclas en función de una serie de estímulos visuales. Cuando vieran una determinada imagen debían pulsar la tecla de la izquierda y si veían otra, la de la derecha. Entretanto, podrían aparecer otras imágenes que no obligaban a pulsar tecla alguna y se monitorizaba la actividad cerebral mediante magnetoencefalografía. Lo que se probó es que la actividad cerebral preparatoria para pulsar cualquiera de las dos teclas aparecía, no sólo cuando se visualizaban las imágenes que señalizaban que había que pulsarlas, sino en las otras también. El cerebro no sólo se activaba en señal de tomar la decisión antes de ser consciente de tomarla, sino en señal de estar preparado para tomar cualquier decisión. La actividad cerebral refleja la expectativa genérica de tener que hacer algo, no la causación que precede a la decisión libre. Los experimentos de Libet quedan así invalidados.

Pero lo interesante del planteamiento de Hermann no está solamente en estos nuevos datos, sino en el horizonte conceptual en el que plantea todo: para que consideremos que una acción es libre han de darse tres condiciones:

1. Principio de autoría: para que una elección sea libre ésta ha de estar en consonancia con las creencias y convicciones del sujeto que la toma. Este principio es sumamente interesante pues permite que una acción sea libre sin que sea consciente. Por ejemplo, cuando yo voy conduciendo y piso el embrague para cambiar de marcha, seguramente, no soy consciente de que lo piso. Podría estar manteniendo una conversación por el móvil mientras lo hago (y atento a que la policía no me vea hacerla) y nadie diría que mi acción de pisar el embrague es una acción no libre. En nuestra vida cotidiana realizamos miles de acciones de modo automático y eso no debería ser incompatible con nuestro libre albedrío. Además, la posibilidad de una acción libre inconsciente invalida por completo las conclusiones de Libet.

2. Principio de autonomía: la decisión libre ha de tomarse en ausencia de coacción externa. Esto es lo que entendemos por libertad pública o política: que nadie nos obligue a hacer nada. Sin embargo, este tipo de libertad no soluciona nada a nivel filosófico. Podrían existir elementos “internos” que me obligaran a actuar de forma no libre. Por ejemplo, pensemos en que hemos tenido un padre muy autoritario que nos educó en la prohibición y la renuncia. Entonces diríamos que somos menos libres a la hora de elegir que otra persona educada de forma más liberal, aun cuando nuestras “determinaciones” vinieran de “dentro” y no de “fuera”.  O pensemos también en alguien que no puede hacer algo debido a una enfermedad mental como una fobia, por ejemplo. Si yo soy incapaz de entrar en una habitación llena de arañas de ningún modo soy libre para hacerlo. A mí nunca me ha gustado demasiado pensar las cosas en términos “espaciales”.

3. Principio de poder actuar de otra manera: para que una elección sea libre han de existir dos o más alternativas que puedan seleccionarse en igualdad de condiciones. Esta es, sin duda, la más problemática, y la clave del dilema. Los deterministas, de la mano de Laplace, dirían que no existe tal posibilidad, no se puede actuar de ninguna manera más que de la que se actúa. El hecho de que no podamos predecir las elecciones únicamente es resultado de nuestras insuficiencias metodológicas, aunque éstas sean totalmente insuperables (por ejemplo, cuando hablamos de sistemas caóticos o si llegáramos a aceptar la incapacidad absoluta de nuestras herramientas de predicción reducidas quizá para siempre a cálculos probabilísticos). Que no podamos predecir algo, aunque sea por definición, no implica que sea algo indeterminado. Los indeterministas, más amigos de la física cuántica que de la clásica, argumentarían, exactamente desde el mismo punto de partida, que del hecho de que no podamos predecir la conducta, lo no  se sigue de ninguna manera es que ésta esté determinada de antemano. Además, añadirían pruebas desde los extraños sucesos aparentemente aleatorios que parecen reinar en el mundo subatómico.

Pero ambas posturas se equivocan en afirmar nada, cayendo en la típica falacia ad ignorantiam.  Desde la ignorancia no se puede afirmar ni negar nada. No podemos predecir totalmente el mundo natural ni la conducta humana, ese es el único hecho. De aquí no puede deducirse lícitamente que la realidad está determinada o no. Hasta que no sepamos algo más, toda discusión será baldía. Escoger entre determinismo y libre albedrío será más una decisión personal basada en nuestras creencias y preferencias que una teoría basada en pruebas. Paradójicamente, será una decisión que cumplirá las tres condiciones de Hermann, una decisión libre.

P.D.: Otra reflexión colateral es pensar en que muchas máquinas toman decisiones cumpliendo las tres condiciones… ¿están nuestras computadoras actuando ahora mismo con libre arbitrio?

Véase Instrucciones para realizar un acto libre o si os gustan los zombis

 

Ex contradictione quodlibet (de una contradicción se sigue cualquier cosa) es una regla derivada de lógica de enunciados cuya sencillez es más que trivial pero cuyas consecuencias no dejan de parecer extrañas para nuestro sentido común.  Su fórmula es esta:

AΛ¬A→B

Si en un discurso nos encontramos con una contradicción, de ella podemos derivar lo que nos plazca, cualquier cosa. En el siguiente pasaje el filósofo medieval Duns Scoto nos fundamenta este principio:

La consecuencia “Sócrates corre y Sócrates no corre; luego, tú estás en Roma” es formalmente correcta. De la conjunción “Sócrates corre y Sócrates no corre” se sigue en consecuencia formal tanto el enunciado “Sócrates corre” como el enunciado “Sócrates no corre”. Del enunciado “Sócrates corre” se sigue de nuevo en consecuencia formal la disyunción “Sócrates corre o tú estás en Roma”. De esta disyunción y de la negación del primero de sus miembros se infiere “Tú estás en Roma”.

Dun Scoto, Quaestiones super Anal, Pr, II, 3.

Lo que Duns Scoto hace es una demostración muy sencilla:

-1.AΛ¬A                                   Sócrates corre y Sócrates no corre

2. A                       Aplicamos la regla de la simplificación o eliminación de la conjunción en 1. Sócrates corre

3. AVB                 Aplicamos la regla de la adición o introducción de la disyunción en 2. Sócrates corre o tú estás en Roma

4. ¬A                   De nuevo simplificación en 1. Sócrates no corre

5. B                      Aplicamos la regla  silogismo disyuntivo en 3 y 4 y ya está. Tú estás en Roma.

Parece extraño: Si Sócrates corre y no corre, tú estás en Roma o existen duendes verdes o Dios es uno y trino. Si lo pensamos bien y aplicamos este principio a todo nuestro discurso científico, en seguida se nos pone la carne de gallina. Si no queremos que de cualquier proposición científica se deriven todos los disparates imaginables, nuestro discurso ha de estar libre de cualquier tipo de contradicción, pues con que sólo exista una, de ella podrá derivarse absolutamente todo. La necesidad de coherencia se hace aquí más patente que nunca…

1. ¿Ha estado alguna vez el conocimiento científico absolutamente libre de contradicciones?

2. Situaciones como la dualidad onda-corpúsculo, el principio de incertidumbre, el efecto túnel o la superposición, entre tantos otros efectos cuánticos… ¿no estarían rayando la contradicción?

Insisto, con que exista una, una sola contradicción que se derive de cualquier tesis científica, todo nuestro conocimiento se va al garete mientras Feyerabend vuelve a enarbolar su célebre “En ciencia todo vale”. No me extraña que a la regla Ex contradictione quodlibet también se la llame principio de explosión.

Ahora que tanto se habla de Hawking (y del que todavía no tengo nada claro cuál es su postura respecto a Dios y a la religión) estaría bien que nos acordáramos de Weinberg, el cuál se atreve a hablar con bastante más franqueza.

Los compiladores de los diferentes lenguajes de programación suelen tener una función (RAND) para generar números aleatorios. Verdaderamente, los números que generan no son aleatorios sino que sólo lo parecen. Simplemente siguen un algoritmo congruencial que produce que no nos demos cuenta de que, realmente, los números son tan determinados como los que genera la cadena “12345678…”. Y es que el problema es difícil. Los algoritmos o programas, por definición, son pautas para generar cadenas de código, es decir, son reglas para determinar la salida de números determinados por esas mismas reglas. ¿Cómo hacer unas reglas para generar números que, precisamente, se definen por no sujetarse a regla alguna?

Por eso me he quedado atónito cuando leo aquí que han conseguido generar números verdaderamente aleatorios (42 nada menos), pero claro, a partir del mundo cuántico, sección de la realidad que tengo prohibida por receta médica. No obstante, invito a los físicos que envíen entradas explicándome el asunto. Una idea interesante que aporta el artículo es que si un número es aleatorio de verdad, ni Dios mismo puede anticipar su valor, por lo que si realmente existen números fruto del azar, Dios no puede ser omnisciente.

Pero, ¿qué es realmente un número aleatorio? Una definición  muy atractiva es la que da el ruso Kolmogorov en una magistral fusión entre computación y teoría de la información. Un algoritmo es un programa que en un número preciso y finito de pasos genera un código, una cadena de símbolos. Habitualmente, los programas son más cortos que las cadenas que producen (esta propiedad se llama compresividad y posibilita, desde una perspectiva computacional, las  leyes científicas).  Un programa mucho más largo que el código que produce sería un absurdo, ya que siempre podríamos generar un programa más corto que estableciera una función biyectiva (“uno a uno”) entre el programa y el código a generar de modo que tendría su misma longitud. Es decir, el programa más largo posible tiene la misma longitud que el código que genera. Y, sin casi quererlo, ese código es un número aleatorio.

Si tenemos un número que genera nuestro programa y conocemos el algoritmo que lo genera, estamos ante un número no aleatorio. Tenemos pautas para determinarlo, para crearlo. Sin embargo, si no disponemos de ningún algoritmo para generar ese número más que uno de similar longitud a él mismo, es porque no hay reglas que lo determinen.

Otro punto interesante del planteamiento de Kolmogorov es que su comparación entre la longitud del programa y la de la cadena que genera nos vale para medir la complejidad de los sistemas. Así, un sistema será más complejo que otro cuanto más largo sea el programa mínimo que lo computa. Entonces, cuanto más aleatorio seas, tanto más complejo serás. Aleatorio y complejo se hacen sinónimos ¿Cómo de complejos somos los seres vivos? Veámoslo en un texto de Mosterín:

“Uno podría pensar, por ejemplo, en medir la complejidad de un organismo por la longitud de su genoma (es decir, por la longitud de la secuencia de bases o letras que codifican su información genética), pero los resultados de esta medida no siempre corresponden a nuestras intuiciones. Algunos anfibios tienen más DNA por célula que los mamíferos (incluidos nosotros). Las cebollas tienen cinco veces más DNA por célula que los humanes, ¡Y los tulipanes, diez veces más!

Desde luego, la mera longitud del DNA es un indicador muy tosco de la complejidad. La medida matemáticamente más refinada es la de Komogorov: la complejidad de una secuencia es la longitud del mínimo programa que la genera (en cierta máquina universal de Turing estandarizada). Así, las numerosas partes repetitivas del llamado “DNA basura” que comprende la mayor parte del genoma de muchos organismos pueden ser en gran medida descontadas, pues pueden ser generadas por un programa relativamente corto. La reciente secuenciación de los genomas de varios organismos nos podría permitir intentar medir su complejidad de Kolmogorov, pero la tarea no tiene nada de trivial, pues se trata de una función no computable en general. En cualquier caso, esta medida no se ha computado todavía, y, si llegara a hacerse, nada nos asegura que vaya a corresponder a nuestras expectativas. Según la medida de Kolmogorov, los sistemas más complejos no son seres vivos (parcialmente simétricos y repetitivos), sino los completamente caóticos, como la “nieve” de la pantalla del televisor no sintonizado”

Los seres vivos estamos muy ordenados, tenemos múltiples repeticiones. Sin embargo, el comportamiento de un gas o de la misma nieve de la tele… ¡requiere un programa más largo! ¡Soy menos complejo que un canal mal sintonizado de mi tele! O sea, que si Dios fuera un superprogramador informático, los seres humanos no seríamos, ni de lejos, lo más difícil de programar… ¡Toma golpe al Principio Antrópico!

En esta página dicen que generan números verdaderamente aleatorios utilizando el tiempo atmosférico como sistema caótico. ¿Realmente son aleatorios esos números?

Argumentaba Lucrecio en su De Rerum Natura en contra de la eternidad del universo:

“Si no hubo origen de los cielos y la Tierra a partir de generación, y si existieron por toda la eternidad, ¿cómo es que otros poemas, antes del tiempo de la guerra de Tebas y de la destrucción de Troya, no han cantado también otras hazañas de los habitantes de la Tierra? ¿Cómo han caído en el olvido las acciones de tantos hombres en otros tiempos?… Salvo que, como es mi opinión, la totalidad del mundo es de fecha relativamente moderna, y reciente en su origen, y tuvo su comienzo hace un corto tiempo”

E igualmente Teofrasto, basándose en los procesos de erosión:

“Si la Tierra no hubiera tenido un  principio en el que nació, ninguna parte de ella se vería elevada sobre el resto. Las montañas serían ahora muy bajas, todas las colinas estarían niveladas con la llanura… Tal como es, la no uniformidad constante y la gran cantidad de montañas con sus enormes llanuras que ascienden al cielo son indicios de que la Tierra no ha existido siempre”

Son argumentos ingeniosos. El argumento de Lucrecio tiene mucho sentido si pensamos que el hombre nació con la Tierra (como afirma el Génesis) y que el hombre siempre ha elaborado documentos escritos. Aceptando estas dos premisas y pensando que los primeros documentos escritos que tenemos no llegan a los 4.000 años a.C. de antigüedad, no andamos muy lejos de las fechas que daban las autoridades cristianas al origen del Cosmos.  Por su parte, el de Teofrasto antecede el uniformitarismo de Lyell, pero niega otros elementos conformadores del relieve y, de alguna manera, el principio de conservación de la energía.

Sin embargo, algo que les quita ingenuidad para nuestra mirada moderna es que en ellos se trasluce la idea de irreversibilidad, idea que parecía desterrada de la física hasta no hace mucho.  La física newtoniana es, en muchos de sus aspectos, a-temporal, a-histórica. La fórmula de la gravedad no tiene en cuenta la historia de los cuerpos (de hecho, sólo atiende a muy poquita información sobre ellos: masa y posición). Qué era y qué no era el objeto antes  o después del movimiento importa poco (porque lo único que importa es el movimiento). Fue cuando se estudiaron las relaciones entre calor y trabajo cuando llegó el gran descubrimiento: los procesos físicos tienen historia, el tiempo es asimétrico. El desorden de un sistema tiende siempre a aumentar su entropía, siendo muy improbable que ocurra lo contrario. Nace la termodinámica y surge la idea de un tétricamente desordenado fin del Universo.

Resulta divertido todas las posibilidades filosóficas que conlleva esta idea. De primeras, la dificultad de elaborar leyes científicas acerca de un Universo que cambia cualitativamente se eleva a la enésima potencia. Ya no sólo se trata de describir lo que pasa en un momento dado, sino de describir lo que pasa en otros momentos de características diferentes del anterior. Los entes se multiplican, esta vez con necesidad. De segundas, la irreversibilidad de algunos sucesos supone poner límites a muchas posibilidades técnicas. Quizá no podamos revertir los efectos del envejecimiento o, la más descabellada aún, viajar hacia atrás en el tiempo. Otra idea es que con la irreversibilidad tenemos un criterio para determinar que viajamos del pasado al futuro. Si el tiempo fuera marcha atrás, del futuro al pasado y no hubiera sucesos irreversibles, no tendríamos ninguna forma de saberlo (en un Universo marcha atrás los extintores encenderían fuegos y las cerillas los apagarían, nada más). Sin embargo, cuando mezclo el café con la leche estoy demostrando nada más y nada menos que viajo hacia el futuro. Aunque según Boltzmann, es sólo una cuestión probabilística: existe la remota posibilidad de que el café y la leche se desmezclen solos. Podría decirse que el tiempo va hacia delante porque es más probable que así lo haga.

Y lo que resulta más curioso aún es que una idea que a la ciencia y a la filosofía les ha costado milenios en alcanzar, la gente de a píe la lleva manejando con total normalidad desde siempre sin saber nada de termodinámica. La vida misma parece más que nada una gran flecha de irreversibilidad. No podremos volver a nacer, no haremos de nuevo nuestra Primera Comunión, no daremos más nuestro primer beso, no tendremos nunca más veinte años… Lo que pasó pasó, aquel error que cometimos, por mucho que hagamos para enmendarlo, quedará siempre allí, tal y como sucedió, irreversiblemente.

Una de las cosas que más me cuesta entender de mi gremio, los filósofos, es  cómo es posible que el tema del Origen del Universo haya dejado de ser un problema filosófico, dejándoselo con exclusividad a astrofísicos y cosmólogos… No comprendo el hecho de que no aparezcan títulos en las librerías que se titulen “El concepto de inflación cósmica en el segundo Hawking” o “La expansión del Universo desde una perspectiva fenomenológica”. En fin, síntomas del anquilosamiento de una noble disciplina que necesita una tremenda renovación.  En pro de poner un granito de arena en solucionar este problema voy a hablar de una de las teorías cosmológicas más sorprendentes y atrevidas de la actualidad: la teoría de los universos múltiples.

El cosmólogo soviético de la Universidad de Tufts Alexander Vilenkin piensa que más allá de lo que consideramos Universo observable, existen otros universos, infinitud de universos que tuvieron sus propios big bangs (ríanse ustedes de la navaja de Ockham y de eso de no multiplicar los entes sin necesidad). Así mismo, esos universos se encuentran dentro de otros Universos siguiendo un patrón fractal, como si de un juego de muñecas rusas se tratara. Los universos son como burbujas “flotando” en lo que se denomina falso vacío. Así, tendríamos universos dentro de universos hasta llegar al falso vacío primigenio, del cual habrían surgido los primeros big bangs.

¿Y qué es el falso vacío? El vacío surge de quitar toda las partículas y toda la radiación de un espacio concreto. Siguiendo la concepción espacial de Newton, en la que el espacio es el gran continente de la materia, los físicos pensaban que ese espacio concreto tendría una densidad energética cero, es decir, que estaría realmente vacío. Sin embargo, Vilenkin desmiente eso afirmando que el vacío no está realmente vacío (es diferente de la nada. Llore señor Parménides), sino que tiene presión y puede estar en diferentes estados energéticos. Podrían existir vacíos con unas densidades energéticas muy altas (estos son propiamente, los falsos vacíos) que tendrían unas propiedades físicas algo extrañas: cada centímetro cúbico tendría una masa equivalente a la Luna, gravedad repulsiva y una alta inestabilidad que los hace decaer en vacíos con densidades energéticas más bajas. Al decaer, el falso vacío genera un enorme excedente energético que se transforma en partículas y radiación (he aquí la creación de nuestro Universo). Además, este falso vacío y su “antigravedad” o fuerza de repulsión explicaría el periodo de inflación cósmica inmediatamente posterior al Big Bang.

Multiverso: infinitos universos unos dentro de otros

El número de universos generado en este Multiverso es infinito, pero no los sucesos que en él pueden ocurrir. De ese modo la teoría del eterno retorno de Nietzsche puede tener sentido. Si el número es infinito pero los eventos que ocurren no, necesariamente, todas las posibilidades se darán y se repetirán… ¡infinitas veces! Mi vida se está viviendo exactamente igual a como la vivo yo ahora en infinitos universos paralelos. Pero es más, no sólo hay infinitos santiagos tecleando este mismo texto en sus ordenadores, sino que hay infinitos santiagos que no lo están haciendo porque escriben otro sobre salvar las ballenas, el estado de la economía o veinte formas de hacer una pipirrana… Desde luego, creernos el centro del Universo deja definitivamente de tener sentido. El Cosmos en su totalidad es un lugar donde se dan una y otra vez todas las posibilidades posibles… ¿Alguien puede descifrar esto?

Véase también: La noción de campo ha de sustituir a la de materia o En contra del materialismo (III)

O el capítulo 33 de Redes, o Una conferencia que dio Vilenkin para la Fundación Banco Santander